Google présente une IA bluffante qui transforme n’importe quel texte en image

Vous connaissez peut-être thispersondoesnotexist.com, un site qui génère de faux selfies en se basant sur une intelligence artificielle de NVIDIA. Google travaille sur un concept similaire, mais beaucoup plus poussé baptisé Imagen. Son fonctionnement est simple : on entre une description de quelques mots, et l’IA se charge de vous concocter une image. L’entreprise a diffusé quelques exemples dans un billet de blog, et le résultat est bluffant. Jugez par vous-même :

À gauche : « Un aigle à tête blanche fait de chocolat en poudre, de mangue et de crème fouettée ». À droite : « Un chien qui regarde avec curiosité dans un miroir et voit un chat »

Google n’est pas le premier sur ce segment : il existe déjà le logiciel DALL-E, dont une deuxième version est sortie le mois dernier et développée par OpenAI. Selon la firme de Mountain View, son outil est plus puissant. Elle s’est amusée à comparer ses résultats avec ceux de DALL-E, et son étude montre que les évaluateurs humains préfèrent nettement Imagen aux autres méthodes.

Si ces résultats sont impressionnants, il faut toutefois nuancer : les équipes ont sans doute choisi les meilleurs résultats et omis de relayer les images flues ou à côté de la plaque. DALL-E par exemple a du mal avec les négations (« un bol de fruits sans pommes »), les visages ou encore avec les textes. Google propose on son site une petite démo, qui permet de jouer avec une version limitée de l’IA avec seulement quelques mots utilisables.

À gauche: « Un geai bleu debout sur un grand panier de macarons arc-en-ciel». À droite: « Un corgi mignon vivant dans une maison faite de sushis».

Il faut dire que les résultats parfois impressionnants obtenus grâce à cette IA n’incitent pas à laisser son code open source à l’heure où les fake-news se partagent à tour de bras. « Les risques potentiels d’utilisation abusive soulèvent des inquiétudes quant à l’ouverture responsable du code et des démos », precisent les équipes de Google.

De plus, les chercheurs expliquent avoir nourrir leur algorithme à l’aide de très nombreuses données non triées venant du web. Autrement dit, ils ingèrent à peu près n’importe quoi, que ce soit de la pornographie ou des contenus haineux. « Ces ensembles de données on tendance à refléter des stéréotypes sociaux, des points de vue oppressifs and des associations désobligeantes, ou autrement nuisibles, à des groupes d’identité marginalisés », precise le texte.

À gauche: «Un fruit du dragon portant une ceinture de karaté dans la neige». À droite : « Une sculpture transparente d’un canard réalisée en verre. La sculpture se trouve devant une peinture représentant un paysage».

De plus, l’IA aurait un biais général en faveur de la génération d’images de personnes au teint plus clair ainsi qu’une « tendance à aligner les images représentant différentes professions sur les stéréotypes de genre occidentaux ». Les concurrents d’Imagen ont le même soucis : DALL-E a tendance à représenter le personnel de bord d’un avion comme des femmes, et les PDG comme des hommes.

Google précise égallement que son IA présente de sérieuses limitations lors de la génération d’images représentant des personnes. Tout cela pousse l’entreprise à conclure que son produit « n’est pas adapté à une utilization publique sans mettre en place de garde-fous supplémentaires ».

.

Leave a Comment