Ces images sont bluffantes de réalisme… Mais elles ont été créées par l’IA de Google grâce à une simple description

News hardware Ces images sont bluffantes de réalisme… Mais elles ont été créées par l’IA de Google grâce à une simple description

Le laboratoire Google Brain, spécialisé dans le deep learning, vient de présenter ses dernières avancées en matière d’intelligence artificielle: au programme, de la création d’images réalistes à partir de court texts. Le résultat est troublant, mais aussi potentiellement dangereux.

Sommaire

  • Des résultats plus convaincants que ceux de la concurrence ?
  • Une IA qui n’est pas destinée au grand public
  • Des derives dangereuses à éviter

« Un photoréalisme sans précédent combiné à une compréhension approfondie du langage » : voici la manière dont l’équipe de Google Brain résume Imagen, sa dernière création. Il s’agit d’une intelligence artificielle qui se destine à créer des images photoréalistes en se basant sur de courtes descriptions textuelles. Le principe est donc particulièrement simple : les ingénieurs rédigent une phrase, par exemple « un corgi mignon vit dans une maison faite de sushis », et la donnent à Imagen qui se charge de composer un rendu visuel réaliste. Le résultat ne manque pas de piquant.

Ces images sont bluffantes de réalisme... Mais elles ont été créées par l'IA de Google grâce à une simple description

Cette image de corgi, et toutes celles qui sont présentées sur la page d’Imagen, sont donc sorties de l’imagination, si l’on peut dire, de l’intelligence artificielle de Google. Cette dernière vient marcher sur les plates-bandes d’autres IA du même type, telle que DALL-E, développée par OpenAI.

Ces images sont bluffantes de réalisme... Mais elles ont été créées par l'IA de Google grâce à une simple description

Des résultats plus convaincants que ceux de la concurrence ?

Les chercheurs de Google Brain soutiennent que les résultats obtenus par Imagen ont tendance à davantage convaincre les observateurs que ceux d’autres IA similaires. Des propos qui se basent sur un test monté de toute pièce par les memes scientifiques, nommé DrawBench : il regroupe 200 phrases de test qui ont été fournies à trois autres IA en plus d’Imagien : VQ-GAN, LDM et DALL-E 2. Les algorithmes ont généré leurs propres rendus, qui ont ensuite été présentés à desnes bien lahuesé pouré de gern de l’image par rapport au texte. Imagen sort vainqueur à chaque fois.

Ces images sont bluffantes de réalisme... Mais elles ont été créées par l'IA de Google grâce à une simple description

Évidemment, cette étude est à prendre avec des pincetes puisqu’on l’imagine très largement orientée par les chercheurs de Google. Le laboratoire de l’entreprise joue cependant au maximum la carte de la transparence, en rendant publique la liste des 200 textes de DrawBenchde manière à ce que tout le monde puisse se faire une idée à son sujet.

Une IA qui n’est pas destinée au grand public

Les exemples mis en avant par Google Brain sont impressionnants. Mais la encore, on peut légitimement penser que seuls les résultats les plus réussis ont été sélectionnés pour présenter Imagen. Il est bien possible d’expérimenter l’IA en quelque sorte sur la page du projet, mais les choix restent extrêmement limités et ils ne résultent pas d’une action en temps réel réalisée par l’intelligence artificielle.

maleheureusement, les chercheurs de Google ne comptent pas proposer Imagen au grand public public, en tout cas pas en l’état. La raison évoquée est principalement ethique : l’intelligence artificielle étant vraisemblablement capable de fournir un rendu photoréaliste pour à peu près n’importe quoi, les scientifiques de Google craignent une utilisation pouvant avoir « un impact complexe sur la société ».

Ces images sont bluffantes de réalisme... Mais elles ont été créées par l'IA de Google grâce à une simple description

Des derives dangereuses à éviter

« Les risques potentiels d’utilisation abusive soulèvent des inquiétudes concernant l’aspect open source du code et des démos »peut-on lire sur le site du projet. « Pour le moment, nous avons décidé de ne pas publier de code ou de démo à destination du public. Dans le futur, nous chercherons un moyen d’externaliser cette solution de manière responsable, pour équilibrer la balance entre la valeur d’un test public et les risques liés à une utilization sans restriction. »

L’un des prochains objectifs des chercheurs de Google est de « supprimer le bruit et les contenus indésirables » qu’Imogen est susceptible de pouvoir utiliser dans ses mises en scène. « Nous avons notamment utilisé l’ensemble de données LAION-400M qui est connu pour contenir un large éventail de contenus inappropriés, notamment des images pornographiques, des insultes racistes and stéréotypes sociaux néfastes »commentent les scientifiques. « En tant que tel, il existe un risque qu’Imagen ait encodé des stéréotypes et des représentations nuisibles, ce qui guide notre décision de ne pas publier Imagen pour un public usage. »

On imagine facilement le désastre que pourrait entraîner un mauvais usage d’un tel outil, et il n’est pas surprenant que Google ne veuille prendre aucun risque. Reste désormais à savoir si une intelligence artificielle aussi puissante pourra, un jour, être utilisée à bon escient.

Leave a Comment