logo

Meta a demandé aux utilisateurs de tester son chatbot IA. Il s'avère qu'il n'est pas sûr que Biden ait gagné en 2020 et qu'il utilise des stéréotypes juifs.

BlenderBot 3 a été rendu public pour que les utilisateurs puissent l'aider à apprendre des conversations

Meta a demandé aux utilisateurs de tester son chatbot IA. Il s'avère qu'il n'est pas sûr que Biden ait gagné en 2020 et qu'il utilise des stéréotypes juifs.

Le nouveau chatbot IA de Meta a été lancé la semaine dernière auprès du public, mais il a déjà montré des signes de sentiments antisémites et ne semble pas savoir si Joe Biden est le président des États-Unis.

Vendredi, Meta a lancé BlenderBot 3, son chatbot d'IA le plus avancé à ce jour, et a demandé aux utilisateurs des États-Unis de le tester afin qu'il puisse apprendre du plus grand nombre de sources possible. La technologie d'apprentissage automatique recherche des informations sur Internet et apprend des conversations qu'elle a eues.

Dans un communiqué, Meta a déclaré : "Nous avons entraîné BlenderBot 3 à apprendre des conversations afin d'améliorer les compétences que les gens trouvent les plus importantes, qu'il s'agisse de parler de recettes saines ou de trouver des aménagements adaptés aux enfants dans la ville."

Cependant, depuis son lancement, ceux qui l'ont essayé ont découvert qu'il avait des réponses intéressantes et inquiétantes à certaines questions, notamment en affichant des stéréotypes antisémites et en répétant des affirmations négatives pour les élections.

Sur Twitter, le journaliste duWall Street Journal Jeff Horwitz a publié des captures d'écran de ces interactions avec le bot, qui comprenaient des réponses affirmant que Donald Trump était toujours président des États-Unis. Dans d'autres captures d'écran, le robot donnait des avis contradictoires sur Donald Trump et affirmait que le président indien Narendra Modi était le meilleur président du monde.

BlenderBot 3 a également montré qu'il traite des stéréotypes juifs, selon Jeff Horwitz et Business Insider. Une capture d'écran postée par Horwitz semblait montrer que BlenderBot 3 disait que les Juifs sont "surreprésentés parmi les super riches d'Amérique".

Des réponses inhabituelles largement partagées en ligne

Sur Twitter, d'autres sujets testés par les utilisateurs ont également suscité des réponses inhabituelles ; le robot a prétendu être chrétien, a demandé à quelqu'un des blagues offensantes et n'a pas réalisé qu'il était un chatbot.

Dans sa déclaration, Meta a reconnu que le chatbot avait peut-être quelques problèmes à régler : "Comme tous les chatbots d'IA conversationnelle sont connus pour imiter et générer parfois des remarques dangereuses, biaisées ou offensantes, nous avons mené des études à grande échelle, co-organisé des ateliers et développé de nouvelles techniques pour créer des protections pour BlenderBot 3."

"Malgré ce travail, BlenderBot peut encore faire des commentaires grossiers ou offensants, c'est pourquoi nous recueillons des commentaires qui permettront d'améliorer les futurs chatbots."

Meta n'a pas immédiatement répondu à une demande de commentaire.