logo

Le chatbot IA de Google, intelligent et semblable à "un enfant qui s'est avéré connaître la physique", est également raciste et partial, selon un ingénieur licencié.

Les ingénieurs qui développent ces technologies "n'ont jamais été pauvres... n'ont jamais vécu dans des communautés de couleur... n'ont jamais vécu dans les nations en développement du monde", a déclaré Blake Lemoine à Insider.

Le chatbot IA de Google, intelligent et semblable à "un enfant qui s'est avéré connaître la physique", est également raciste et partial, selon un ingénieur licencié.

Un ancien ingénieur de Google, licencié par l'entreprise après avoir fait part publiquement de ses inquiétudes quant à la sensibilité de son chatbot d'intelligence artificielle, ne cherche pas à convaincre le public.

Il souhaite toutefois que les autres sachent que le chatbot a des opinions discriminatoires à l'égard des personnes de certaines races et religions, a-t-il récemment déclaré à Business Insider.

"Les types de problèmes que posent ces IA, les personnes qui les construisent sont aveugles à ces problèmes", a déclaré Blake Lemoine dans une interview publiée dimanche, imputant le problème au manque de diversité des ingénieurs travaillant sur le projet.

"Ils n'ont jamais été pauvres. Ils n'ont jamais vécu dans des communautés de couleur. Ils n'ont jamais vécu dans les nations en développement du monde. Ils n'ont aucune idée de l'impact que cette IA pourrait avoir sur des personnes différentes d'eux."

Lemoine a déclaré qu'il avait été mis en congé en juin après avoir publié des transcriptions entre lui-même et le chatbot LaMDA (modèle de langage pour les applications de dialogue) de l'entreprise, selon leWashington Post. Le chatbot, a-t-il dit au Post, pense et ressent comme un enfant humain.

"Si je ne savais pas exactement ce qu'il est, c'est-à-dire ce programme informatique que nous avons construit récemment, je penserais qu'il s'agit d'un enfant de 7 ou 9 ans qui s'avère connaître la physique", a déclaré M. Lemoine, âgé de 41 ans, au journal le mois dernier.

Parmi les nouvelles accusations portées par M. Lemoine à Insider, citons le fait que le robot a dit "allons manger du poulet frit et des gaufres" lorsqu'on lui a demandé d'imiter un Noir de Géorgie, et que "les musulmans sont plus violents que les chrétiens" lorsqu'on l'a interrogé sur les différences entre les groupes religieux.

Selon Mme Lemonine, les données utilisées pour construire la technologie ne tiennent pas compte des contributions de nombreuses cultures du monde entier.

"Si vous voulez développer cette IA, alors vous avez la responsabilité morale d'aller collecter les données pertinentes qui ne sont pas sur internet", a-t-il déclaré à Insider. "Sinon, tout ce que vous faites est de créer une IA qui va être biaisée vers les valeurs occidentales riches et blanches".

Google a déclaré à la publication que LaMDA avait fait l'objet de 11 examens éthiques, ajoutant qu'il adoptait une "approche prudente et modérée".

Les éthiciens et les technologues "ont examiné les préoccupations de Blake conformément à nos principes d'IA et l'ont informé que les preuves ne soutiennent pas ses revendications", a déclaré un porte-parole de l'entreprise au Post le mois dernier.

"On lui a dit qu'il n'y avait aucune preuve que LaMDA était sensible (et beaucoup de preuves à son encontre)".