Il est douloureux de voir certaines de ces réponses offensantes " - Meta défend son chatbot BlenderBot 3, parfois antisémite.

Cela fait partie de la courbe d'apprentissage. Mais qui enseigne ?

Bonjour, David Meyer est à Berlin et remplace Jeremy cette semaine.

Meta, la société mère de Facebook, a défendu sa décision de lancer une démonstration publique de son nouveau chatbot BlenderBot 3, qui est devenu offensant dès qu'il a été mis à disposition vendredi dernier.

Comme ma collègue Alice Hearing l'a rapporté hier, BlenderBot 3 s'est rapidement mis à régurgiter des tropes antisémites et à nier que l'ancien président Donald Trump a perdu l'élection de 2020. Plus ahurissant que scandaleux, il a également affirmé dans diverses conversations qu'il était chrétien et plombier.

Il convient de noter que Meta a clairement indiqué dès le départ que BlenderBot 3 était "occasionnellement incorrect, incohérent et hors sujet", même s'il constituait une amélioration par rapport aux chatbots précédents. (Meta publie une nouvelle version de BlenderBot chaque année depuis 2020, et celle-ci utilise un modèle de langage -OPT-175B- qui est 58 fois plus grand que celui qui alimentait BlenderBot 2. Il dispose également désormais d'une mémoire à long terme).

Comme l'a écrit la société :

"Puisque tous les chatbots d'IA conversationnelle sont connus pour imiter et générer parfois des remarques dangereuses, biaisées ou offensantes, nous avons mené des études à grande échelle, co-organisé des ateliers et développé de nouvelles techniques pour créer des protections pour BlenderBot 3. Malgré ce travail, BlenderBot peut encore faire des commentaires grossiers ou offensants, c'est pourquoi nous recueillons des commentaires qui nous aideront à améliorer les futurs chatbots."

Après la controverse du week-end, la responsable de la recherche fondamentale en IA de Meta, Joelle Pineau, a signalé cet avertissement antérieur et a insisté sur le fait que le travail en vaut la peine :

"Bien qu'il soit douloureux de voir certaines de ces réponses offensantes, des démonstrations publiques comme celle-ci sont importantes pour construire des systèmes d'IA conversationnels vraiment robustes et combler le fossé évident qui existe aujourd'hui avant que de tels systèmes puissent être mis en production", a-t-elle écrit lundi. "Nous avons déjà recueilli 70 000 conversations à partir de la démo publique, que nous utiliserons pour améliorer BlenderBot 3... Nous continuons à croire que le moyen de faire progresser l'IA est la recherche ouverte et reproductible à l'échelle."

Les temps ont certainement changé depuis que l'infâme chatbot Tay de Microsoft a choqué le monde avec son déni de l'Holocauste et sa misogynie en 2016, ce qui a conduit à sa mise à l'écart rapide - maintenant, de telles choses sont considérées comme nécessaires pour la formation de l'IA.

C'est en fait assez juste. Personne - enfin, pas grand monde - n'aimerait voir une entreprise déployer entièrement un chatbot qui émet des déchets dangereux, et Meta fait tout son possible pour rendre BlenderBot plus sûr. "Les premières expériences montrent déjà que plus les gens interagissent avec le modèle, plus il apprend de ses expériences et plus il s'améliore et devient plus sûr au fil du temps - bien que la sécurité reste un problème ouvert", a déclaré la firme lors du lancement de la démo publique.

Toutefois, Meta impose une limite assez importante à ceux qui peuvent interagir avec ce modèle : il est réservé aux États-Unis, de sorte que les gens comme moi ne peuvent pas y jouer.

D'un côté, cela évite sans doute à Meta bien des tracas avec des systèmes juridiques qui n'accordent pas autant de priorité à la liberté d'expression que les États-Unis. L'Allemagne, où je vis, ne prend pas du tout en considération les expressions de négation de l'Holocauste, et ses tribunaux n'apprécieraient pas non plus les affirmations selon lesquelles des rabbins américains ont préconisé une "solution finale" en 1940.

Mais d'un autre côté, l'exposition limitée de BlenderBot présente un risque d'esprit de clocher et de partialité centrée sur les États-Unis qui pourrait affecter les futures versions produites. Ceux d'entre nous qui vivent dans le reste du monde ont l'habitude de voir cela dans la technologie américaine, mais si l'intention est de proposer une expérience qui mette les gens à l'aise, une formation plus internationalisée serait utile.

Le temps nous dira dans quelle direction le chatbot de Meta se dirige. En attendant, profitons simplement des opinions très fluctuantes de BlenderBot 3 sur le maître Mark Zuckerberg, qui est "un bon homme d'affaires", "un homme génial et très intelligent", "une mauvaise personne" ou "trop effrayant et manipulateur", selon la personne qui pose la question.

Plus d'infos sur l'I.A. ci-dessous.

David Meyer
@superglazedavid.meyer@fortune.com

L'I.A. DANS L'ACTUALITÉ

Tesla pris pour cible à propos de la technologie de conduite autonome. Le Projet Dawn, un groupe qui "vise à rendre les ordinateurs sûrs pour l'humanité", a lancé une campagne publicitaire nationale aux États-Unis pour demander l'interdiction de la technologie de conduite autonome de Tesla. Les gens verront des images d'un test de sécurité du projet Dawn qui montre une Tesla fauchant à plusieurs reprises un mannequin de la taille d'un enfant. Dan O'Dowd, fondateur du projet : "Elon Musk dit que le logiciel de conduite autonome de Tesla est 'incroyable'. Il ne l'est pas. C'est une menace mortelle pour tous les Américains." Les régulateurs fédéraux de la sécurité automobile enquêtent actuellement sur une série d'accidents dans lesquels la technologie d'auto-conduite de Tesla pourrait avoir joué un rôle.

Les autorités britanniques utilisent la reconnaissance faciale pour traquer les migrants. Le gouvernement britannique va déployer un nouveau programme de suivi des ressortissants étrangers qui ont été condamnés pour une infraction pénale, rapporte le Guardian. Le dispositif, qui sera déployé à l'automne, obligera ces personnes à utiliser une smartwatch spéciale pour scanner leur propre visage plusieurs fois par jour. Lucie Audibert, avocate de Privacy International, a dénoncé l'opacité des algorithmes de reconnaissance faciale et a déclaré qu'aucun autre pays européen "n'a déployé cette technologie déshumanisante et invasive contre les migrants." La société qui fabriquera les appareils, Buddi Limited, est surtout connue pour ses bracelets d'alerte qui détectent les chutes de leurs porteurs. Parallèlement, CNN rapporte que la technologie de reconnaissance faciale fait son retour dans des villes américaines, comme la Nouvelle-Orléans, qui avaient auparavant interdit son utilisation par la police.

L'I.A. à l'origine d'une percée glaciaire. Des scientifiques de Princeton ont réussi à modéliser les étapes initiales de la formation de la glace dans une simulation qui, selon eux, atteint une "précision quantique". Cette avancée, qui repose sur des réseaux neuronaux profonds, pourrait améliorer la modélisation du climat et contribuer au développement de techniques de congélation rapide, a annoncé l'université. Le physicien Roberto Car, qui a découvert en 1985 comment simuler les comportements moléculaires en se basant sur les lois sous-jacentes de la mécanique quantique, a déclaré : "C'est comme un rêve devenu réalité... Nous espérions alors pouvoir étudier des systèmes comme celui-ci, mais ce n'était pas possible sans un développement conceptuel supplémentaire, et ce développement est venu d'un domaine complètement différent, celui de l'intelligence artificielle et de la science des données."

Afresh lève 115 millions de dollars lors d'un tour de table de série B. Afresh vient de recevoir un coup de pouce important dans sa quête pour développer et déployer son "Fresh Operating System" - une plateforme alimentée par l'intelligence artificielle qui aide les épiceries à gérer leur stock de produits frais et à lutter contre le gaspillage alimentaire -, a annoncé la semaine dernière l'entreprise (n°1 sur la dernière liste des meilleurs petits lieux de travail de Fortune). Le tour de financement de série B de 115 millions de dollars a été mené par Spark Capital, avec d'autres participants, notamment Insight Partners, Bright Pixel Capital, VMG Partners... et l'ancien PDG de Whole Foods Market, Walter Robb. Afresh a triplé sa clientèle l'année dernière et compte compter un dixième des épiceries américaines parmi ses clients d'ici la fin de l'année.

La FDA approuve de nouveaux algorithmes. La Food and Drug Administration des États-Unis a approuvé quelques logiciels intéressants, rapporte Fierce Biotech. Tout d'abord, un outil de Viz.ai qui détecte les hématomes subduraux potentiels (contusions cérébrales généralement causées par des blessures à la tête) dans les tomodensitogrammes. Il s'agit de la septième autorisation de la FDA pour Viz.ai. Ensuite, le système ProstatID de Bot Image a été approuvé. Il permet de détecter sur les scanners IRM les signes de cancer de la prostate, généralement très difficiles à identifier.

UN ŒIL SUR LES TALENTS DE L'I.A.

Compliance.ai a un nouveau PDG, Asif Alam, qui était auparavant directeur de la stratégie chez ThoughtTrace, récemment racheté par Thomson Reuters. Le cofondateur et ancien PDG Kayvan Alikhani restera au poste de directeur des produits et de la stratégie. La nouvelle est tombée alors que Compliance.ai annonçait un nouveau financement de 6 millions de dollars de la part de Cota Capital et JAM FINTOP.

Iodine Software a recruté Priti Shah en tant que nouveau directeur des produits et de la technologie, a annoncé la société d'informatique appliquée aux soins de santé dans un communiqué de presse. Priti Shah était auparavant directrice des produits chez Finvi, une société spécialisée dans l'automatisation des flux de travail.

REGARD SUR LA RECHERCHE EN I.A.

La synchronisation avec le métavers. Des chercheurs du Royaume-Uni et d'Australie ont proposé un cadre pour améliorer la synchronisation des objets physiques et de leurs équivalents numériques dans ce qu'on appelle le métavers. Il ne s'agit pas seulement d'assurer un suivi fluide des mouvements et un retour haptique opportun, mais aussi d'éviter les vertiges qui affectent parfois les personnes dans les environnements de "réalité mixte".

En s'appuyant sur les disciplines de l'échantillonnage, de la prédiction et de la communication, les chercheurs de l'université de Glasgow, de l'université d'Oxford et de l'université de Sydney ont mis au point un algorithme d'apprentissage par renforcement profond appelé KC-TD3 qui, selon eux, a bien fonctionné lors de tests réels impliquant un bras robotique et son homologue "métavers".

D'après leur article, que vous pouvez lire sur arXiv : "Les résultats expérimentaux montrent que l'algorithme que nous proposons atteint un bon temps de convergence et une bonne stabilité. Par rapport à un système de communication sans échantillonnage ni prédiction, le cadre de co-conception de l'échantillonnage, de la communication et de la prédiction peut réduire l'erreur de suivi moyenne et la charge de communication de 87,5 % et 87 %, respectivement. En outre, le cadre de co-conception fonctionne bien dans les systèmes de communication avec des probabilités élevées de perte de paquets, de 1 % à 10 %."

FORTUNE ON A.I.

Comment une application féminine utilise l'intelligence artificielle pour combler les lacunes en matière de santé des femmes - Lindsey Tramuta

La "Deep Tech" est devenue l'un des cas d'utilisation les plus puissants de l'intelligence artificielle dans les entreprises. Voici trois clés pour en tirer parti - par François Candelon, Maxime Courtaux, Antoine Gourevitch, John Paschkewitz et Vinit Patel.

Les détracteurs d'Amazon pensent que l'acquisition du Roomba par le géant technologique est nulle. Il ne sera pas facile d'empêcher l'opération - Jacob Carpenter

Musk lance un défi au PDG de Twitter, Parag Agrawal, sur Twitter : Débattez avec moi sur les bots - par Erin Prater

BRAINFOOD

La réglementation en matière d'intelligence artificielle est une affaire fragmentée. L'Union européenne est peut-être en train de prendre l'initiative d'une réglementation globale de l'I.A. avec sa loi sur l'intelligence artificielle (actuellement en cours d'examen par les commissions de protection des consommateurs et des libertés civiles du Parlement européen), mais ce n'est pas comme si les États-Unis n'avaient pas eux aussi une législation en la matière. En effet, comme le montre un nouveau suivi publié hier par l'Electronic Privacy Information Center (EPIC), de nombreux projets de loi ont été présentés et/ou adoptés l'année dernière au niveau des États et des collectivités locales.

L'Alabama et le Colorado ont imposé des limites à l'utilisation de la reconnaissance faciale par les forces de l'ordre. Le Vermont, l'Illinois et l'Alabama ont tous créé des commissions ou des divisions chargées d'examiner les sujets liés à l'I.A. La Californie tente même de mettre en place un groupe de travail sur le Deepfake. De nombreux États et villes sont clairement préoccupés par les implications des systèmes de décision automatisés en matière de protection des consommateurs.

Tout cela est nécessaire dans le développement de l'approche de la société face à des questions aussi complexes et transformatrices. Mais attention aux pièges d'une telle approche fragmentée, notamment pour les entreprises qui doivent naviguer sur un terrain réglementaire de plus en plus inégal.

Une analogie peut être trouvée dans le monde de la législation sur la protection de la vie privée, où la forte fragmentation a poussé les grandes entreprises à réclamer une approche fédérale. Le problème, c'est que les États qui ont déjà adopté des lois relativement strictes en matière de protection de la vie privée n'apprécient guère ce qui pourrait les diluer. C'est pourquoi, bien que la commission de l'énergie et du commerce de la Chambre des représentants ait finalement avancé le mois dernier la loi américaine sur la protection et la confidentialité des données, la Californie s'y est fermement opposée.

La réglementation des technologies émergentes sera toujours un exercice d'équilibre délicat, mais il y a certainement des avantages à prendre des mesures uniformes plus tôt que tard.