logo

Selon le PDG de Peak, combler le fossé entre les cadres et les ingénieurs est le secret pour éviter les cauchemars de l'intelligence artificielle.

Les cadres ont souvent des attentes irréalistes quant à ce que la technologie peut faire.

Selon le PDG de Peak, combler le fossé entre les cadres et les ingénieurs est le secret pour éviter les cauchemars de l'intelligence artificielle.

Dans un récent bulletin d'information "Eye on A.I.", j'ai évoqué le taux de réussite catastrophique de nombreux efforts en matière d'intelligence artificielle au sein des entreprises. La grande majorité de ces tentatives d'utilisation de l'IA ne parviennent pas à produire l'impact commercial escompté par l'entreprise. Dans cette lettre d'information, Arijit Sengupta, de la société Aible, a fait valoir que de nombreux spécialistes des données et ingénieurs chargés de mener à bien des projets d'IA ne comprennent pas pleinement le problème commercial que la technologie tente de résoudre.

Mais Richard Potter, directeur général de Peak, une société de logiciels d'intelligence artificielle basée à Manchester, en Angleterre, pense connaître une autre raison pour laquelle de nombreux projets d'intelligence artificielle échouent. Et cette fois, la faute n'incombe pas aux scientifiques et aux ingénieurs spécialisés dans les données. Selon lui, il y a souvent un décalage entre les attentes des cadres supérieurs et des conseils d'administration des entreprises et ce que les ingénieurs en apprentissage automatique peuvent réellement accomplir avec les données dont dispose une entreprise.

"Souvent, les cadres de la ligne d'affaires pensent que la technologie peut faire plus que ce qu'elle peut réellement faire", me dit Potter. Il dit qu'il a souvent participé à des réunions au cours desquelles un dirigeant discutait d'un défi commercial épineux et disait : "Nous allons simplement poser la question à l'I.A. et lui demander de le faire". M. Potter dit qu'il répond toujours : "Comment peut-elle faire cela ? Et quelle est exactement l'IA dont vous parlez ?" Cela les laisse généralement de marbre, dit-il.

Selon M. Potter, il existe un malentendu fondamental chez de nombreux cadres sur ce qu'est l'IA et comment elle fonctionne. Par exemple, de nombreux cadres croient que les systèmes d'IA, une fois correctement formés, sont infaillibles. "Les algorithmes ne sont pas fiables à 100 %", dit-il. "Là encore, votre équipe n'y arrive pas non plus tout le temps, mais vous ne mesurez probablement pas ses performances de la même manière et ne lui imposez pas les mêmes normes."

Il ajoute que de nombreuses entreprises ont réussi à utiliser des systèmes d'IA capables de fournir une mesure de leur propre confiance dans les prédictions qu'ils font. Dans les cas où le système est moins confiant, il est bon de s'assurer que les prédictions de l'IA sont examinées par des humains, dit-il. (Bien sûr, les situations dans lesquelles un système d'IA pourrait, par erreur, avoir une confiance élevée mais néanmoins se tromper sont particulièrement dangereuses - et M. Potter dit que les entreprises devraient être vigilantes face à de telles situations).

Selon M. Potter, une grande partie de la valeur de l'IA pour les entreprises ne réside pas simplement dans la précision, mais dans la cohérence. Les systèmes d'IA peuvent prendre une décision avec la même précision 24 heures sur 24, toute l'année, sans interruption. Les humains ne peuvent pas faire cela. Et c'est cette cohérence - plus encore que la performance absolue - qui rend possible des choses telles que la tarification dynamique en temps réel, par opposition à une équipe humaine de merchandising qui ne peut actualiser les prix que toutes les semaines ou tous les mois. "Cela peut conduire à des marges plus élevées et à une meilleure efficacité des stocks", explique-t-il.

La clé pour combler le fossé entre les attentes de la direction en matière d'intelligence artificielle et ce que les créateurs de systèmes d'intelligence artificielle savent être possible est, selon M. Potter, une meilleure éducation. "L'I.A. devrait absolument faire partie des programmes de MBA", dit-il. Mais en attendant, dit-il, des sociétés comme Peak, qui aident les entreprises à gérer des systèmes d'IA, ont le devoir d'éduquer les gens. Et il ajoute que de nombreux PDG apprennent maintenant en discutant avec d'autres PDG ce qui fonctionne et ce qui ne fonctionne pas. (À propos, si vous êtes un dirigeant qui souhaite participer à ce type de partage d'expérience, pensez à vous inscrire pour assister à la conférence Brainstorm A.I. de Fortune à San Francisco en décembre prochain).

Même si la plupart des cadres ne comprendront jamais l'IA avec l'expertise d'un ingénieur au niveau du code, M. Potter affirme que le fait d'acquérir une compréhension de base du fonctionnement des systèmes d'IA et d'être capable de parler le même langage que les ingénieurs qui construisent ces systèmes présente des avantages importants pour les entreprises. En effet, il est souvent confronté à une autre déconnexion : des ingénieurs qui sont tellement plongés dans les méandres de la technologie qu'ils ne peuvent pas comprendre l'objectif commercial des systèmes qu'ils essaient de construire et ne peuvent pas réfléchir de manière créative à la façon dont l'I.A. peut être appliquée pour créer de la valeur.

Selon M. Potter, l'une des compétences les plus importantes pour quiconque travaille avec l'IA n'est pas simplement de comprendre les données dont dispose l'entreprise et la façon dont elles peuvent être utilisées aujourd'hui, mais d'imaginer les données que l'entreprise pourrait être en mesure de recueillir à l'avenir, et la façon dont ces données peuvent être utilisées pour créer un avantage stratégique pour l'entreprise.

Et sur ce, voici l'actualité de l'intelligence artificielle de cette semaine.

Jeremy Kahn
@jeremyakahnjeremy.kahn@fortune.com

L'I.A. DANS L'ACTUALITÉ

Capitol Records contraint de laisser tomber son rappeur créé par A.I. C'était rapide. Dans le "Eye on A.I." de la semaine dernière, mon collègue Alexei Oreskovic détaillait la tentative de Capitol Records de tirer de l'or marketing de la signature d'un rappeur appelé FN Meka, un projet de la société de publicité Factory New. Les chansons de Meka étaient toutes composées par des logiciels d'IA et, bien qu'elles soient interprétées par un véritable chanteur humain, la seule présence visuelle du rappeur était un avatar numérique. Capitol a reçu tellement de réactions négatives - y compris des affirmations selon lesquelles le personnage de FN Meka était basé sur des stéréotypes racistes de musiciens noirs et des critiques selon lesquelles le compositeur de l'IA de Meka avait été formé sur des chansons de rap réelles sans donner aux créateurs de cette musique une compensation pour l'utilisation de leur propriété intellectuelle - que le label musical a dû abandonner le chanteur et annuler son accord avec Factory New en moins d'une semaine. Cette histoire peut servir d'avertissement quant au maquis éthique et juridique dans lequel de nombreuses industries créatives se précipitent pour adopter l'IA comme outil de génération de contenu. Ma collègue de Fortune Alice Hearing a plus d'informations sur la décision de Capitol d'abandonner Meka ici.

Le Forum économique mondial dénonce le manque de diversité des sexes parmi les concepteurs de l'IA.Le groupe économique suisse a publié un rapport dans lequel il s'alarme du manque de femmes dans les équipes qui conçoivent les logiciels d'IA. Selon le WEF, les femmes ne représentent que 22 % de la main-d'œuvre de l'IA dans l'industrie, 14 % des auteurs d'articles de recherche sur l'apprentissage automatique et 18 % des auteurs dont les articles sont présentés lors des principales conférences sur l'IA. Selon le groupe, ce manque de représentation rend plus difficile la détection des biais dans les données et les algorithmes de l'IA, qui peuvent exacerber les inégalités entre les sexes. Il a appelé les gouvernements à s'engager davantage à recruter des femmes dans les domaines de la science et de la technologie en général, et de l'apprentissage automatique en particulier, et a également déclaré qu'ils devraient faire davantage pour combler l'écart de rémunération entre les hommes et les femmes travaillant dans l'IA.

Lesautorités fiscales françaises utilisent l'IA pour repérer les piscines non déclarées.Le gouvernement français a déclaré avoir collecté plus de 10 millions d'euros de recettes fiscales supplémentaires l'année dernière après avoir utilisé un logiciel d'IA capable d'analyser des images aériennes pour repérer les piscines, rapporte la BBC. La possession d'une piscine est censée augmenter la valeur d'une propriété, ce qui entraîne une hausse des taxes foncières, et de nombreuses personnes essaient d'éviter d'en parler au fisc. Selon les médias français, une piscine moyenne est taxée à environ 200 euros par an. Pour la même raison, le gouvernement expérimente également cette technologie pour repérer les grandes extensions de maison.

UN ŒIL SUR LES TALENTS DE L'INTELLIGENCE ARTIFICIELLE

Monumental Sports & Entertainment,la société mère de l'équipe NBA des Washington Wizards, a engagéCharles Myers commedirecteur de la technologie , selon un article paru dans sporttechie, un site web qui fait partie de la publication spécialisée Sports Business Journal. M. Myers était auparavant vice-président chargé du développement des médias et de l'ingénierie au sein de la société de radio par satellite Sirius XM.

Cerebras Systems, fabricantde puces informatiques spécifiques à l'I.A., a embauchéLakshmi Ramachandranen tant que chef de l'ingénierie et responsable du site indien pour son nouveau bureau de Bangalore, a déclaré la société dans un communiqué de presse. M. Ramachandran était auparavant directeur principal du groupe Data Center and AI d'Intel.

REGARD SUR LA RECHERCHE EN I.A.

Peut-on apprendre à un réseau neuronal à apprendre des symboles ?Les réseaux neuronaux sont à l'origine de la plupart des avancées récentes en matière d'intelligence artificielle, et nombre d'entre elles concernent la perception, c'est-à-dire l'identification et la catégorisation des objets. Mais l'une des principales limites de l'IA basée sur les réseaux neuronaux est qu'elle ne peut pas effectuer de manière fiable certaines tâches de manipulation symbolique, y compris certains éléments de mathématiques, d'analyse grammaticale et de raisonnement de bon sens, ainsi que les systèmes qui ont reçu un ensemble de règles codées en dur. De nombreux chercheurs en I.A. ont proposé de remédier à cette situation par le biais d'une I.A. hybride qui combine certains éléments des réseaux neuronaux et certains éléments de l'ancienne forme d'I.A. codée en dur, Un groupe de chercheurs de l'Université de Trente et de l'Institut Bruno Keller en Italie a proposé une version intelligente de ce type de système hybride, dans laquelle un réseau neuronal est utilisé à la fois pour la perception - c'est-à-dire la catégorisation des données en groupes symboliques discrets - et pour l'apprentissage simultané des règles de manipulation de ces symboles. Bien que les chercheurs n'aient testé le système que sur une tâche relativement simple d'identification de caractères, des approches de ce type pourraient avoir de larges applications dans les systèmes d'IA commerciaux, en particulier parce que la façon dont l'IA prend ses décisions une fois qu'elle a appris les règles de manipulation symbolique est intrinsèquement plus interprétable que le fonctionnement d'un système de réseau neuronal pur. Vous pouvez lire leur document de recherche sur le dépôt de recherche non évalué par des pairs arxiv.org.

LA FORTUNE SUR L'I.A.

La Grande Démission a obligé les entreprises américaines à commander un nombre record de robots-par Tristan Bove

Un organisme de surveillance des assurances automobiles prévient que l'une des caractéristiques les plus importantes des voitures à conduite autonome peut ne pas repérer les piétons la nuit-par Tristan Bove

Les viticulteurs californiens utilisent l'intelligence artificielle pour lutter contre le changement climatique-by Stephanie Cain

Chez le géant des logiciels financiers Intuit, l'IA est en train de devenir un élément fondamental du fonctionnement de l'entreprise - Jeremy Kahn

BRAINFOOD

L'intelligenceartificielle générale, c'est-à-dire le type d'intelligence artificielle auquel on pense dans les films de science-fiction, n'est pas loin. Bien qu'il y ait des débats sur la définition exacte de l'AGI, une bonne définition pratique est celle d'une IA capable d'apprendre à effectuer un large éventail de tâches cognitives disparates aussi bien ou mieux que la plupart des humains. Pour l'instant, nous n'en sommes pas là. Mais la grande question est de savoir à quel point nous en sommes proches. Pendant longtemps, il n'y avait qu'une poignée d'entreprises commerciales qui se consacraient à la création d'IAO, les deux plus notables étant DeepMind, qui appartient à Alphabet, et OpenAI, qui a un partenariat étroit avec Microsoft mais qui reste une entreprise indépendante à "profit plafonné". Mais au cours des six derniers mois, on a vu apparaître toute une série de start-ups qui se consacrent essentiellement à la création d'"assistants numériques universels" ou d'autres types de logiciels qui ressemblent un peu à l'AGI. Et ces entreprises bénéficient d'un véritable soutien en capital-risque. L'exemple le plus récent est celui de Keen Technologies, une startup fondée par John Carmack, développeur de jeux vidéo de longue date et ancien directeur technique d'Occulus, qui a reçu un financement initial de 20 millions de dollars de Sequoia Capital et de plusieurs tech angels de premier plan.

Par ailleurs, Ajeya Cotra, analyste de recherche senior au sein de l'organisation caritative Open Philanthropy, qui finance de nombreux projets sur la "sécurité des I.A." (ou comment nous pourrions chercher à empêcher les I.A. de nuire à l'humanité, volontairement ou non) et qui a rédigé un rapport influent sur les délais possibles de développement des I.A.G. en septembre 2020, a récemment attiré l'attention de nombreuses personnes en avançant ses propres prédictions sur le moment où les I.A.G. pourraient arriver. Elle affirme maintenant qu'il y a une probabilité de 35 % que cela se produise d'ici 2036. C'est trois fois plus probable que ce qu'elle avait prédit il y a seulement deux ans. Et sa prédiction médiane est maintenant de 2040, soit une décennie plus tôt que la médiane précédente.

Mais si presque tout le monde reconnaît que l'IA devient plus performante dans certains domaines (comme la génération d'images, la génération de sons et certaines tâches de traitement du langage naturel), nombreux sont ceux qui regardent ce que l'IA d'aujourd'hui ne peut toujours pas faire - comme apprendre à partir de très peu d'exemples ou être aussi performante que la plupart des humains dans des tâches de raisonnement de bon sens, ou apprendre à faire quelque chose simplement en lisant un ensemble d'instructions, ou conduire une voiture en toute sécurité dans la plupart des conditions météorologiques et d'éclairage après seulement une poignée de leçons - et pensent que l'IA est peut-être encore bien loin. Qu'en pensez-vous ?