Arijit Sengupta, PDG d'Aible, estime que le succès de l'informatique dépend du sens des affaires et non de la science des données.
Arijit Sengupta a écrit un livre entier intitulé Why A.I. is A Waste of Money. C'est un titre contre-intuitif pour un homme qui gagne sa vie en vendant des logiciels d'IA à de grandes entreprises. Mais Sengupta ne l'a pas dit de manière ironique. Il sait de première main que pour un trop grand nombre d'entreprises, l'IA ne génère pas les retours financiers attendus par les responsables de l'entreprise. C'est ce qui ressort d'une série d'enquêtes récentes, dans lesquelles les chefs d'entreprise ont estimé que le taux d'échec des projets d'IA se situait entre 83 % et 92 %. "En tant qu'industrie, nous sommes pires que les jeux de hasard en termes de rendement financier", déclare M. Sengupta.
Sengupta a une formation en informatique, mais il est également titulaire d'un MBA. Il a fondé BeyondCore, une société de logiciels d'analyse de données que Salesforce a rachetée en 2016 pour un montant annoncé de 110 millions de dollars. Il a maintenant lancé Aible, une société basée à San Francisco qui fournit des logiciels permettant aux entreprises d'exécuter plus facilement des algorithmes d'intelligence artificielle sur leurs données et de construire des systèmes d'intelligence artificielle qui apportent une valeur commerciale.
Aible fait une promesse inhabituelle dans le secteur de l'intelligence artificielle : elle promet que ses clients verront un impact positif sur leur activité dans les 30 jours, ou qu'ils n'auront pas à payer. Son site Web regorge d'études de cas. La clé, selon M. Sengupta, est de déterminer les données dont dispose l'entreprise et ce qu'elle peut faire facilement avec ces données. "Si vous dites simplement ce que vous voulez, les gens demandent la voiture volante de Retour vers le futur", dit-il. "Nous explorons les données et leur disons ce qui est réaliste et quelles options ils ont."
Selon Arijit Sengupta, l'une des raisons pour lesquelles la plupart des projets d'IA échouent est que l'on apprend aux spécialistes des données et aux ingénieurs en apprentissage automatique à s'intéresser aux "performances du modèle" (dans quelle mesure un algorithme donné réussit-il à faire une prédiction avec un ensemble de données donné) plutôt qu'aux performances commerciales (combien d'argent, en termes de revenus supplémentaires ou d'économies, l'application de l'IA à un ensemble de données donné peut-elle générer).
Pour illustrer ce point, Aible a lancé un défi en collaboration avec l'université de Berkeley : il oppose des étudiants en science des données de niveau universitaire à des élèves deseconde utilisant un ensemble de données du monde réel composé de 56 000 patients anonymes d'un grand hôpital. Les équipes concurrentes doivent trouver l'algorithme de sortie des patients de l'hôpital de 400 lits qui rapportera le plus d'argent à l'hôpital, sachant que le maintien des patients à l'hôpital augmente inutilement les coûts, mais qu'il en va de même pour les erreurs qui entraînent la réadmission ultérieure du même patient. Le gagnant reçoit 5 000 dollars. Les scientifiques peuvent utiliser les outils logiciels de science des données de leur choix, tandis que les lycéens utilisent le logiciel d'Aible. Selon M. Sengupta, les lycéens ont battu les chercheurs de données de loin à chaque fois qu'ils ont participé au concours.
Selon lui, les adolescents sont capables de garder les yeux sur le résultat final. Ils ne s'intéressent pas au modèle particulier suggéré par Aible (Aible fonctionne en entraînant des centaines de modèles différents et en trouvant celui qui fonctionne le mieux pour un objectif commercial donné), alors que les spécialistes des données s'attachent à entraîner des algorithmes sophistiqués et à maximiser la précision des prédictions de décharge, mais perdent de vue l'aspect financier.
Le point de vue de Sengupta est qu'ignorer, ou ne pas comprendre, l'utilisation commerciale d'un système d'IA peut être carrément dangereux. Il décrit ce qu'il appelle la "spirale de la mort de l'I.A.", où un système d'I.A. maximise le mauvais résultat et mène littéralement une entreprise à sa perte. Prenons l'exemple d'un système d'IA conçu pour prédire quels prospects ont le plus de chances de se convertir en clients payants. Le système peut obtenir un meilleur score de précision en étant conservateur - en se contentant d'identifier les prospects qui ont de fortes chances de se convertir. Mais cela réduit considérablement le nombre de clients potentiels. Si vous continuez à exécuter ce processus d'optimisation en n'utilisant que le petit nombre de clients qui se convertissent, le pool continuera à se réduire, jusqu'à ce que l'entreprise se retrouve avec trop peu de clients pour se maintenir. Selon M. Sengupta, le taux de conquête de clients n'est pas la bonne mesure : l'IA devrait être formée pour optimiser les revenus ou les bénéfices, voire la croissance globale de la clientèle, et non les taux de conversion.
Pour éviter ces écueils, il faut un peu de compréhension de l'apprentissage automatique, mais beaucoup de compréhension des affaires. M. Sengupta n'est pas le seul à insister sur ce thème. C'est un point que beaucoup de ceux qui travaillent sur l'IA dans des contextes commerciaux - y compris les pionniers de l'apprentissage profond comme Andrew Ng - soulèvent de plus en plus : les algorithmes et la puissance de calcul deviennent, pour la plupart, des marchandises. Dans la plupart des études de cas présentées sur le site Web d'Aible, les clients ont utilisé le logiciel en nuage de la startup pour entraîner des centaines de modèles différents, parfois en moins de 10 minutes de temps de calcul. L'entreprise choisit ensuite le modèle qui fonctionne le mieux.
Ce qui différencie les entreprises dans leur utilisation de l'IA, c'est le type de données dont elles disposent, la manière dont elles les exploitent et ce qu'elles demandent exactement au système d'IA. "La construction de modèles devient un produit de base", explique M. Sengupta. "Mais extraire de la valeur du modèle n'est pas trivial, ce n'est pas une commodité".
Sur ce, voici le reste de l'actualité de l'intelligence artificielle de cette semaine.
Jeremy Kahn
@jeremyakahnjeremy.kahn@fortune.com
L'I.A. DANS L'ACTUALITÉ
OpenAI s'apprête à commercialiser son IA DALL-E, qui génère des images à partir de textes.Le laboratoire d'IA basé à San Francisco, qui est soutenu par Microsoft, a annoncé qu'il avait invité un million de personnes inscrites sur sa liste d'attente à commencer à utiliser DALL-E, un système d'IA capable de générer toutes sortes d'images, y compris des images photoréalistes, à partir d'une description textuelle. Le système a été utilisé par des artistes numériques et pour inspirer des équipes de conception, et pourrait être utilisé pour la génération d'images commerciales. Selon un billet de blog, OpenAI donne aux utilisateurs un certain nombre de crédits gratuits chaque mois, mais 115 crédits supplémentaires peuvent être achetés pour 15 dollars, ce qui indique qu'OpenAI a l'intention de faire de DALL-E un produit commercial. Il s'agirait de son deuxième produit après GPT-3, le système d'IA de génération linguistique.
Google licencie un chercheur qui a fait des déclarations sur un chatbot A.I. "sensible". Selon la lettre d'information Big Technology, le géant de la technologie a licencié Blake Lemoine, le chercheur en intelligence artificielle qui avait affirmé que le chatbot LaMDA de Google était devenu sensible. L'entreprise avait déjà placé Blake Lemoine en congé administratif rémunéré. L'entreprise affirme avoir licencié le chercheur pour avoir continué à violer ses règles de confidentialité, mettant potentiellement en danger des secrets commerciaux, et pour avoir continué à entreprendre des actions provocatrices, comme prétendre avoir engagé un avocat pour protéger les intérêts de LaMDA. M. Lemoine avait divulgué un certain nombre de documents internes de l'entreprise - y compris des copies de ses dialogues avec LaMDA - à la presse et à des membres du personnel du Congrès. La société affirme avoir enquêté sur les affirmations de Lemoine selon lesquelles LaMDA est sensible et les a jugées fausses. La grande majorité des chercheurs en intelligence artificielle affirment que les affirmations de M. Lemoine sont inexactes et qu'un système conçu de la manière dont Google affirme avoir conçu LaMDA ne pourrait jamais acquérir la sensibilité.
Lesystème de réapprovisionnement automatique de Walmart engorge les magasins avec trop de stocks,selon un rapport d'Insider, qui indique que les employés se plaignent de devoir stocker de vastes piles d'articles dans les salles de soins et les armoires à fournitures. Le détaillant a déclaré à la publication que "Comme l'inventaire est devenu un problème pour tous les détaillants, nous avons augmenté notre attention sur la création d'un environnement de travail sûr." Le problème, selon plusieurs experts avec lesquels Insider s'est entretenu, est qu'après avoir connu des pénuries inattendues pendant la pandémie en raison de tendances inhabituelles de la demande et de perturbations de la chaîne d'approvisionnement, Walmart a apparemment maintenant réglé son système de commande automatique pour s'assurer que les magasins disposent d'un inventaire "juste au cas où". Mais il se peut que Walmart ait maintenant trop tendance à surstocker, en particulier lorsque le comportement d'achat se normalise et que les perturbations de la chaîne d'approvisionnement s'atténuent. La demande pourrait même être en train de chuter en raison des craintes d'inflation et de récession. L'article d'Insider ne précise pas dans quelle mesure le système de réapprovisionnement de Walmart est "intelligent", s'il utilise une IA ou s'il s'agit d'un logiciel plus statique, basé sur des règles.
Un robot joueur d'échecs a attrapé et cassé le doigt d'un enfant après que celui-ci ait déplacé une pièce trop rapidement sur l'échiquier.Le robot joueur d'échecs participait à une démonstration à Moscou où il a joué plusieurs parties contre plusieurs adversaires simultanément. Au cours d'une partie contre un enfant de sept ans classé parmi les meilleurs, le robot a soudainement attrapé le doigt de l'enfant et l'a maintenu fermement, obligeant plusieurs adultes observant le match à se précipiter au secours du garçon. Ils ont libéré son doigt, mais il était cassé - bien qu'il ne soit pas clair si la blessure est survenue à cause de la pression exercée par le robot ou si elle s'est fracturée lorsque les adultes l'ont arraché de l'emprise du robot. L'incident semble s'être produit parce que le garçon a fait un mouvement avant le robot, qui venait juste de prendre une des pièces du garçon, selonThe Guardian.L'incident montre combien il peut être difficile de prédire comment les robots dotés d'une IA réagiront à des situations inhabituelles qu'ils n'ont pas rencontrées au cours de leur formation - et pourquoi nous devons être particulièrement prudents avant de déployer de tels robots dans des situations où ils sont à proximité physique de personnes.
LePDG de DataRobot démissionne suite à une controverse sur la vente d'actionsDan Wright, PDG de DataRobot, société de logiciels d'IA basée à Boston, a démissionné la semaine dernière suite au tollé des employés après la révélation que lui et d'autres cadres supérieurs de DataRobot avaient discrètement vendu pour 32 millions de dollars d'actions de la société l'année dernière, lorsque l'évaluation de la société privée a atteint 6,3 milliards de dollars, alors que le reste des 1200 employés de la société n'ont pas eu la même opportunité. Depuis, l'entreprise a dû faire face à une série de prévisions financières négatives et a annoncé des licenciements. Les révélations, rapportées pour la première fois par The Information, ont conduit le principal évangéliste de l'IA, Ben Taylor, à démissionner en signe de protestation.
L'ŒIL SUR LES TALENTS DE L'I.A.
DataRobot, la société d'intelligence artificielle basée à Boston, a nommé Debanjan Saha comme nouveau directeur général , a déclaré la société dans un communiqué de presse. Saha était le président et le directeur de l'exploitation de la société. Il avait été directeur général de l'analyse des données chez Google avant de rejoindre DataRobot plus tôt cette année.
Le cabinet d'avocats international BCLP (Bryan Cave Leighton Paisner) a engagé Dan Surowiec comme directeur de l'information, selon un article paru dans la revue spécialisée The Global Legal Post. Surowiec était auparavant directeur général du cabinet d'avocats international Baker McKenzie, basé à Chicago.
LA RECHERCHE SUR L'I.A. EN LIGNE DE MIRE
L'I.A. Gran Turismo de Sony a battu tous les concurrents au jeu vidéo de course automobile et a appris l'"étiquette"Dans un article paru dans la MIT Technology Review, le rédacteur Will Douglas Heaven s'intéresse à Gran Tourismo Sophy, un système d'I.A. que Sony a conçu pour jouer au jeu vidéo de course automobile Gran Turismo, qui est utilisé dans de nombreuses compétitions de sport électronique. Au départ, Sony a simplement essayé de former l'IA pour qu'elle puisse rester sur la piste à des vitesses supérieures à celles que la grande majorité des joueurs vidéo humains peuvent supporter. Ce seul fait a conduit à quelques révélations. Par exemple, les adversaires humains ont été "frappés par la façon dont GT Sophy prenait les virages, freinant tôt avant d'accélérer sur une ligne beaucoup plus serrée" qu'ils ne l'auraient fait normalement. Il utilisait la courbe d'une manière étrange, faisant des choses auxquelles je n'avais même pas pensé", a déclaré un pilote humain au magazine. Par exemple, GT Sophy laissait souvent tomber une roue sur l'herbe et dérapait dans les virages, un mouvement que les pilotes humains considéraient comme beaucoup trop risqué et difficile à réaliser sans s'écraser.
Mais, selon l'article de Heaven, Sony a constaté que même ces capacités surhumaines n'étaient pas suffisantes pour permettre à GT Sophy de gagner régulièrement dans les compétitions réelles, où les arbitres humains peuvent retirer des points aux voitures qui conduisent dangereusement. GT Sophy conduisait de manière si agressive qu'elle risquait souvent de heurter d'autres véhicules, obligeant les pilotes humains à abandonner leurs trajectoires. L'I.A. a accumulé trop de points de pénalité pour gagner. Sony s'est donc attaché à former l'IA pour qu'elle fasse preuve du même genre d'" étiquette de course " que les pilotes de course humains, à savoir le savoir subtil permettant de savoir quand doubler agressivement ou faire une embardée intimidante pour convaincre un adversaire de ne pas tenter de passer, et quand relâcher l'accélérateur et être plus prudent.
Selon Peter Wurman, responsable de Sony AI America, ce type d'étiquette est un "exemple du type de comportement dynamique et contextuel que les robots devront avoir lorsqu'ils interagiront avec des personnes", dans de nombreuses situations du monde réel. "Une prise de conscience du moment où il faut prendre des risques et de celui où il faut jouer la sécurité serait utile pour une IA qui interagit mieux avec les gens, que ce soit dans les ateliers de fabrication, dans les robots domestiques ou dans les voitures sans conducteur", écrit Heaven. Wurman déclare : "Je ne pense pas que nous ayons encore appris des principes généraux sur la façon de traiter les normes humaines que vous devez respecter, mais c'est un début et, espérons-le, cela nous donne un aperçu de ce problème en général."
FORTUNE SUR L'I.A.
Commentaire : Une nouvelle génération de scientifiques des données pourrait être notre meilleure arme contre le changement climatique-par Weiwei Pan.
Des tondeuses à gazon robotisées alimentées par l'IA vous aident à récupérer vos journées d'été - Chris Morris
GM veut tester une voiture sans volant, sans pédales et sans rétroviseur par Anurag Kotoky et Bloomberg.
BRAINFOOD
Les auteurs indépendants de romans de genre se tournent de plus en plus vers les assistants d'écriture de l'intelligence artificielle pour les aider à produire des livres aussi vite que les fans le demandent. C'est ce que révèle un article paru dans la publication technologiqueThe Verge,qui se penche sur le monde des auteurs qui gagnent de l'argent en auto-publiant des romans de science-fiction, de fantasy, de romance, de mystère et d'horreur sur des sites tels que Kindle Direct Publishing d'Amazon, Apple Books et Kodo. Pour générer davantage de revenus et répondre à la demande des fans, certains de ces auteurs autoédités se tournent vers des logiciels d'IA, dont certains sont basés sur le modèle GPT-3 d'OpenAI ou d'autres grands modèles de langage, qui peuvent composer automatiquement de longs passages de textes généralement cohérents, souvent dans un style particulier. L'auteur devra peut-être modifier un peu ce texte pour qu'il fonctionne ou assembler plusieurs petits passages générés par l'IA, mais c'est plus facile que de partir d'un écran vierge. Pourtant, cette technologie soulève toutes sortes de questions sur la signification de la paternité, de la créativité et de l'art. Joanna Penn, que le Verge présente comme "une romancière indépendante et l'une des plus ferventes partisanes de l'écriture par l'IA", explique qu'elle a fait l'objet de nombreuses critiques de la part de ceux qui considèrent le logiciel d'IA comme une sorte de tricherie qui dévalorise l'écriture. Mais elle dit :
La réalité... est que l'IA progresse, que les romanciers le veuillent ou non, et qu'ils peuvent choisir de l'utiliser ou de rester à la traîne. Pour l'instant, elle utilise Sudowrite comme ce qu'elle appelle un "thésaurus étendu". (Il n'y a qu'un nombre limité de façons de décrire une crypte, dit-elle.) Mais elle prévoit un avenir où les écrivains seront davantage des "directeurs de création", donnant à l'IA des instructions de haut niveau et affinant son résultat. Elle s'imagine affiner un modèle sur son propre travail ou entrer dans un consortium d'autres auteurs de son genre et céder leur modèle sous licence à d'autres écrivains. L'IA est déjà utilisée dans la photographie et la musique, dit-elle. "L'écriture est probablement la dernière forme d'art à être perturbée, car elle est tellement traditionnelle".