L'UE élabore des lois sur la responsabilité des produits d'intelligence artificielle qui causent des blessures : le monde entier devrait y prêter attention

Les nouvelles règles de responsabilité peuvent servir de modèle mondial. Elles sont censées permettre aux personnes lésées par des logiciels d'IA d'obtenir plus facilement réparation, mais certains défenseurs des droits des consommateurs pensent qu'elles pourraient avoir l'effet inverse.

Bonjour et bienvenue à l'édition mensuelle spéciale de septembre de "Eye on A.I.".

Nous attendons tous avec impatience la "Journée de l'intelligence artificielle" de Tesla, vendredi, au cours de laquelle Elon Musk devrait dévoiler un prototype du robot humanoïde Optimus sur lequel l'entreprise travaille depuis un an. Avec mon collègue Christiaan Hetzner, nous avons interrogé des experts en robotique et des observateurs de Tesla afin d'avoir une idée de ce que Musk pourrait présenter demain - et de ce qui pourrait se rapprocher de la vision très médiatisée d'un robot majordome que l'entrepreneur milliardaire a fait naître (alerte spoiler : probablement pas très proche.) Vous pouvez consulter notre article ici. Et bien sûr, je suis sûr que nous couvrirons tout ce que Musk dévoilera dans l'édition régulière de la semaine prochaine de cette newsletter.

Entre-temps, il y a eu cette semaine une nouvelle qui n'a pas reçu l'attention médiatique accordée à la "Journée de l'intelligence artificielle" de Tesla, mais qui pourrait néanmoins s'avérer plus importante pour la façon dont les entreprises utilisent l'intelligence artificielle. Mercredi, l'Union européenne, qui a ouvert la voie au niveau mondial en créant une réglementation autour de la technologie, a publié une nouvelle série de propositions de lois sur la responsabilité civile pour ceux qui déploient des systèmes d'intelligence artificielle. Les règles tentent de mettre à jour et d'harmoniser les règles de responsabilité existantes dans le bloc des 27 pays afin de prendre en compte le fait qu'avec de nombreux systèmes d'IA, il peut être difficile pour une personne qui a été lésée par un logiciel d'IA de comprendre comment le logiciel fonctionne exactement et où il s'est trompé.

N'oubliez pas que l'UE dispose déjà d'une nouvelle loi sur l'IA qui suit son cours dans le processus législatif. Cette loi établit des exigences différentes pour l'utilisation de l'IA dans les cas d'utilisation à haut risque - ceux qui affectent la santé, la liberté fondamentale et le bien-être financier d'une personne - et les cas d'utilisation à plus faible risque, comme le marketing ou la personnalisation des offres de détail. Les entreprises ou les organisations qui utilisent l'intelligence artificielle pour des utilisations à haut risque sont tenues de tester davantage le logiciel, de s'assurer que les résultats de l'intelligence artificielle peuvent être "interprétés" par la personne qui utilise le logiciel et de conserver une piste d'audit.

Les nouvelles règles proposées dans la directive de l'UE sur la responsabilité de l'I.A. introduisent plusieurs concepts importants. D'une part, les règles notent que la perte de données est un préjudice potentiel pour lequel une personne peut demander des dommages et intérêts en responsabilité civile. D'autre part, les règles proposées indiquent clairement que les logiciels sont considérés comme une sorte de "produit" dans le cadre des lois européennes sur la responsabilité. Les défenseurs des droits des consommateurs et de la protection des données ont applaudi ces deux dispositions.

Ensuite, la proposition indique qu'un tribunal peut désormais ordonner à une entreprise utilisant un système d'IA à haut risque de fournir des preuves du fonctionnement du logiciel. (Il est précisé que la divulgation doit être "nécessaire et proportionnée" à la nature de la demande, un critère d'équilibre qui, selon l'UE, permettra de garantir que les secrets commerciaux et autres informations confidentielles ne sont pas divulgués inutilement. Mais, comme toujours, il appartiendra aux tribunaux de déterminer comment cela s'applique dans un cas précis). L'UE prévient que si une entreprise ou une organisation ne se conforme pas à une divulgation ordonnée par un tribunal, les tribunaux seront libres de présumer que l'entité utilisant le logiciel d'IA est responsable.

Deuxièmement, et c'est le point le plus important, l'UE propose que lorsqu'un préjudice peut être établi et qu'un système d'IA a participé à la prise de décision, et lorsqu'il y a au moins une certaine probabilité que le logiciel d'IA ait contribué au préjudice, il y aura une présomption de responsabilité.

"Le principe est simple", a déclaré à la presse Didier Reynders, commissaire européen chargé de la justice. "Les nouvelles règles s'appliquent lorsqu'un produit qui fonctionne grâce à la technologie de l'IA cause un dommageet que ce dommage est le résultat d'une erreur commise par les fabricants, les développeurs ou les utilisateurs de cette technologie."

Il est intéressant de noter que, dans ce cas, l'Union européenne définit l'"erreur" comme incluant non seulement des erreurs dans la conception, la formation, le déploiement ou le fonctionnement de l'IA, mais aussi le fait que l'entreprise ne se soit pas conformée à un grand nombre d'exigences en matière de processus et de gouvernance stipulées dans la nouvelle loi sur l'IA de l'Union européenne. Les nouvelles règles de responsabilité stipulent que si une organisation n'a pas respecté son "devoir de diligence" en vertu de la nouvelle loi sur l'informatique, par exemple en omettant de procéder à des évaluations des risques, des tests et une surveillance appropriés, et qu'une action en responsabilité est intentée par la suite, il y aura une présomption que l'informatique était en faute.

Selon les experts juridiques, il s'agit là d'une astuce intelligente de la part de l'UE, car elle crée un mécanisme supplémentaire pour forcer le respect de la loi sur l'intelligence artificielle. Si une entreprise ou une organisation ne suit pas les mesures d'atténuation des risques et de conformité décrites dans la loi sur l'I.A., elle s'expose à un risque accru de responsabilité civile en cas de problème ultérieur, même s'il n'est pas clair que l'I.A. elle-même a causé le problème.

Bien sûr, un défendeur a le droit de présenter des preuves réfutant ces présomptions - et dans le cas de l'I.A. à haut risque, le défendeur peut faire valoir que la présomption ne devrait pas s'appliquer parce que suffisamment d'informations sur le fonctionnement interne de l'I.A. sont disponibles pour prouver ou réfuter la réclamation. Mais cette présomption de faute donne aux avocats spécialisés en responsabilité civile un outil puissant à utiliser contre ceux qui déploient des logiciels d'IA.

Pourtant, les défenseurs des droits des consommateurs ne sont pas tous satisfaits des nouvelles règles de responsabilité. Ursula Pachl, directrice générale adjointe du Bureau européen des unions de consommateurs (BEUC), a félicité l'Union européenne d'avoir mis à jour les règles relatives à la responsabilité du fait des produits afin de prendre en compte les nouvelles technologies basées sur les logiciels, notamment l'IA. Dans ces cas, une entreprise est responsable de tout défaut dans un produit qu'elle fabrique et vend, quelles que soient les précautions prises pour éliminer les défauts. Mais avec l'I.A., une entreprise qui peut prouver qu'elle s'est conformée à la loi européenne sur l'I.A. et qu'elle a pris des mesures raisonnables pour atténuer les risques de son système d'I.A., pourrait échapper à toute responsabilité, en particulier si l'algorithme était très complexe et difficile à comprendre. À tout le moins, ils devraient probablement engager des experts très compétents pour tenter de déterminer si l'algorithme est en cause.

"Les consommateurs vont être moins bien protégés lorsqu'il s'agit de services d'IA, car ils devront prouver que l'opérateur était en faute ou négligent afin de réclamer des dommages et intérêts", a-t-elle déclaré dans un communiqué. "Demander aux consommateurs de faire cela est une véritable déception. Dans un monde de systèmes d'IA 'boîte noire' très complexes et obscurs, il sera pratiquement impossible pour le consommateur d'utiliser les nouvelles règles."

Nous verrons si ces nouvelles règles européennes font réellement ce que l'UE pense qu'elles feront. Une fois de plus, l'Europe a pris de l'avance sur d'autres régions lorsqu'il s'agit de réglementer les nouvelles technologies émergentes. Aux États-Unis, la manière dont les lois existantes sur la responsabilité du fait des produits pourraient englober l'I.A. - et la manière dont elles pourraient être mises à jour - fait l'objet de nombreux débats. Mais ne soyez pas surpris si les législateurs des États et d'autres pays commencent à s'inspirer de ces nouvelles règles européennes.

Jeremy Kahn
@jeremyakahnjeremy
.kahn@ampressman



***

Rejoignez-moi pour ce qui promet d'être une fantastique table ronde virtuelle sur l'I.A. "Valeurs et valeur" le jeudi 6 octobre de 12h00 à 13h00, heure de l'Est.

Les systèmes d'IA et d'apprentissage automatique qui sous-tendent une grande partie de la transformation numérique sont conçus pour servir des millions de clients, mais sont définis par un groupe relativement petit et homogène d'architectes. Il existe des preuves irréfutables que ces systèmes apprennent des choix moraux et des préjugés de ces mêmes créateurs. Alors que les entreprises s'attaquent aux problèmes éthiques qui découlent de la collecte, de l'analyse et de l'utilisation généralisées de masses de données, rejoignez-nous pour discuter de l'endroit où se trouvent les plus grands dangers et de la façon dont les leaders comme vous devraient y réfléchir.

Parmi les orateurs figurent :

  • Naba Banerjee, Chef de produit, Airbnb
  • Krishna Gade, fondateur et PDG, Fiddler AI
  • Ray Eitel Porter, directeur général et responsable mondial de l'IA responsable, Accenture
  • Raj Seshadri, président, Données et services, Mastercard

Vous pouvez vous inscrire en suivant le lien de la veille virtuelle de Fortune.

***
Si vous souhaitez en savoir plus sur la manière d'utiliser efficacement l'intelligence artificielle pour dynamiser votre entreprise, rejoignez-nous à San Francisco les 5 et 6 décembre pour la deuxième conférence annuelle Brainstorm A.I. de Fortune. Découvrez comment l'intelligence artificielle peut vous aider à augmenter, accélérer et automatiser. Parmi les orateurs confirmés figurent des sommités de l'intelligence artificielle telles que Fei-Fei Li de l'université de Stanford, Andrew Ng de Landing AI, James Manyika de Google et Nicole Eagan de Darktrace .
Inscrivez-vous dès aujourd'hui !

***


L'I.A. DANS L'ACTUALITÉ

Meta lance un générateur de texte-vidéo. Le géant des médias sociaux ne veut pas se laisser distancer dans la course à la création de systèmes d'IA capables de générer automatiquement du contenu. Ces derniers mois, on a assisté à une frénésie d'intérêt pour les logiciels capables de générer, à partir d'une invite textuelle (un ours en peluche jouant du piano), des images représentant cette scène dans un large éventail de styles, du photoréalisme au simple dessin animé. Aujourd'hui, Mark Zuckerberg, fondateur et PDG de Meta, a annoncé que sa société avait créé un système similaire, mais qu'il pouvait générer de courtes vidéos à partir de l'invite, et pas seulement des images statiques. La raison de l'intérêt de Meta est évidente : en plus de se faire un nom dans le domaine de la technologie pour avoir fait progresser l'état de l'art, l'entreprise investit massivement dans la vidéo de courte durée par le biais de sa fonction Reels sur Instagram, dans le but d'égaler son rival TikTok, qui a volé de nombreux jeunes utilisateurs aux plateformes Facebook et Instagram de Meta.

OpenAI lance pleinement DALL-E 2 en tant que produit commercial. La société de recherche en I.A. basée à San Francisco a présenté le système de génération de texte en image qui a donné naissance à un millier d'imitateurs en avril et a commencé à fournir un accès commercial limité à un nombre restreint de "bêta-testeurs" en juillet. Cette semaine, elle a supprimé la liste d'attente pour rejoindre ce groupe de bêta-testeurs et permet désormais à tout le monde de s'inscrire pour utiliser le logiciel. Le PDG d'OpenAI, Sam Altman, a déclaré au Washington Post que le fait de donner au public un accès libre était "une étape essentielle pour développer la technologie en toute sécurité". Il faut apprendre au contact de la réalité", a déclaré M. Altman. Ce que les utilisateurs veulent en faire, les façons dont elle se brise". Et ce, bien qu'OpenAI sache qu'un système comme DALL-E pourrait être utilisé de manière abusive pour automatiser la création de fausses informations ou éventuellement dans le cadre de systèmes de fraude. Et si les fabricants d'avions envoyaient leurs produits dans le monde de cette façon ?

Faire en sorte que les patrons robots semblent trop humains peut en fait aliéner les gens. C'est la conclusion d'une étude menée par un chercheur de l'école de commerce de l'université nationale de Singapour, qui s'est penché sur les réactions des travailleurs humains à l'idée d'être supervisés par un robot. Comme l'a expliqué Kai Chi Yam, qui a dirigé l'étude, au Wall Street Journal , le problème est le suivant : lorsqu'un manager humain donne un avis négatif à un employé, celui-ci reconnaît que le manager a raison, qu'il a des lacunes et tente de les corriger, ou bien il réagit de manière défensive, pensant que le manager veut l'atteindre. Les chercheurs ont constaté qu'avec un robot qui ne ressemble pas à un être humain, les gens ont tendance à ne pas réagir de la sorte, car ils partent du principe que le robot n'a aucun pouvoir. Il ne fait que son travail. En revanche, lorsque le robot a une apparence plus humaine, les employés pensent qu'il s'agit d'une menace. La recherche est pertinente car, selon les données d'International Data Corp. citées par The Journal, on estime que d'ici 2024, 80 % des 2 000 plus grandes entreprises du monde utiliseront des "'gestionnaires numériques' pour embaucher, licencier et former les travailleurs dans des emplois mesurés par l'amélioration continue".