Village de la Justice www.village-justice.com

Les dangers de l’intelligence artificielle et des robots pour les humains. Par Gerard Haas, Avocat.
Parution : mardi 28 juin 2022
Adresse de l'article original :
https://www.village-justice.com/articles/dangers-intelligence-artificielle-des-robots-pour-les-humains,43059.html
Reproduction interdite sans autorisation de l'auteur.

L’intelligence artificielle (I.A) peut être définie comme des algorithmes permettant d’analyser et de raisonner sur des points précis. Elle s’adapte à tous les domaines : I.A sous forme de bot pour corriger les articles Wikipédia, ou pour vous trouver un billet de train, ou encore pour chatter avec vous, voir même pour tweeter.

Or, les errances de l’intelligence artificielle font les choux gras de la presse : on se rappelle du chabot TAY de Microsoft qui tweetait des propos racistes et misogynes ou encore du logiciel de reconnaissance faciale de Google qui proposait la mention « gorille » pour des personnes noires.

Quant à l’I.A appliquée à la robotique, elle inquiète autant qu’elle intrigue. Dans l’imaginaire collectif, les « robots intelligents » finissent toujours par se rebeller contre l’espèce humaine. Isaac Asimov, écrivain connu pour ses œuvres de science-fiction, proposait déjà trois lois de la robotique afin d’encadrer cette dernière.

Aujourd’hui, l’IA en est à ses balbutiements, mais elle envahit progressivement notre quotidien. Comment réagir face à l’IA ? Car si elle a permis un progrès significatif de la société, elle ne reste pas pour autant sans danger et nécessite un encadrement.

Le règlement européen pour la protection des données personnelles (RGPD) impose déjà aux développeurs et autres programmeurs de concevoir des applications respectant le « privacy by design », c’est-à-dire : respecter la protection des données de l’utilisateur dès la conception du produit. Mais le développement de l’IA devrait, selon nous, être axé sur l’aspect éthique sans pour autant être surréglementé afin de ne pas étouffer toute innovation.

1. Affective computing : les problèmes éthiques du robot compagnon.

L’arrivée prochaine des robots dans notre société ne fait pas de doute mais entraîne la polémique, notamment sur un plan « éthique ».

Originellement le robot sert l’industrie et Aristote écrivait déjà que la machine était la solution pour pallier le travail pénible des hommes. Mais nous avons dépassé ce stade, et le robot est désormais envisagé comme un robot « social », un compagnon. Sa forme humanoïde fait débat, pour des raisons éthiques et sociales, on pense notamment aux « Real dolls », robots sexuels dont le marché est en plein boum au Japon. Ces sexbots sont de véritables poupées humaines dans lesquelles des systèmes robotiques sont intégrés. Le robot « Roxxxy » par exemple, comporte 5 personnalités différentes qui peuvent changer selon l’envie de son propriétaire.

Plusieurs associations féministes ont alors réagi afin d’interdire la fabrication de tels robots sexuels. Le motif : l’aggravation de la culture de « femmes objets », d’une part.

D’autre part, les robots peuvent devenir des perturbateurs affectifs pour l’homme. Prendre l’habitude d’humanoïdes dociles où la question du consentement ne se pose pas, peut provoquer un risque de banalisation de certains comportements et se répercuter sur les femmes humaines.

D’autres voient dans le marché des « Real Dolls » l’épuisement du trafic d’êtres humains et du marché du sexe, en appuyant la thèse selon laquelle la généralisation de ces robots viendrait remplacer la prostitution.

La question éthique de ces robots sociaux sexuels est celle de son impact sur l’image de la femme. Peu d’entre elles sont programmeuses dans la robotique, et il convient de s’intéresser sur leur représentation et leur rôle dans l’émergence de cette IA.

D’autre part, il faut comprendre que l’intelligence artificielle n’a rien à voir avec l’intelligence humaine. La machine n’a absolument pas conscience de ce qu’elle fait.

L’imaginaire collectif attribue au robot une possibilité d’avoir accès à sa propre conscience, car l’une des grandes peurs de la science-fiction est celle de l’IA devenant autonome qui décide de détruire l’humanité.

Certes, un robot peut être « humanisé », des recherches sont d’ailleurs en cours sur la mise en place de capteurs sur la peau du robot : si vous le caressez, le frappez, il aura des réactions différentes. La machine sera construite pour être vulnérable.

Le problème qui en découle, c’est qu’à force d’humaniser des robots, en leur donnant une forme humanoïde, des réflexes comportementaux, on risque de diminuer notre aptitude au « vivre ensemble ».

Bien que le « robot compagnon » ne ferait que simuler des émotions d’empathie ou de surprise et que ce ne seraient que des paramètres numériques implantés, une véritable « empathie artificielle », pour reprendre le terme de Tisseron, s’opèrerait, consistant à projeter ses émotions sur une machine.

Monsieur Trung en est l’illustration : comme pygmalion qui créa sa sculpture parfaite pour en tomber amoureux, il fabriqua sa compagne, « Aiko », robot humanoïde capable de tenir une conversation normale avec un être humain, de lire, et de reconnaître des visages.

2. Cognitive Robotics : les dangers des biais cognitifs de l’IA.

Un robot peut combiner quatre capacités que sont la polyvalence, l’interaction, l’autonomie décisionnelle et l’apprentissage.

Faire réaliser à un robot des tâches cognitives n’est pas sans danger. On pense au chabot TAY qui a tweeté « I fucking hate feminist and they should all die and burn in hell » [1].

Ses bavures viennent de sa manière d’acquérir les connaissances, car une IA n’a pas d’opinion propre, en réalité, leurs dysfonctionnements proviennent d’erreurs qui sont humaines.

Derrière l’algorithme de l’IA, on trouve les données et on a besoin de personnes qui les « génèrent ». A l’intérieur de ces robots virtuels, se cachent en réalité des personnes qui réalisent des tâches comme enregistrer des échantillons de voix, par exemple.

Souvent, le manque de diversité chez les programmeurs d’IA est une cause de dérives. Peu de femmes, et peu de personnes issues de minorités ethniques y sont représentées.

Le cas de « I.A Beauty » vient illustrer ce problème : un concours de beauté avait été organisé où le jury était entièrement composé de robots. La quarantaine de finalistes n’était quasiment que des personnes blanches.

Le problème humain à l’origine de ce racisme provient de la base de données qui a alimenté l’IA, celle-ci était essentiellement constituée de photos de personnes blanches. Ainsi, dans sa capacité d’apprentissage, l’IA a défini un standard de beauté sur une vision limitée de notre société.

En conclusion, ce qu’on reproche à l’IA ne serait que le reflet de disparités réelles.

Pour pallier le problème, il faut systématiquement vérifier que les échantillons de données fournissent des informations fiables afin de refléter la réalité. C’est pourquoi il est important que les équipes travaillant sur l’IA soient constituées de profils variés.

Mais, en plus des problématiques classiques, liées à l’éthique de l’IA et ses dérives cognitives, d’autres dangers sont à prendre en compte. L’empreinte écologique des I.A notamment, car la matière première pour produire cette technologie est un coût énorme en termes de batterie, lithium, empreinte carbone, etc.

Il nous paraît donc nécessaire de réguler l’IA, toute la difficulté sera de trouver comment.

Gerard Haas Avocat associé fondateur du Cabinet HAAS Avocats

[1« Je hais les féministes, elles devraient toutes mourir et brûler en enfer ».