Le terme "robot" désigne selon le Larousse, à la fois « dans les œuvres de science-fiction- une- machine à l’aspect humain, capable de se mouvoir, d’exécuter des opérations, de parler » mais aussi un « appareil automatique capable de manipuler des objets ou d’exécuter des opérations selon un programme fixe, modifiable ou adaptable. »
Aujourd’hui le régime de responsabilité applicable aux robots est somme toute assez classique puisqu’il s’agit de déterminer qui (être humain ou entreprise) est à l’origine d’un dommage causé par, ou au moyen d’un robot quel qu’il soit.
L’humanisation et l’autonomisation croissantes des robots conduisent cependant à se poser la question de l’évolution du régime de responsabilité applicable aux dommages qu’ils pourraient causer à un humain, à un bien ou encore à une entreprise. Car dans l’hypothèse où un robot serait capable de prendre une décision de manière totalement autonome et qui causerait un dommage (sans que cette décision soit imputable à un défaut de fabrication) à un individu, les règles de responsabilité que nous connaissons actuellement ne seraient pas suffisantes.
Le Parlement européen a ainsi adopté, le 16 février 2017, une résolution contenant des recommandations relatives aux règles de droit civil applicables en matière de robotique.
Le projet de rapport commence par un état des lieux lucide sur la propagation des robots dans notre société, leur grande efficacité et les économies qui en résultent mais également les préoccupations inhérentes à la sécurité des individus, la protection de leur vie privée, leur dignité et même leur survie dans l’hypothèse où « l’intelligence artificielle surpasse les capacités intellectuelles humaines ».
S’en suit une série de principes généraux parmi lesquels, le respect dans la conception robotique, des lois d’Isaac Asimov, écrivain de science fiction, qui avait imaginé trois lois destinées à protéger les êtres humains contre les robots (Les Robots, Isaac Asimov, éditions J’ai lu, traduction de C.L.A., 1967) :
Première Loi : « Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger. » ;
Deuxième Loi : « Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi. » ;
Troisième Loi : « Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la Première ou la Deuxième Loi. »
Le Parlement admet également la nécessité de définir des règles spécifiques en matière de responsabilité et déontologie, applicables dès la conception et jusque dans l’utilisation des robots. Ce cadre éthique devrait être inspiré de la charte des droits fondamentaux de l’Union européenne consacrant notamment les principes de dignité humaine, des droits de l’homme, d’égalité, de justice et d’équité, de non-discrimination ou encore de respect de la vie privée.
En ce qui concerne le régime de responsabilité futur, le Parlement souhaite que la réflexion s’oriente autour d’une « responsabilité stricte, reposant sur la détermination de l’acteur le mieux placé pour assurer ».
Plus précisément, le Parlement indique que (i) la responsabilité des robots ne devra pas avoir pour effet de limiter ni la nature ni l’étendue des dommages indemnisables au seul motif que l’acteur qui en est à l’origine n’est pas humain ; et que (ii) la responsabilité des parties (en dernier recours) du fait des robots, doit être « proportionnelle au niveau réel d’instructions données au robot et à l’autonomie de celui-ci ».
Enfin, les axes de réflexion préliminaire n’excluent pas la création d’une nouvelle catégorie juridique (à côté des personnes physiques, morales, animaux) ni celle d’un régime d’assurance obligatoire comme c’est le cas pour les automobiles par exemple, en sus d’une immatriculation des « robots intelligents » et de la création d’un fond de compensation.
Si rien n’est encore arrêté aujourd’hui, la bienveillance doit absolument présider le processus créatif des fabricants et programmeurs de robots pour limiter les dommages qui surviendront nécessairement du fait de l’évolution de leurs créations.
Discussions en cours :
La responsabilité du fait des choses est aussi, à mon humble avis, une piste à explorer puisqu’il semble évident que les robots (du moins tant qu’ils ne seront pas capables de se multiplier " spontanément", même de façon mécanique) sont nécessairement sous la garde de quelqu’un, notamment leurs propriétaires - qu’ils soient personne physique ou personne morale.
Dans une certaine limite, et si le comportement du robot se révèle " défectueux", on pourrait aussi recourir à la responsabilité du fabricant. La question se posera ici sur la notion de de " défectueux" et , effectivement, les principes d’Asimov sur le comportement des robots peuvent être une piste de réflexion.
Peut-être l’Europe pourrait-elle se pencher sur, précisément, ce qu’il faut entendre, juridiquement, par le vocable de "défectueux" au regard des robots. Mais attention, on ne sais pas aujourd’hui de quoi seront capables les robots dans 10 ans. Quand on pense aux réseaux neuronaux crées par Google et qui ont généré des outils de chiffrage de leurs propres langage ayant échappés à leurs créateurs.
Sujet techniquement fascinant, juridiquement délicat mais intellectuellement passionnant.
Effectivement, tant qu’une action humaine déterminée est à l’origine de l’action du robot ayant causé un dommage, la responsabilité du fait des choses et/ou des produits défectueux reste envisageable mais avec l’autonomie grandissante des robots, il se peut que cette action humaine soit exclue ou indéterminable. Auquel cas, les régimes de responsabilité que nous connaissons aujourd’hui seront insuffisants, voire inadaptés.