Village de la Justice www.village-justice.com

[Réflexion] La toute puissance de l’État à la lumière des algorithmes ? Par Johnny Anibaldi, Juriste.
Parution : vendredi 29 décembre 2023
Adresse de l'article original :
https://www.village-justice.com/articles/toute-puissance-etat-premiere-partie,48313.html
Reproduction interdite sans autorisation de l'auteur.

En réponse à un article publié le 7 juillet 2019, la présente publication se veut la première d’une série visant à partager des pistes de réflexion autour des implications d’un Etat détenteur d’une intelligence artificielle forte ou générale.
(Première partie).

Le 7 juillet 2019, Pascal Jacob publia un court texte mais à l’intitulé frappant : « La toute-puissance de l’ Etat » [1]. Voilà qui choque : comment l’Etat pourrait-il être tout-puissant s’il est précisément un Etat de droit, soit un Etat se soumettant à un ensemble de règles juridiquement contraignantes ? En effet, si l’Etat dispose de la toute-puissance, cela revient à dire que l’Etat sort du carcan juridique où il se trouvait : l’on serait alors face à un nouvel Etat. Revenons quelques instants sur une définition assez simple mais suffisante pour les besoins du propos : « En vertu de l’État de droit, tous les pouvoirs publics doivent toujours agir dans les limites prévues par la loi. La notion d’État de droit recouvre un processus d’élaboration de la loi qui soit transparent, démocratique et pluraliste et qui rende des comptes, une protection juridictionnelle effective, y compris l’accès à la justice, des juridictions indépendantes et impartiales et la séparation des pouvoirs » [2]. L’Etat n’est « de droit » qu’à la condition de s’inscrire dans l’orbite de la loi, laquelle, pour reprendre la Déclaration des Droits de l’Homme et du Citoyen, en son sixième article, est « l’expression de la volonté générale » [3] dans la lignée de la perspective ouverte par le Contrat social de Jean-Jacques Rousseau.

L’enjeu de cette publication est d’envisager la question d’une potentielle toute-puissance de l’Etat à la lumière des algorithmes.

I. Une intelligence artificielle « quasi-divine ».

Il peut apparaître superfétatoire de s’attarder, ne serait-ce que quelques instants, sur la définition des algorithmes tant ce terme est banalisé. Toutefois, l’intérêt de la manœuvre est de bien marquer la distinction entre les algorithmes, d’une part, et l’intelligence artificielle d’autre part. Pour bien cerner la différence, voici, d’abord, une définition de l’algorithme fournie par la Commission Nationale de l’Informatique et des Libertés : « un algorithme est la description d’une suite d’étapes permettant d’obtenir un résultat à partir d’éléments fournis en entrée » [4].

En conséquence, à l’instar d’une recette de cuisine, un algorithme ne recèle aucune particularité en soi : il n’est qu’un processus en vue d’aboutir à une fin. Pour autant, le regard porté sur l’algorithme change lorsqu’il est couplé à l’intelligence artificielle. Voici la définition qu’en donne Marvin Minsky : « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisant par des êtres humains, car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perpétuel, l’organisation de la mémoire et le raisonnement critique » [5] [6].

Cette définition de l’intelligence artificielle donnée, apparaissent clairement les enjeux afférents aux algorithmes : « (…) la totalité des technologies existantes à l’heure actuelle appartient à la catégorie de l’« IA faible » (aussi appelée IA étroite), c’est-à-dire des algorithmes entraînées pour effectuer des tâches spécifiques » [7]. Par contraste à l’IA faible existe l’IA forte « aussi nommée intelligence artificielle générale (IAG) […] considérée comme étant capable de réaliser une multitude de tâches, de prévoir et d’agir de façon largement supérieure à l’être humain » [8]. Il est par ailleurs extrêmement intéressant pour le présent sujet de rapporter les propos de Ian Hogarth à propos de l’IAG : « Un acronyme de trois lettres ne rend pas compte de l’énormité de ce que représenterait l’IAG, c’est pourquoi j’en parlerai comme ce qu’elle est : une IA quasi-divine (God-like AI) » [9].
Lorsqu’il parle d’une « IA quasi-divine », Ian Hogarth emploie un vocabulaire volontairement hyperbolique : l’intelligence artificielle aurait presque le potentiel d’une divinité, elle serait donc presque toute-puissante. Or, se pose un problème : une IA, en tant qu’elle est un ensemble d’algorithmes, peut-elle être en soi une potentialité quasiment illimitée ? Ou bien serait-ce le maître d’une IA forte qui détiendrait un potentiel sans limite ? Naturellement, la seconde option est la seule logique. Reste donc à se demander qui ou qu’est-ce qui pourrait (un jour ?) détenir une telle puissance.

II. Une citoyenneté menacée par un Etat tout-puissant.

Si un Etat de Droit venait à se rendre maître d’une IA forte, serait-il toujours un Etat de droit ? Un retour aux fondamentaux s’impose. L’Etat de droit est un Etat, donc une construction politique, reconnaissant la validité de règles juridiques et s’y soumettant. Une organisation politique, quelle qu’elle soit, doit disposer d’individus incarnant cette organisation : nécessairement, un détour par une administration s’impose. En outre, ce n’est pas l’Etat, en tant qu’entité politique qui détiendrait une puissance presqu’illimitée mais une administration. En ce sens, la véritable question est la suivante : une administration disposant d’un tel pouvoir serait-elle toujours en mesure d’être circonscrite par le Droit ? L’imposition d’un cadre à une entité ou à un groupe quelconque suppose un pouvoir supérieur à cette entité ou à ce groupe. L’IA forte ne risquerait-elle donc pas, en ce sens, de sonner le glas de la soumission de l’administration au Droit ?

Pour entamer la discussion, voici ce que disait le Conseil d’Etat à propos de l’intelligence artificielle dans son communiqué de presse du 30 août 2022 : « L’intelligence artificielle devrait permettre de renforcer la relation humaine entre le citoyen et l’agent public en dégageant du temps grâce à l’automatisation de certaines tâches (accusés de réception, demande de documents supplémentaires, etc.) et d’améliorer la qualité du service par l’accomplissement de tâches jusque-là matériellement impossibles » [10].

Il est intéressant de noter que dans son étude Intelligence artificielle et action publique : construire la confiance, servir la performance adoptée en assemblée générale plénière le 31 mars 2022, le Conseil d’Etat n’envisage jamais l’intelligence artificielle à la lumière de la distinction supra : qu’elle soit faible ou forte [11], lui préférant la distinction entre Intelligence artificielle générale et Intelligence artificielle étroite en se référant à la définition fournie par le Groupe d’expert de haut niveau sur l’IA, Commission européenne dans son étude « Une définition de l’IA : principales capacités et disciplines scientifiques » paru en 2018 : « Un système d’IA générale est censé être un système capable d’effectuer la plupart des activités que les humains peuvent faire. Les systèmes d’IA étroite sont au contraire des systèmes qui peuvent effectuer une ou quelques tâches spécifiques. Les systèmes d’IA actuellement déployés sont des exemples d’IA étroite » [12]. La distinction conceptuelle retenue par le Conseil d’Etat semble bien lacunaire vis-à-vis des subtilités de l’IA retenues dans les propos de Ian Hogarth ou encore de Marvin Minsky. L’enjeu n’est pas ici de discuter des propos retenus par le Conseil d’Etat : ce que la Haute juridiction administrative retient dans son communiqué de presse a néanmoins l’intérêt de servir, ici, de propos introductifs à la réflexion.

La détention d’une intelligence artificielle générale, « quasi-divine », entraînerait-elle la disparition d’un Etat de droit ou non ? Voilà la question à laquelle il y a lieu de s’attarder présentement. La question pourrait être traitée sous l’angle de la possibilité pour un Etat de droit ou une administration de se soustraire à tout régime juridique en vue de basculer dans l’autocratie la plus pure : ce ne sera pas le cas ici puisqu’il sera question d’un Etat devenu bien plus pernicieux, à savoir l’Etat s’inscrivant dans et respectant les limites imposées par le Droit mais usant de mécanismes en vue d’influencer, plus ou moins fortement, les comportements individuels. La réflexion se concentrera donc sur le rapport entre un Etat « tout-puissant » et l’existence même de la citoyenneté.

Pour commencer, une définition simple, tirée du Littré, du citoyen : « Celui, celle qui jouit du droit de cité dans un État. Exercer les droits de citoyen ». La citoyenneté a donc pour corollaire la détention et l’exercice de droits. Nécessairement, l’exercice de ces droits se doit d’être personnalisé : le citoyen exercera ses droits en son âme et conscience, sans être soumis à l’autorité d’un tiers, ce qui contredirait la qualité de citoyen elle-même. Or, quid de l’Etat tout-puissant ? Ne peut-il pas, de par sa toute-puissance, s’immiscer dans l’exercice des droits civiques tout en gardant intacte l’apparence d’un libre exercice de ces droits ?
C’est toute la question du droit souple qui se pose et, avec elle, celle des "nudges" [13], ces petits coups-de-pouce permettant de corriger la prise de décision ou l’action d’un individu, lequel est empêtré dans ses biais cognitifs. Or, l’Etat - et avec lui, l’Administration - est-il légitime à donner des coups-de-pouce ? Ne devrait-il pas, plutôt, se tenir en dehors du processus décisionnel de chaque individu ? N’y aurait-il pas, en définitive, une forme de paternalisme malsain ?

III. La nécessaire préservation de la liberté individuelle.

L’évocation du "nudge" en fin de deuxième partie fait naître bien plus de questions qu’il n’y paraît. Ne pouvant s’attarder à leur présentation - et a foritori à leur analyse -, la question retenue est celle de la préservation de la liberté individuelle à la lumière d’une catégorie particulière de nudges : l’hypernudge tel que l’a nommé Karen Yeung dans sa publication ‘Hypernudge’ : Big Data as a mode of regulation by design [14] Pour citer l’article, « le nudging piloté par les Big Data est donc agile, discret et très puissant, offrant à la personne concernée un environnement de choix hautement personnalisé […] » [15].

L’ "hypernudge" a donc une particularité : celle de personnaliser le coup-de-pouce : passant d’une assistance généralisée à tous, le nudge s’adapte à chacun. Le lien entre la détention d’une intelligence artificielle forte et le potentiel effacement de la citoyenneté se fait de plus en plus clair : à force d’hypernudges, un Etat tout-puissant serait en mesure d’amener les individus (pour ne pas dire citoyens : le seraient-ils encore ?) à réaliser des choix ou tendre vers des fins adaptées à une politique déterminée par l’Etat, laquelle peut elle-même être plus ou moins déterminée par une intelligence artificielle forte. Au-delà de la citoyenneté, ce serait toute la finalité de la politique elle-même qui sombrerait dans un automatisme aliénant. A titre de pure mise en relief : « en mars 2023, le premier ministre de la Roumanie, Nicolae Ciuca, se félicite d’être le premier dirigeant politique au monde à utiliser un robot conversationnel baptisé Ion, qu’il n’hésite pas à présenter comme son « nouveau conseiller honoraire ». […] Le robot Ion aura pour fonction d’informer le gouvernement en temps réel surs les opinions de la population roumaine par une analyse automatisée des publications les plus virales sur les médias sociaux, tout en recueillant les idées et propositions des citoyennes et des citoyens qui voudront communiquer directement avec lui » [16].

En outre, toujours dans la perspective des médias et réseaux sociaux, il est possible de voir advenir des bulles de filtre [17] « où chaque usager se voir enfermé dans une bulle d’information filtrée par un mélange de choix individuels et de sélections automatisées par des algorithmes » [18]. Les informations contradictoires et l’esprit critique allant de pair, ce dernier serait voué à disparaître ; or, si l’esprit critique n’est plus, que restera-t-il de la citoyenneté ?

À l’heure des prouesses technologiques, de la gouvernementalité algorithmique et de la datafication massive du monde, nombreuses sont les questions… Cette publication est la première - nous l’espérons - d’une série de réflexions sur le sujet de l’intelligence artificielle, des algorithmes, de l’Etat, de la citoyenneté et d’autres thématiques connexes. L’enjeu n’est évidemment pas de fournir des réponses arrêtées mais de nourrir la réflexion, le débat et, surtout, l’esprit critique.

Johnny Anibaldi Juriste, formateur en droit

[4https://www.cnil.fr/fr/definition/algorithme, consulté le mardi 26 décembre 2023.

[5Jonathan Durand Folco et Jonathan Martineau, Le capital algorithmique. Accumulation, pouvoir et résistance à l’ère de l’intelligence artificielle, Ecosociété, 2023, p. 15.

[6Il a semblé pertinent de se référer à la définition fournie par Marvin Minsky dans la mesure où il est, encore à ce jour, considéré comme « un pionnier de l’intelligence artificielle (IA) », Encyclopedia Universalis, v. « Minsky Marvin Mee (1927-2016) » (URL : https://www.universalis.fr/encyclopedie/marvin-lee-minsky/, consulté le mardi 26 décembre 2023). V. e.a. Le Monde, Marvin Minsky, pionnier de l’intelligence artificielle, est mort », 26 janvier 2016).

[7Jonathan Durand Folco et Jonathan Martineau, Le capital algorithmique, op. cit., p. 16.

[8Idem, p. 17.

[9Ian Hogarth, « We must slow down the race to God-like AI », Financial Times Magazine, 13 avril 2023, in Jonathan Durand Folco et Jonathan Martineau, Le capital algorithmique, op. cit., p. 17.

[11La présente affirmation n’est qu’une présomption simple : c’est à l’aide d’une recherche par mots-clés (Ctrl + F) que l’auteur a remarqué qu’il n’était fait, à aucun moment, usage de ces qualificatifs par rapport à l’IA.

[12Intelligence artificielle et action publique : construire la confiance, servir la performance, Conseil d’Etat, 30 mars 2022, p. 28

[13Définition proposée par Wikipédia à lire ici.

[14Karen Yeung (2017) ‘Hypernudge’ : Big Data as a mode of regulation by design, Information, Communication & Society, 20:1, 118-136, DOI : 10.1080/1369118X.2016.1186713.

[15« Big Data-driven nudging is therefore nimble, unobtrusive and highly potent, providing the data subject with a highly personalised choice environment - hence I refer to these techniques as ‘hypernudge’. Hypernudging relies on highlighting algorithmically determined correlations between data items within data sets that would not otherwise be observable through human cognition alone (or even with standard computing support Shaw, 2014), thereby conferring ‘salience’ on the highlighted data patterns, operating through the technique of ‘priming’, dynamically configuring the user’s informational choice context in ways intentionally designed to influence her decisions » in Karen Yeung (2017) ‘Hypernudge’ : Big Data as a mode of regulation by design, Information, Communication & Society, 20:1, 118-136, p. 122.

[16Jonathan Durand Folco et Jonathan Martineau, Le capital algorithmique, op. cit., pp. 238-239.

[17Définition de la CNIL : « Phénomène principalement observé sur les réseaux sociaux où les algorithmes de recommandation - qui alimentent par exemple les fils d’actualité des publications susceptibles d’intéresser les utilisateurs - peuvent parfois ne proposer que des contenus similaires entre eux. Ce phénomène intervient lorsqu’un algorithme est paramétré pour ne proposer que des résultats correspondant aux goûts connus d’un utilisateur, il ne sortira alors jamais des catégories connues ». URL : https://www.cnil.fr/fr/definition/bulle-de-filtre, consulté le mercredi 27 décembre 2023.

[18Jonathan Durand Folco et Jonathan Martineau, Le capital algorithmique, op. cit., p. 231.