L’intelligence artificielle transforme le monde autour de nous, et son extraordinaire potentiel soulève de nombreuses questions sur la sécurité, l’équité et son impact sur nos vies. La nouvelle loi européenne sur l’IA, supervisée par le nouveau Bureau européen de l’IA, aborde ces questions de front et fournit un cadre unique en son genre pour le développement et l’utilisation responsables de l’intelligence artificielle.
Cet article fournit un résumé de la loi européenne sur l’IA en date du 25 mars 2024, notamment :
• Ce qu’est la loi européenne sur l’IA et ce qu’elle couvre
• Les exigences en matière de développement et de déploiement de l’IA à haut risque
• Les conséquences du non-respect de la loi européenne sur l’IA
• Statut et calendrier de la loi européenne sur l’IA
• L’impact mondial de la loi européenne sur l’IA .
Qu’est-ce que la loi européenne sur l’IA et que couvre-t-elle ?
La loi sur l’intelligence artificielle cherche à trouver un équilibre entre l’innovation et la sauvegarde des droits des utilisateurs, en classant les systèmes d’IA en quatre niveaux en fonction du niveau de risque potentiel qu’ils représentent.
Les niveaux de la loi européenne sont :
• Risque inacceptable - Applications d’IA interdites qui menacent les droits des citoyens. Il s’agit notamment des systèmes qui catégorisent les personnes en fonction de caractéristiques sensibles comme la race ou les traits faciaux, des technologies de reconnaissance faciale non ciblées, de la reconnaissance des émotions sur les lieux de travail et dans les écoles, du scoring social général, de la police prédictive et de l’IA conçue pour exploiter les vulnérabilités ou manipuler le comportement humain. En bref, Big Brother ne passera pas sous cette législation !
• Risque élevé – L’IA utilisée dans des domaines critiques comme les infrastructures, l’éducation, la sécurité, l’application de la loi et plus encore. Pensez à l’IA médicale diagnostiquant des maladies, l’IA optimisant les réseaux électriques, ou même les juges en IA dans les procès. Ces systèmes à haut risque pourraient être incroyablement bénéfiques pour la société, mais ils ont également besoin de garde-fous et d’une gestion méticuleuse pour limiter le risque de préjudice résultant de dysfonctionnements ou d’utilisations abusives. Si seulement Skynet y avait pensé !
• Risque limité - Les technologies d’IA généralement à risque plus faible, la transparence étant une exigence clé pour leur utilisation : pensez aux chatbots ou aux technologies deepfake. La loi sur l’IA insiste sur le fait que vous devez savoir lorsque vous interagissez avec de l’‘intelligence artificielle, afin de ne pas confondre votre nouveau copain bot avec un vrai ami (encore) !
• Risque minimal - L’IA dans les jeux vidéo ou les filtres anti-spam tombe dans cette catégorie. Pas besoin de faire appel aux régulateurs pour cela
Exigences en matière de développement et de déploiement de l’IA à haut risque
La loi sur l’‘intelligence artificielle définit des obligations spécifiques pour les fournisseurs de systèmes d’IA à haut risque, notamment :
• Développement - Les systèmes à haut risque doivent être conçus conformément aux exigences de la loi, en évitant les pratiques interdites
• Évaluations de conformité à la loi européenne sur l’IA et tests - Le système est soumis à une évaluation (éventuellement impliquant un organisme notifié) pour s’assurer qu’il répond aux normes de la loi. Des tests rigoureux et des audits d’utilisation garantissent la fiabilité, la sécurité et le respect des objectifs de la loi, car personne ne veut d’une IA défectueuse qui gère le réseau électrique
• Inscription - Les systèmes autonomes sont enregistrés dans une base de données de l’UE
• Déclaration et marquage - Une déclaration de conformité est signée et le système reçoit un marquage CE clair, qui lui permet d’être vendu dans l’EEE
• Surveillance post-marché - Les fournisseurs et les développeurs surveillent les performances du système, signalent les incidents et ajustent le système au besoin
• Surveillance humaine - Il doit y avoir une surveillance humaine de l’intelligence artificielle à haut risque pour minimiser les menaces et renforcer la responsabilité
• Processus de plainte des citoyens - Les personnes doivent pouvoir soumettre des questions ou des plaintes et recevoir des explications concernant les décisions prises par l’IA à haut risque qui peuvent affecter leurs droits.
Ce n’est pas tout. En plus de ces exigences spécifiques à l’intelligence artificielle à haut risque, la loi sur l’IA couvre également des exigences qui affectent à la fois les obligations de l’IA à haut risque et d’autres catégories présentant des dangers :
• Explicabilité - Empêche les mises en garde encadrées et élimine les biais dans la logique et les processus de l’IA
• Bacs à sable réglementaires - Permet aux entreprises, en particulier les PME et les startups, de tester et de développer une intelligence artificielle innovante sous supervision
• Audit du contenu de formation - Les technologies d’IA à usage général (GPAI) doivent répondre à des exigences de transparence et fournir des journaux et des résumés des ressources et du contenu utilisés pour les former. Certains types de GPAI seront soumis à des exigences et évaluations supplémentaires, telles que le signalement d’incidents et les évaluations des risques
Les conséquences du non-respect de la loi européenne sur l’IA
La loi européenne sur l’intelligence artificielle prend les violations au sérieux et les amendes sont suffisamment élevées pour imposer aux géants de la technologie de revérifier leur code.
• Niveau 1 : Utilisation de systèmes d’IA interdits - Les amendes les plus sévères (jusqu’à 35 000 000 € ou 7 % du chiffre d’affaires annuel mondial) s’appliquent à l’utilisation de systèmes d’IA considérés comme des risques inacceptables
• Niveau 2 : Violation des obligations en matière d’IA à haut risque - Le non-respect des exigences de la loi pour les systèmes d’IA à haut risque pourrait entraîner des amendes allant jusqu’à 15 000 000 € ou 3 % du chiffre d’affaires annuel mondial
• Niveau 3 : Informations trompeuses aux régulateurs – Le partage d’informations incorrectes, incomplètes ou fallacieuses aux autorités entraîne des amendes allant jusqu’à 7 500 000 € ou 1 % du chiffre d’affaires annuel mondial
Cela dit, la loi sur l’intelligence artificielle reconnaît les défis auxquels sont confrontées les petites entreprises. Elle permet de réduire les amendes pour les PME et les startups en fonction de la gravité de l’infraction et d’autres facteurs. Dans l’ensemble, chaque État membre déterminera comment mettre en œuvre ces dispositions dans son système juridique.
Qui est responsable ?
La loi sur l’IA tient plusieurs parties responsables de garantir une utilisation éthique de celle-ci. Il s’agit notamment des fournisseurs, des développeurs, des importateurs, des distributeurs et des organismes notifiés (chargés des évaluations). Même les fournisseurs de modèles GPAI peuvent être tenus responsables si leurs modèles sont ensuite incorporés dans des systèmes nuisibles.
Statut et calendrier de la loi européenne sur l’IA : délais de transposition et d’adoption
La loi européenne sur l’IA est entrée en vigueur le 1er aout 2024. Cependant, différentes dispositions seront appliquées selon un calendrier échelonné.
La plupart des dispositions de la loi, y compris celles régissant l’IA à haut risque, seront pleinement applicables 24 mois après son entrée en vigueur. Il existe quelques exceptions à ce calendrier :
• Pratiques d’IA interdites - Les interdictions de systèmes d’intelligence artificielle inacceptables seront appliquées plus tôt, seulement six mois après la date d’entrée en vigueur
• Codes de conduite - Les lignes directrices pour le respect volontaire entreront en vigueur neuf mois après
• IA à usage général - Les règles spécifiques aux modèles d’IA à grande échelle, y compris les exigences de gouvernance, s’appliqueront 12 mois après la date d’entrée en vigueur
Il est important de noter que les dates exactes dépendent du moment où la législation passe la dernière étape de révision et de publication, et que cette loi est conçue pour s’adapter à un domaine qui change de jour en jour.
Pourquoi la loi sur l’IA a un impact mondial, et ce qui vient ensuite...
La loi sur l’IA reflète une prise de conscience mondiale croissante de la nécessité de faire le lien entre les possibilités extraordinaires de l’IA et les considérations éthiques. Elle répond à des préoccupations réelles et a le potentiel d’influencer et de façonner le développement responsable de l’IA bien au-delà de l’Europe.
Voici pourquoi cette législation établit un précédent crucial :
• Renforcement de la confiance - En définissant des attentes claires en matière d’IA sûre et équitable, la loi renforce la confiance du public dans les systèmes d’intelligence artificielle. Cela rassure les gens en leur assurant que des mesures de protection sont en place pour protéger leurs droits et leurs expériences
• Protection des droits - Elle crée des garanties contre la discrimination alimentée par l’IA, la police prédictive biaisée et garantit que l’IA ne devienne pas un outil de suppression des libertés individuelles
• Innovation avec des garde-fous - La loi encourage le développement d’une IA sûre et éthique, favorisant un secteur technologique prospère et responsable
La loi européenne sur l’IA est une étape majeure vers une l’intelligence artificielle bénéfique à la société tout en protégeant les droits fondamentaux. Cependant, la technologie de l’IA et les réglementations évoluent rapidement. Avec son impact considérable, nous pourrions assister à une réaction en chaîne réglementaire, alors que d’autres pays se tournent vers l’exemple de l’UE et se précipitent pour rédiger leurs propres règlements sur l’IA.
Nous pouvons nous attendre à des révisions et à d’autres réglementations pour répondre aux complexités qui surgiront sans aucun doute alors que les humains et l’IA continueront à coexister. Espérons qu’avec une législation proactive comme la loi européenne sur l’intelligence artificielle, nous éviterons d’avoir besoin de cet interrupteur métaphorique pour le réseau d’Internet un jour.