Poster un message

En réponse à l'article :

IA Act : les obligations des déployeurs de systèmes d’intelligence artificielle. Par Charlotte Galichet, Avocat. retour à l'article
25 septembre 2024, 09:00
1. Obligations générales des déployeurs. L’article 4 du Réglement sur l’intelligence artificielle (Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle) pose dès l’article 4 une obligation générale de formation. Ainsi, les déployeurs de systèmes d’IA (comme les fournisseurs de SIA) doivent prendre des mesures pour garantir, dans toute la mesure du possible, un niveau suffisant de maîtrise de l’IA pour leur (...)

[1Risques liés à des produits susceptibles de nuire à la santé et à la sécurité des personnes ou présentant un risque pour les droits fondamentaux des personnes qui « va au-delà de ce qui est considéré comme raisonnable et acceptable eu égard à l’objectif poursuivi ou dans les conditions d’utilisation normales ou raisonnablement prévisibles du produit concerné, lesquelles comprennent aussi sa durée d’utilisation et, le cas échéant, sa mise en service, les exigences d’installation et d’entretien » (article 3, point 19 du règlement (UE) 2019/1020).

[2Les systèmes d’IA à haut risque doivent être enregistrés dans une base de données spécifique de l’Union européenne. Cet enregistrement vise à faciliter la surveillance et l’audit réglementaires, assurant que ces systèmes respectent les normes de sécurité et d’éthique de l’UE.

[3Les déployeurs de systèmes d’IA à haut risque doivent coopérer avec diverses autorités, notamment les Autorités Nationales de Surveillance du Marché, les Autorités de Protection des Données, les Autorités Judiciaires ou Administratives, ainsi que la Commission Européenne et les Agences Européennes spécialisées (en fonction de l’application spécifique de l’IA). Ils doivent fournir des informations pour les audits, rapporter les incidents et les mises à jour, participer activement aux registres d’IA, et répondre aux évaluations de conformité et de risque pour assurer une utilisation responsable et réglementée de l’IA.

[4Si le déployeur est un organisme public ou une entité privée fournissant des services publics, la plupart des SIA visés à l’Annexe III doivent faire l’objet d’une analyse d’impact.

[5« Toute autorité de surveillance du marché peut, pour des raisons exceptionnelles de sécurité publique ou pour assurer la protection de la vie et de la santé humaines, la protection de l’environnement ou la protection d’actifs industriels et d’infrastructures d’importance majeure, autoriser la mise sur le marché ou la mise en service de systèmes d’IA à haut risque spécifiques sur le territoire de l’État membre concerné ».

modération a priori

Attention, votre message n’apparaîtra qu’après avoir été relu et approuvé. Nous ne publions pas de commentaires diffamants, publicitaires ou agressant un autre intervenant.
Note de la rédaction: Notez que ce forum n'est pas un lieu adapté aux conseils juridiques, qui nécessitent confidentialité et détails, ce que ne permet pas une page publique. Pour cette raison aussi, il n'y a pas d'obligation de réponse de l'auteur. Si vous attentez un conseil précis et personnalisé, il faut consulter un avocat directement.

Ajoutez votre commentaire ici
Qui êtes-vous ?

Village de la justice et du Droit

Bienvenue sur le Village de la Justice.

Le 1er site de la communauté du droit: Avocats, juristes, fiscalistes, notaires, commissaires de Justice, magistrats, RH, paralegals, RH, étudiants... y trouvent services, informations, contacts et peuvent échanger et recruter. *

Aujourd'hui: 156 550 membres, 28198 articles, 127 292 messages sur les forums, 2 600 annonces d'emploi et stage... et 1 500 000 visites du site par mois en moyenne. *


FOCUS SUR...

• 1er Guide synthétique des solutions IA pour les avocats.

• [Dossier] Le mécanisme de la concurrence saine au sein des équipes.




LES HABITANTS

Membres

PROFESSIONNELS DU DROIT

Solutions

Formateurs