Déchiffrer

AI Act : que contient le projet de loi européen de régulation de l’intelligence artificielle ?

Pas d’interdiction mais un juste contrôle. Voici comment on pourrait définir le projet de réglementation sur l’intelligence artificielle de l’Union européenne. L’AI Act (Artificial Intelligence Act) a été présenté pour la première fois le 21 avril 2021. Le 22 janvier 2024, une version quasi finalisée a été dévoilée. Le document a maintenant pour vocation à être voté par le Parlement européen dans son ensemble le mercredi 13 mars 2024. Pour la version finale définitive, ce sera a priori le 22 avril 2024.

Le texte donne tout d’abord une définition de l’intelligence artificielle qui est présenté comme suit : “un système basé sur une machine qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions pouvant influencer les environnements physiques ou virtuels.” Le cadre juridique en préparation pour l’IA identifie quatre niveaux de risques. Il s’agit des risques minimaux, des risques limités, des risques élevés et enfin des risques inacceptables.

4 types de risques ont été identifiés dans le cadre de l’AI Act. Crédit : WE DEMAIN.
  • Les risques inacceptables sont interdits (par exemple, les systèmes de notation sociale et l’IA manipulatrice).
  • Les systèmes d’IA à haut risque (grande partie des IA aujourd’hui), qui sont réglementés.
  • Les systèmes d’IA à risque limité sont soumis à des obligations de transparence plus légères. Dans ce cas, il faut s’assurer que les utilisateurs sont conscients qu’ils interagissent avec l’IA (chatbots et deepfakes).
  • Le risque minimal n’est pas réglementé (comme les jeux vidéo et les filtres anti-spam activés par l’IA). Mais cette situation est en train de changer avec l’IA générative).

Pourquoi a-t-on besoin de règles sur l’IA ?

L’AI Act vise à poser un cadre afin que les Européens puissent avoir confiance dans l’usage des intelligences artificielles autorisées dans le cadre de l’Union européenne. Face aux risques, notamment sociétaux, qui découlent des capacités – actuelles et à venir – de l’IA, une législation est nécessaire. Et celle actuellement en vigueur n’est pas suffisante pour poser des garde-fous face aux défis spécifiques des systèmes d’IA.

La proposition de réglementation permettra d’interdire totalement les pratiques à haut risque. Elle établit aussi une liste d’applications des IA à surveiller. Des exigences claires et des obligations spécifiques sont définies pour les systèmes et acteurs impliqués, avec des contrôles avant et après la mise sur le marché. Une structure de gouvernance européenne et nationale est également prévue pour garantir une application efficace. Tout cela doit aider à avoir confiance dans les IA autorisées et à éviter au maximum les dérapages.

Des pratiques préjudiciables totalement interdites par l’AI Act

Parmi les pratiques que l’AI Act entend interdire, citons :

  • En outre, le règlement interdit les pratiques considérées comme préjudiciables, telles que :
  • Les techniques qui manipulent nos systèmes cognitifs (deepfakes, par exemple) et donc les comportements individuels.
  • La collecte aléatoire de données de reconnaissance faciale à partir de services internet publics et de vidéosurveillance.
  • Une utilisation de systèmes de reconnaissance des émotions sur les lieux de travail et dans les milieux éducatifs.
  • Un déploiement de scores de crédit social. Ce système, déjà en vigueur en Chine, vise à attribuer une note à chaque citoyen en fonction du suivi ou non des règles édictées. Par exemple, traverser hors des clous à un passage piéton pourrait pénaliser votre “crédit social”.
  • Un traitement biométrique pour la déduction de données personnelles sensibles telles que l’orientation sexuelle ou les croyances religieuses.
  • Certaines applications de la police prédictive ciblant les individus.

Une obligation de transparence pour tous les modèles d’IA

Afin de pouvoir évaluer les risques que représentent l’ensemble des intelligences artificielles qui souhaitent opérer le marché européen, l’AI Act introduit une obligation de transparence pour les IA. Il faudra donc expliquer le fonctionnement profond de son système, les méthodes d’entraînement, etc. Et, comme il sera extrêmement compliqué de superviser toutes les capacités de ces IA, le projet de loi inclut des obligations d’autoévaluation et d’atténuation des risques systémiques, la notification des incidents graves, la réalisation d’évaluations de tests ainsi que la mise en place de solutions efficaces de cybersécurité.

Qui se chargera de cette supervision des règles de l’IA Act ? En février 2024 est né un bureau européen de l’intelligence artificielle. Cet “Office européen de l’IA” sera intégré à la structure administrative de la direction générale des réseaux de communication, du contenu et des technologies. Il constituera le centre d’expertise dans l’ensemble de l’Union européenne en matière d’IA. Il lui reviendra de créer des outils, des méthodologies et des critères pour évaluer les capacités des modèles d’IA à usage général comme ChatGPT, Gemini, Mistral, Claude, etc. Enfin, il sera aussi le gendarme de l’IA au niveau européen, contrôlant le bon respect des règles et recueillant les plaintes et les alertes des utilisateurs européens de ces systèmes d’IA.

SOUTENEZ WE DEMAIN, SOUTENEZ UNE RÉDACTION INDÉPENDANTE
Inscrivez-vous à notre newsletter hebdomadaire
et abonnez-vous à notre magazine.

Recent Posts

  • Déchiffrer

Christophe Cordonnier (Lagoped) : Coton, polyester… “Il faut accepter que les données scientifiques remettent en question nos certitudes”

Cofondateur de la marque de vêtements techniques Lagoped, Christophe Cordonnier défend l'adoption de l'Éco-Score dans…

5 heures ago
  • Ralentir

Et si on interdisait le Black Friday pour en faire un jour dédié à la réparation ?

Chaque année, comme un rituel bien huilé, le Black Friday déferle dans nos newsletters, les…

11 heures ago
  • Partager

Bluesky : l’ascension fulgurante d’un réseau social qui se veut bienveillant

Fondé par une femme, Jay Graber, le réseau social Bluesky compte plus de 20 millions…

1 jour ago
  • Déchiffrer

COP29 : l’Accord de Paris est en jeu

À la COP29 de Bakou, les pays en développement attendent des engagements financiers à la…

2 jours ago
  • Déchiffrer

Thomas Breuzard (Norsys) : “La nature devient notre actionnaire avec droit de vote au conseil d’administration”

Pourquoi et comment un groupe français de services numériques décide de mettre la nature au…

3 jours ago
  • Respirer

Les oursins violets, sentinelles de la pollution marine en Corse

Face aux pressions anthropiques croissantes, les écosystèmes côtiers subissent une contamination insidieuse par des éléments…

4 jours ago