EU AI Act : L'Europe prend les devants : un outil de régulation pour l'IA

EU AI Act : L'Europe prend les devants : un outil de régulation pour l'IA

Dans le cadre de sa stratégie numérique, l'Union Européenne (UE) a pour objectif de réguler l'intelligence artificielle (IA) afin d'établir de meilleures conditions pour le développement et l'utilisation de cette technologie innovante. L'IA peut ouvrir la voie à de nombreux bénéfices : une amélioration de la santé, des transports plus sûrs et propres, une production plus efficace, et une énergie moins coûteuse et plus durable.

En avril 2021, la Commission Européenne a proposé le premier cadre réglementaire de l'UE pour l'IA, dans lequel les systèmes d'IA pour différentes applications sont analysés et classifiés selon le niveau de risque qu'ils présentent pour les utilisateurs. Cette classification entraînera des variations dans le degré de régulation. Une fois approuvées, ce seront les premières règles mondiales sur l'IA.

Le Parlement veut plus de transparence et de sécurité dans l'IA

Le Parlement européen priorise la sécurité des systèmes d'IA utilisés au sein de l'UE : ils doivent être transparents, traçables, non discriminatoires et respectueux de l'environnement. De plus, ces systèmes doivent être supervisés par des humains plutôt que par des automates, afin de prévenir d'éventuels dérapages nocifs. Le Parlement cherche également à établir une définition technologiquement neutre et uniforme de l'IA qui pourra être appliquée aux futurs systèmes d'IA.

L'IA Act : différentes règles pour différents niveaux de risques

Les nouvelles dispositions légales établissent des obligations tant pour les fournisseurs que les utilisateurs en fonction du niveau de risque que présente l'intelligence artificielle. Même si la majorité des systèmes d’IA présentent un risque minime, ils doivent tout de même être évalués.

Risque inacceptable : interdiction pure et simple

Les systèmes d’IA présentant un risque inacceptable, c’est-à-dire une menace pour les individus, seront interdits. Cela inclut la manipulation comportementale cognitive des individus ou de groupes vulnérables spécifiques comme par exemple des jouets activés par la voix encourageant un comportement dangereux chez les enfants, le système de notation sociale classant les individus en fonction du comportement, du statut socio-économique ou des caractéristiques personnelles, ainsi que les systèmes d'identification biométriques en temps réel et à distance, tels que la reconnaissance faciale.

Risque élevé : une attention particulière requise

Les systèmes d’IA ayant un impact négatif sur la sécurité ou les droits fondamentaux seront considérés comme à haut risque et seront divisés en deux catégories :

  1. Les systèmes d'IA utilisés dans les produits relevant de la législation européenne sur la sécurité des produits comme les jouets, l'aviation, les voitures, les dispositifs médicaux et les ascenseurs.
  2. Les systèmes d'IA relèvent de huit domaines spécifiques qui devront être enregistrés dans une base de données de l'UE: identification et catégorisation biométrique des personnes, gestion et exploitation des infrastructures critiques, éducation et formation professionnelle, emploi et travail indépendant, accès à des services privés et publics essentiels, contrôle des frontières et gestion des migrations et de l'asile, assistance dans l'interprétation juridique et l'application de la loi.

L'IA générative : pour une transparence accrue

L'IA générative, comme ChatGPT, devra se conformer aux exigences de transparence :

  • Divulguer que le contenu a été généré par une IA
  • Concevoir le modèle pour prévenir la génération de contenu illégal
  • Publier des résumés des données protégées par des droits d'auteur utilisées pour la formation

Risque limité : respect des exigences minimales de transparence

Les systèmes d'IA à risque limité devront se conformer à des exigences de transparence minimales qui permettront aux utilisateurs de prendre des décisions éclairées. Après interaction avec les applications, l'utilisateur pourra alors décider s'il souhaite continuer à les utiliser. Les utilisateurs devront être informés lorsqu'ils interagissent avec une IA. Ceci inclut les systèmes d'IA qui génèrent ou manipulent le contenu d'image, audio ou vidéo, comme les deepfakes.

Conclusion

En conclusion, avec l'arrivée de chatGPT et d'autres innovations en IA, l'Union Européenne travaille activement à l'élaboration d'une législation qui soutient le développement de cette technologie tout en veillant à la protection de ses citoyens. C'est une première étape essentielle dans la reconnaissance et la régulation globale de l'intelligence artificielle dans notre monde connecté.

Vous avez des questions ?

Contactez moi !