Archives

L’Europe veut réglementer l’intelligence artificielle en fonction des risques

La Commission européenne veut réglementer l’intelligence artificielle en fonction des risques qu’elle fait peser sur les droits et libertés. Quatre échelles de risques ont été définis dont une ligne rouge sur les usages interdits. Les applications liées à l’emploi, à l’éducation, au maintien de l’ordre ou encore aux services publics feront l’objet d'une certification.

La Commission européenne a dévoilé le 21 avril 2021 son projet de réglementation en matière d’intelligence artificielle” (IA) qui fait suite à la publication d’un livre blanc et à une consultation publique menée en début d’année. Margrethe Vestager, vice-présidente en charge du numérique, a affirmé "qu’en matière d'intelligence artificielle, la confiance n'est pas un luxe mais une nécessité absolue" et promis "d’ouvrir la voie à une technologie éthique dans le monde entier, tout en préservant la compétitivité de l'UE".

Quatre niveaux de risque

La Commission souhaite une réglementation fondée sur quatre niveaux de risques. Les IA "à risques minimes" comme un filtre antispam, les algorithmes d’une imprimante 3D ou d’un robot ménager ne feraient ainsi l’objet d’aucune réglementation spécifique. Selon la Commission, "la grande majorité des systèmes d'IA relèvent de cette catégorie". Les IA à "risque limité" seront assorties d’obligations de transparence et d’information des utilisateurs. Les "chatbots", utilisés par de plus en plus d'administrations, entreraient par exemple dans cette catégorie d’IA, les internautes devant être informés qu’ils dialoguent avec un robot et garder la possibilité de ne pas l’utiliser. 

Certification des IA à haut risque

Les IA à haut risque pour les droits ou la sécurité des citoyens seront les plus encadrées. Parmi les domaines cités, la gestion des infrastructures critiques comme les transports ; l’éducation et la formation ; l’accès à emploi et la gestion des ressources humaines ; la justice et le maintien de l’ordre ou encore la gestion des processus démocratiques. La mise sur le marché d’IA appliquées à ces domaines seront conditionnées à : une évaluation des risques ; des garanties apportées sur la qualité des données pour éviter les risques de discrimination ; une traçabilité des calculs et résultats ; une information claire à l’intention des utilisateurs et enfin un contrôle des systèmes par l’humain. Ces IA à haut risque seront soumises à un contrôle de conformité et répertoriées dans une base de données européenne. Elles auront un marquage CE avant leur mise sur le marché, toute évolution de l’IA passant par un nouveau contrôle de conformité.

Un règlement d’application immédiate

Enfin, la Commission entend fixer une ligne rouge avec une catégorie d’IA "inacceptables" et par conséquent formellement interdites. Entreraient dans cette catégorie les systèmes de notation sociale tels que pratiquées en Chine et toutes celles qui "manipulent le comportement humain afin de priver les utilisateurs de leur libre arbitre". Ce cadre normatif, présenté comme l’un des "plus stricts au monde", sera accompagné d’un "comité européen de l’intelligence artificielle". Une structure qui proposera aussi des codes de conduite facultatifs pour les systèmes d'IA ne présentant pas de risque élevé, ainsi que des "bacs à sable réglementaires afin de faciliter l'innovation responsable". 

La nouvelle réglementation sera accompagnée d’un plan d’actions coordonné pour garantir la cohérence des politiques des Etats membres en matière d’IA. Ce plan bénéficiera des fonds des programmes Europe numérique, Horizon Europe et du plan de relance européen. Ce projet doit maintenant être présenté au parlement européen et aux Etats membres, il devrait faire l’objet d’un règlement pour entrer en application immédiatement.

 

Voir aussi

Abonnez-vous à Localtis !

Recevez le détail de notre édition quotidienne ou notre synthèse hebdomadaire sur l’actualité des politiques publiques. Merci de confirmer votre abonnement dans le mail que vous recevrez suite à votre inscription.

Découvrir Localtis