L’IA Act encadre la reconnaissance faciale
Le 8 décembre, le Conseil et le Parlement européen se sont, provisoirement, mis d’accord sur l’IA Act, texte qui doit encadrer le recours à l’intelligence artificielle (IA). Le texte accroît la liste des interdictions mais autorise aussi certains usages…
Comme le souligne le Conseil européen, « le projet de règlement vise à garantir que les systèmes d’IA mis sur le marché européen et utilisés dans l’UE sont sûrs et respectent les droits fondamentaux et les valeurs de l’UE ». Il souligne aussi qu’il a pour objectif d’encadrer strictement l’IA selon « une approche fondée sur le risque : plus le risque est élevé, plus les règles sont strictes. »
Concrètement, les parlementaires ont trouvé un accord pour étendre la liste des interdictions pour les usages de l’IA qui impliqueraient un risque « jugé inacceptable ». La liste des interdictions concerne :
- la manipulation cognitive du comportement,
- la notation sociale,
- l’extraction non ciblée d’images faciales d’Internet ou des caméras,
- la reconnaissance des émotions sur le lieu de travail et les établissements d’enseignement,
- la catégorisation biométrique pour déduire des données sensibles (orientation sexuelle, croyances religieuses),
- certains cas de police prédictive pour les individus.
Procédure d’urgence et exceptions
Cela dit, le texte, afin de ne pas réduire l’usage possible de l’IA par les forces de l’ordre, dans le cadre de leurs missions, met en place « une procédure d’urgence […] pour permettre aux services répressifs de déployer en cas d’urgence un outil d’IA à haut risque qui n’a pas passé la procédure d’évaluation de la conformité. »
Les parlementaires ont également prévu des « exceptions limitées pour l’utilisation des systèmes d’identification biométrique dans les espaces accessibles au public à des fins répressives, sous réserve d’une autorisation judiciaire préalable et pour des listes d’infractions strictement définies. » Sous certaines conditions et pour une durée limitée, dans un espace lui-aussi limité, dans le cas, par exemple d’un enlèvement, pour la recherche ciblée de victimes, en cas de menace terroriste...
Par ailleurs, des systèmes IA à haut risque pourraient être autorisés, en étant cependant soumis à un ensemble d’exigences et d’obligations pour accéder au marché de l’UE, insiste le Conseil. Il ajoute : « Ces exigences ont été clarifiées et ajustées par les colégislateurs de manière à ce qu’elles soient techniquement plus réalisables et moins contraignantes à respecter pour les parties prenantes, par exemple en ce qui concerne la qualité des données ou la documentation technique que les PME doivent établir. » Ces systèmes dits à haut risque seraient, d’après la Commission européenne, ceux susceptibles d’être utilisés dans les domaines de l’application de la loi, du contrôle des frontières ou de la justice. Les systèmes a risque limité seraient soumis à des contraintes de transparence « très légères ».
- Retrouvez l’intégralité de cet article dans le prochain PSM, numéro 281 (janvier-février 2024). Pour vous abonner, c’est ici.
Photo d’illustration © Getty Images