Actualités
Publications
Inscription à la newsletter
25
Fév

L’INTERDICTION DES SYSTEMES D’INTELLIGENCE ARTIFICIELLE A RISQUE INACCEPTABLE

Depuis le 2 février 2025,  un ensemble de dispositions du Règlement de l’UE 2024/1689  sur l’intelligence artificielle (“AI Act”) ont commencé à s’appliquer.

La commission européenne a publiée le 4 février 2025, des lignes directrices qui apportent des précisions sur l’application des interdictions de l’article 5 dudit Règlement.

Un nombre limité de cas d’utilisation de l’IA sont interdits car présentant des risques inacceptables dans l’UE. Les huit pratiques suivantes de l’IA sont interdites :

  1. les techniques subliminales au-delà de la conscience d’une personne ou des techniques délibérément manipulatrices ou trompeuses, ayant pour objectif ou pour effet de fausser sensiblement le comportement d’une personne ou d’un groupe de personnes en altérant de manière appréciable leur capacité à prendre une décision en connaissance de cause,
  1. l’exploitation des vulnérabilités d’une personne physique ou d’un groupe spécifique de personnes en raison de leur âge, d’un handicap ou d’une situation sociale ou économique particulière, avec pour objectif ou pour effet d’altérer de manière significative le comportement de cette personne ;
  1. l’évaluation ou la classification de personnes physiques ou de groupes de personnes sur une certaine période de temps, sur la base de leur comportement social ou de caractéristiques personnelles ou de personnalité connues, déduites ou prédites, le score social conduisant à un traitement préjudiciable ou défavorable dans des contextes sociaux qui ne sont pas liés aux contextes dans lesquels les données ont été initialement générées ou collectées ou injustifié ou disproportionné par rapport à leur comportement social ou à la gravité de celui-ci ;
  1. l’évaluation des risques des personnes physiques afin d’évaluer ou de prévoir le risque qu’une personne physique commette une infraction pénale ;
  1. la création ou le développent des bases de données de reconnaissance faciale par l’extraction non ciblée d’images faciales de l’internet ou de séquences de télévision en circuit fermé ;
  1. la déduction des émotions d’une personne physique sur le lieu de travail et dans les établissements d’enseignement, sauf lorsque l’utilisation du système d’intelligence artificielle est destinée à être mise en place ou mise sur le marché pour des raisons médicales ou de sécurité ;
  1. la catégorisation biométrique qui classe individuellement des personnes physiques sur la base de leurs données biométriques afin de déduire ou d’inférer leur race, leurs opinions politiques, leur appartenance syndicale, leurs croyances religieuses ou philosophiques, leur vie sexuelle ou leur orientation sexuelle ;
  1. l’utilisation de systèmes d’identification biométrique à distance « en temps réel » dans des espaces accessibles au public à des fins de maintien de l’ordre, sauf si et dans la mesure où cette utilisation est strictement nécessaire pour atteindre certains objectifs (la recherche ciblée de victimes spécifiques d’enlèvement, de traite des êtres humains ou d’exploitation sexuelle des êtres humains, la prévention d’une menace spécifique, substantielle et imminente pour la vie ou la sécurité physique de personnes physiques ou d’une menace réelle et actuelle ou réelle et prévisible d’attentat terroriste …)

Ces lignes directrices de la Commission européenne bien que non contraignantes apportent des exemples qui faciliteront la mise en œuvre de l’IA.

Nathalie Bastid – Avocate associée

Pour plus d’informations, vous pouvez la contacter nathalie.bastid@avocat.fr 06.09.68.51.54