Skip to content

Le AI Act : Un règlement européen sur l’intelligence artificielle

Depuis le 1er aout de cette année, le AI Act est entré en vigueur dans l’UE et sa mise en application va maintenant se faire progressivement. C’est la première règlementation complète sur l’IA établie par un organisme de règlementation important. 

Avec les progrès très rapide des IA ces derniers mois, elles peuvent fasciner autant qu’effrayer en raison des dérives potentielles légales, sociales et éthiques.  C’est pourquoi l’Union Européenne a mis en place le Règlement sur l’Intelligence Artificielle ou AI Act en anglais afin de protéger les citoyens tout en continuant d’encourager l’innovation technologique. 

 La réglementation établit des obligations pour l’IA en fonction de ses risques et de son niveau d’impact. Les IA considérées comme à risque minimal ne sont pas règlementées. 

Les applications à “risques inacceptables” : 

Ces utilisations seront totalement interdites à partir de février 2025. Elles regroupent les IA qui sont contraires aux valeurs et droits fondamentaux de l’UE telle la dignité humaine, la démocratie ou l’Etat de droit.

Cela inclut par exemple : 

  • Les techniques subliminales, manipulatives ou exploitant les vulnérabilités afin de modifier les comportements humains. 
  • Le raclage non ciblé d’images sur Internet ou par vidéosurveillance pour créer des bases de données de reconnaissance faciale.
  • La reconnaissance des émotions sur le lieu de travail et dans les écoles, sauf pour des raisons médicales ou de sécurité.
  • L’évaluation du statut social et le profilage prédictif. 
  • Les systèmes d’identification biométrique dans les zones publiques.

Les forces de l’ordre peuvent cependant être exemptées de cette dernière interdiction si l’IA aide à retrouver des personnes portées disparues, trafiquées ou exploitées sexuellement, à prévenir des menaces imminentes comme des attentats ou à identifier les suspects de crimes graves (viols, meurtres, etc.) 

Les applications à « risques élevés » : 

La majorité des textes de l’AI Act concernent ces IA, ils seront tous d’application d’ici aout 2027. Ces systèmes d’IA sont autorisés mais fortement règlementés selon leurs domaines d’application. 

Ils doivent répondre à des critères rigoureux de transparence, de sécurité et de fiabilité avant leur déploiement sur le marché ainsi qu’au cours de leurs cycles de vie, en tenant des journaux d’utilisation. 

Cela concerne notamment les systèmes d’IA utilisés dans les secteurs de la santé, de l’éducation, du recrutement, de la gestion d’infrastructures essentielles (énergie, transports, banques, etc.), du maintien de l’ordre ou de la justice.

Les citoyens auront le droit de déposer des plaintes concernant les systèmes d’IA et de recevoir des explications sur les décisions basées sur des systèmes d’IA à haut risque qui affectent leurs droits.

Les IA à risque limité qui sont moins susceptibles d’entrainer des impacts négatifs important devront se mettre à jour pour aout 2025. Elles devront simplement respecter des normes de transparence, comme informer l’utilisateur qu’il interagit avec une IA, respecter les droits d’auteur ou étiqueter les « deepfakes » comme tels. 

Cela est valable pour les ChatBots et les systèmes de recommandation en ligne par exemple.

Finalement, si une IA est considérée comme sans risque, elle n’aura pas d’obligations à remplir. Ce sont par exemple les IA utilisées actuellement dans les filtres de spam ou les jeux-vidéos.

Biblio :

https://www.orfonline.org/expert-speak/the-eu-ai-act-a-landmark-in-ai-regulation

https://fr.wikipedia.org/wiki/R%C3%A8glement_sur_l%E2%80%99intelligence_artificielle_(Union_europ%C3%A9enne)

https://artificialintelligenceact.eu/fr

https://artificialintelligenceact.eu/high-level-summary

Leave a Reply

Your email address will not be published. Required fields are marked *