Le Parlement européen donne son feu vert aux premières règles communes pour limiter les risques de l'Intelligence Artificielle

STRASBOURG (FRANCE), le 13 mars (EUROPA PRESS) –

La séance plénière du Parlement européen a approuvé ce mercredi l'accord historique conclu en décembre dernier entre les institutions pour établir les premières règles permettant de limiter les risques de l'intelligence artificielle (IA) dans l'Union européenne, un nouveau cadre dont la pleine application est prévue à partir de 2026.

Le nouveau règlement a été approuvé lors de la séance plénière tenue à Strasbourg (France) avec le vote de 523 députés, 46 contre et 49 abstentions, mais il reste aux 27 à donner également leur approbation et au règlement à subir un dernier contrôle. -linguistique avant son entrée en vigueur.

La nouvelle norme propose une approche basée sur le risque qui catégorise les niveaux de risque et les restrictions associées en fonction de l'échelle, impliquant une interdiction en cas de risque « inabordable », comme les systèmes de catégorisation biométrique, l'extraction d'images non ciblées pour créer des bases de données pour la reconnaissance faciale, la reconnaissance des émotions, les réseaux sociaux. les systèmes de notation ou les systèmes qui manipulent le comportement.

Cependant, une série d'exceptions strictes sont prévues qui permettront l'utilisation de systèmes de surveillance biométrique dans les espaces publics, à condition qu'il y ait une décision judiciaire préalable et pour une liste de délits strictement définis.

De cette manière, la surveillance biométrique en temps réel sera limitée dans le temps et dans le lieu et uniquement pour la recherche sélective des victimes d'enlèvement, de trafic ou d'exploitation sexuelle, pour éviter une menace terroriste spécifique et actuelle et pour localiser ou identifier un suspect d'avoir commis un délit inscrit dans la loi.

Sont également définis les systèmes d'IA autorisés mais considérés comme à très haut risque en raison de leur impact important sur la santé, la sécurité, les droits fondamentaux, l'environnement et l'État de droit.

Les systèmes d'intelligence artificielle utilisés pour influencer le résultat des élections et le comportement des électeurs sont également classés comme à haut risque, et les citoyens auront le droit de déposer des plaintes et de recevoir des explications sur les décisions basées sur des systèmes d'IA à haut risque qui affectent leurs droits.

Une autre clé a été la manière d'introduire des règles spécifiques pour les modèles fondateurs, tels que les plateformes ChatGPT ou DALL-E, qui ont été révélées après que la Commission européenne a présenté sa première proposition de règlement. Ce chapitre a donc été développé au cours des négociations.

Cette législation pionnière prévoit également des sanctions en cas de non-respect allant de 35 millions d'euros, soit 7 % du chiffre d'affaires mondial, à 7,5 millions, selon la taille de l'entreprise.

L'objectif du nouveau règlement européen est d'établir des normes de sécurité et des droits fondamentaux qui empêchent que la technologie soit utilisée à des fins répressives, manipulatrices ou discriminatoires ; mais sans que cela se traduise par une hyperrégulation qui entrave la compétitivité de l’Union européenne.