L'UE achève l'adoption des premières règles pour limiter les risques de l'intelligence artificielle (IA)

BRUXELLES, le 21 mai. (EUROPA PRESSE) –

L'Union européenne a franchi mardi la dernière étape formelle pour achever l'adoption de l'accord qui permettra au bloc d'imposer la première législation permettant de limiter les risques de l'intelligence artificielle (IA), un nouveau cadre dont la pleine application devrait commencer. 2026, car les gouvernements disposeront désormais d’un délai de deux ans pour traduire les règles dans leur législation nationale.

« C'est la première réglementation de ce type au monde, elle fait face à un défi technologique mondial qui crée également des opportunités pour nos sociétés et nos économies », a souligné le secrétaire d'État belge chargé de la Digitalisation et présidence tournante de l'UE, Mathieu Michel, après la approbation donnée ce mardi par les ministres de la Compétitivité, dernière étape formelle pour la publication de la norme au Journal officiel de l'UE et son entrée en vigueur ultérieure.

La nouvelle loi propose une approche qui catégorise les niveaux de risque et les restrictions qui doivent accompagner chaque État en fonction de l'échelle, ce qui implique l'interdiction en cas de risque « inabordable », comme les systèmes de catégorisation biométrique, la non-extraction d'images ciblées pour créer bases de données pour la reconnaissance faciale, la reconnaissance des émotions, les systèmes de notation sociale ou les systèmes qui manipulent le comportement.

Cependant, une série d'exceptions strictes sont prévues qui permettront l'utilisation de systèmes de surveillance biométrique dans les espaces publics, sous réserve d'une décision judiciaire préalable et pour une liste de délits strictement définis.

De cette manière, la surveillance biométrique en temps réel sera limitée dans le temps et dans le lieu et uniquement pour la recherche sélective des victimes d'enlèvement, de trafic ou d'exploitation sexuelle, pour éviter une menace terroriste spécifique et actuelle et pour localiser ou identifier un suspect d'avoir commis un délit inscrit dans la loi.

Sont également définis les systèmes d'IA autorisés mais considérés comme à très haut risque en raison de leur impact important sur la santé, la sécurité, les droits fondamentaux, l'environnement et l'État de droit.

Les systèmes d’intelligence artificielle utilisés pour influencer le résultat des élections et le comportement des électeurs sont également classés comme à haut risque, et les citoyens auront le droit de déposer des plaintes et de recevoir des explications sur les décisions basées sur des systèmes d’IA à haut risque qui affectent leurs droits.

Une autre clé a été la manière d'introduire des règles spécifiques pour les modèles fondateurs, tels que les plateformes ChatGPT ou DALL-E, qui ont été révélées après que la Commission européenne a présenté sa première proposition de règlement. Ce chapitre a donc été développé au cours des négociations.

Cette législation pionnière prévoit également des sanctions en cas de non-respect allant de 35 millions d'euros, soit 7 % du chiffre d'affaires mondial, à 7,5 millions, selon la taille de l'entreprise.

L'objectif du nouveau règlement européen est d'établir des normes de sécurité et des droits fondamentaux qui empêchent que la technologie soit utilisée à des fins répressives, manipulatrices ou discriminatoires ; mais sans que cela se traduise par une hyperrégulation qui entrave la compétitivité de l’Union européenne.