Les règles visent à promouvoir l’adoption d’une IA centrée sur l’humain et digne de confiance et à protéger la santé, la sécurité, les droits fondamentaux et la démocratie de ses effets néfastes.
Mercredi, le Parlement européen a adopté sa position de négociation sur la loi sur l’intelligence artificielle (IA) avec 499 voix pour, 28 contre et 93 abstentions avant les discussions avec les États membres de l’UE sur la forme finale de la loi. Les règles garantiraient que l’IA développée et utilisée en Europe est pleinement conforme aux droits et valeurs de l’UE, notamment la surveillance humaine, la sécurité, la confidentialité, la transparence, la non-discrimination et le bien-être social et environnemental.
Pratiques d’IA interdites
Les règles suivent une approche basée sur les risques et établissent des obligations pour les fournisseurs et ceux qui déploient des systèmes d’IA en fonction du niveau de risque que l’IA peut générer. Les systèmes d’IA présentant un niveau de risque inacceptable pour la sécurité des personnes seraient donc interdits, tels que ceux utilisés pour le social scoring (classification des personnes en fonction de leur comportement social ou de leurs caractéristiques personnelles). Les députés ont élargi la liste pour inclure des interdictions d’utilisations intrusives et discriminatoires de l’IA, telles que :
- Systèmes d’identification biométrique à distance « en temps réel » dans les espaces accessibles au public ;
- Les systèmes d’identification biométrique à distance « postaux », à la seule exception des forces de l’ordre pour la poursuite des crimes graves et uniquement après autorisation judiciaire ;
- des systèmes de catégorisation biométrique utilisant des caractéristiques sensibles (par exemple, le sexe, la race, l’origine ethnique, le statut de citoyen, la religion, l’orientation politique) ;
- les systèmes de police prédictifs (basés sur le profilage, la localisation ou le comportement criminel passé) ;
- les systèmes de reconnaissance des émotions dans les forces de l’ordre, la gestion des frontières, le lieu de travail et les établissements d’enseignement ; et
- grattage non ciblé d’images faciales sur Internet ou de séquences de vidéosurveillance pour créer des bases de données de reconnaissance faciale (violation des droits de l’homme et du droit à la vie privée).
IA à haut risque
Les députés ont assuré que la classification des applications à haut risque inclura désormais les systèmes d’IA qui nuisent considérablement à la santé, à la sécurité, aux droits fondamentaux ou à l’environnement des personnes. Les systèmes d’IA utilisés pour influencer les électeurs et le résultat des élections et dans systèmes de recommandation utilisés par les plateformes de médias sociaux (avec plus de 45 millions d’utilisateurs) ont été ajoutés à la liste à haut risque.
Obligations pour l’IA à usage général
Les fournisseurs de modèles de base – un nouveau développement en évolution rapide dans le domaine de l’IA – devraient évaluer et atténuer les risques éventuels (pour la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie et l’État de droit) et enregistrer leurs modèles dans le base de données de l’UE avant leur mise sur le marché de l’UE. Les systèmes d’IA génératifs basés sur de tels modèles, comme ChatGPT, devraient se conformer aux exigences de transparence (divulguer que le contenu a été généré par l’IA, aider également à distinguer les images dites deep-fake des vraies) et assurer des garanties contre la génération de contenu illégal. Des résumés détaillés des données protégées par le droit d’auteur utilisées pour leur formation devraient également être rendus publics.
Soutenir l’innovation et protéger les droits des citoyens
Pour stimuler l’innovation en matière d’IA et soutenir les PME, les députés ont ajouté des exemptions pour les activités de recherche et les composants d’IA fournis sous des licences open source. La nouvelle loi promeut les soi-disant bacs à sable réglementaires, ou environnements réels, établis par les autorités publiques pour tester l’IA avant son déploiement.
Enfin, les députés souhaitent renforcer le droit des citoyens de déposer des plaintes contre les systèmes d’IA et de recevoir des explications sur les décisions fondées sur des systèmes d’IA à haut risque qui ont un impact significatif sur leurs droits fondamentaux. Les députés ont également réformé le rôle du bureau de l’IA de l’UE, qui serait chargé de surveiller la mise en œuvre du règlement sur l’IA.
Devis
Après le vote, le co-rapporteur Brando Benifei (S&D, Italie) a déclaré : « Tous les regards sont tournés vers nous aujourd’hui. Alors que les entreprises Big Tech tirent la sonnette d’alarme sur leurs propres créations, l’Europe est allée de l’avant et a proposé une réponse concrète aux risques que l’IA commence à faire courir. Nous voulons que le potentiel positif de créativité et de productivité de l’IA soit exploité, mais nous nous battrons également pour protéger notre position et contrer les dangers pour nos démocraties et nos libertés lors des négociations avec le Conseil ».
Co-rapporteur Dragos Tudorache (Renew, Roumanie) a déclaré : « La loi sur l’IA donnera le ton dans le monde entier au développement et à la gouvernance de l’intelligence artificielle, en veillant à ce que cette technologie, appelée à transformer radicalement nos sociétés par les avantages massifs qu’elle peut offrir, évolue et soit utilisée conformément aux valeurs européennes de la démocratie, les droits fondamentaux et l’État de droit ».
Prochaines étapes
Les négociations avec le Conseil sur la forme finale de la loi débuteront plus tard dans la journée.
conférence de presse
Les co-rapporteurs Brando Benifei (S&D, Italie) et Dragos Tudorache (Renew, Roumanie) tiendront une conférence de presse avec la Présidente du PE Roberta Metsola aujourd’hui 14 juin à 13h30 pour expliquer les résultats du vote d’aujourd’hui et les prochaines étapes.
En faisant avancer cette législation, les députés répondent aux attentes des citoyens les propositions de la Conférence sur l’avenir de l’Europe sur la garantie d’un contrôle humain des processus liés à l’IA (proposition 35(3)); sur la pleine utilisation du potentiel d’une IA digne de confiance (35(8)); et sur l’utilisation de l’intelligence artificielle et des technologies de traduction pour surmonter les barrières linguistiques (37(3)).