/
- En mars 2023, plus de 33 000 personnes du secteur de l’IA ont signé la lettre ouverte du Future of Life Institute demandantr « tous les laboratoires d’IA doivent immédiatement suspendre pendant au moins 6 mois la formation de systèmes d’IA plus puissants que GPT-4. »L’objectif était d’intégrer les énormes préoccupations concernant l’IA générative au grand public et cela a réussi. Des mesures sont prises pour garantir que l’IA ne soit utilisée que comme une force bénéfique, mais des inquiétudes subsistent quant à savoir si la réglementation en matière d’IA qui en résultera sera suffisante.
En mars 2023, plus de 33 000 personnes impliquées dans le développement de la conception et l’utilisation de l’IA ont signé le Lettre ouverte du Future of Life Institute Demander « Tous les laboratoires d’IA doivent immédiatement suspendre pendant au moins 6 mois la formation de systèmes d’IA plus puissants que GPT-4. » On ne s’attendait pas à ce que cela se produise, mais l’objectif était de faire connaître les énormes préoccupations concernant l’IA générative au grand public. En juillet, la Maison Blanche a dévoilé un cadre d’engagements volontaires pour réglementer l’IA. De toute évidence, les décideurs américains y prêtent attention. Au cœur de ces garanties se trouvent les principes de promotion de « la sûreté, de la sécurité et de la confiance ». Sept D’éminentes sociétés d’IA ont donné leur accord – Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI. Elles se sont mises d’accord sur : Des tests de sécurité internes et externes indépendants des systèmes d’IA avant leur publication publique ; partage de bonnes pratiques ; investir dans la cybersécurité ; filigraner du contenu génératif d’IA ; partager publiquement leurs capacités et leurs limites et investir dans l’atténuation des risques sociétaux, tels que les préjugés et la désinformation.
Comment le Forum économique mondial crée-t-il des garde-fous pour l’intelligence artificielle ?
En réponse aux incertitudes entourant l’IA générative et à la nécessité de cadres de gouvernance solides pour garantir des résultats responsables et bénéfiques pour tous, le Centre du Forum pour la quatrième révolution industrielle (C4IR) a lancé le Alliance pour la gouvernance de l’IA. L’Alliance réunira les leaders de l’industrie, les gouvernements, les établissements universitaires et les organisations de la société civile pour défendre la conception et la publication mondiales responsables de systèmes d’IA transparents et inclusifs.
Les points positifs à retenir
Cette annonce envoie un message retentissant au marché : le développement de l’IA ne doit pas nuire au tissu social. Il répond aux demandes des groupes de la société civile, des principaux experts en IA et de certaines entreprises d’IA, qui soulignent la nécessité d’une réglementation. Il révèle un prochain décret et une législation sur la réglementation de l’IA. Enfin, il met en lumière les consultations en cours au niveau international, tant au niveau bilatéral avec plusieurs pays qu’à l’ONU, au G7 et au Partenariat mondial sur l’IA dirigé par l’Inde. Cela a ouvert la voie à des résultats significatifs lors des sommets internationaux récents et à venir, y compris le prochain sommet du G20 en Inde cette semaine et le Sommet sur la sécurité de l’IA au Royaume-Uni en novembre. Pouvons-nous cependant nous permettre de faire preuve de complaisance ? L’annonce de la Maison Blanche exige un suivi sans faille. Il ne devrait pas s’agir d’une proclamation éloquente d’idéaux, sans parvenir à apporter un changement significatif au statu quo.
Les préoccupations
Ce sont des garanties volontaires. Ils n’obligent pas les entreprises à rendre des comptes à toutes fins utiles, mais demandent simplement que des mesures soient prises. Il y a très peu de choses à faire si une entreprise n’applique pas ces mesures de protection ou n’y applique qu’à contrecœur. En outre, bon nombre des garanties prévues dans l’annonce se trouvent dans les documents publiés par ces sociétés. Par exemple, des tests de sécurité ou ce qu’on appelle le « red teaming » sont effectués par Open AI avant de publier ses modèles au public et pourtant, nous voyons les problèmes dans leur ensemble. Ces sept entreprises n’englobent pas l’ensemble du paysage industriel, par exemple, Apple et IBM sont absents. Pour garantir une approche collective et efficace, les mécanismes devraient tenir chaque acteur, en particulier les acteurs potentiellement mauvais, pour responsables et encourager une plus grande conformité de l’industrie. L’adhésion aux garanties volontaires ne répond pas de manière exhaustive aux divers défis que présentent les modèles d’IA. Par exemple, l’une des garanties volontaires annoncées par le maison Blanche est « investir dans la cybersécurité et les mesures de protection contre les menaces internes pour protéger les pondérations des modèles propriétaires et inédits. » Les pondérations du modèle sont les composants essentiels qui déterminent la fonctionnalité. L’accès à ceux-ci est considéré comme un proxy pour pouvoir reconstruire le modèle avec le calcul et les données de seuil. Il ne s’agit cependant que d’une source de vulnérabilité parmi d’autres. Les modèles formés sur des données biaisées ou incorrectes, par exemple, peuvent toujours conduire à des vulnérabilités et à des dysfonctionnements des systèmes lorsqu’ils sont rendus publics. Des garanties supplémentaires doivent être conçues et mises en œuvre pour résoudre efficacement ces problèmes complexes.
Exhorter les entreprises à investir dans la confiance et la sécurité est ambigu. La recherche sur la sécurité de l’IA dans les entreprises est considérablement dérisoire par rapport à la recherche sur le développement. Par exemple, de tous les articles sur l’IA publiés jusqu’en mai 2023, seulement 2 % d’attention portée à la sécurité de l’IA. Dans ce corpus limité de recherches sur la sécurité de l’IA, seuls 11 % proviennent d’entreprises privées. Dans ce contexte, il est difficile d’imaginer que les lignes directrices volontaires suffiront à elles seules à modifier cette tendance.
Enfin, les modèles d’IA sont rapidement développés et déployés à l’échelle mondiale. La désinformation, la désinformation et la fraude, entre autres préjudices, perpétrés par des modèles d’IA non réglementés dans les pays étrangers ont des répercussions considérables, même aux États-Unis. La simple création d’un refuge aux États-Unis pourrait ne pas suffire à protéger contre les dommages causés par les modèles d’IA non réglementés d’autres pays. Par conséquent, des mesures plus globales et plus substantielles sont nécessaires aux États-Unis et en collaboration avec des partenaires mondiaux pour faire face aux divers risques. Premièrement, un accord sur une norme permettant de tester la sécurité des modèles d’IA avant leur déploiement n’importe où dans le monde serait un bon début. Le sommet du G20 et le sommet britannique sur la sécurité de l’IA sont des forums essentiels à cet égard. Deuxièmement, nous devons rendre exécutoires toutes les normes conçues par le biais d’une législation nationale ou d’une action exécutive jugée appropriée par les différents pays. Le Loi sur l’IA en Europe peut être un excellent modèle pour cette entreprise. Troisièmement, nous avons besoin de plus qu’un appel aux principes et à l’éthique pour rendre ces modèles sûrs. Nous avons besoin de garanties techniques. Le filigrane du contenu génératif de l’IA garantissant l’intégrité des informations est un bon exemple de cette exigence urgente. La mise en œuvre de mécanismes d’assurance de l’identité sur les plateformes de médias sociaux et les services d’IA, qui peuvent aider à identifier et à gérer la présence de robots IA, améliorant ainsi la confiance et la sécurité des utilisateurs pourrait être une autre entreprise formidable. Enfin, les gouvernements nationaux doivent élaborer des stratégies pour financer, encourager et encourager la recherche sur la sécurité de l’IA dans les secteurs public et privé. L’intervention de la Maison Blanche constitue une première action significative. Cela peut être le catalyseur du développement et du déploiement responsable de l’IA aux États-Unis et au-delà, à condition que cette annonce soit un tremplin pour mettre en avant des mesures réglementaires plus tangibles. Comme le souligne l’annonce,
mise en œuvre soigneusement organisée « obligations contraignantes » serait crucial pour garantir un régime d’IA sûr, sécurisé et digne de confiance.