- Les gouvernements achètent de plus en plus de systèmes d’IA, mais il est nécessaire que des pratiques d’approvisionnement responsables tiennent compte des risques et opportunités sociétaux.
- Les ressources existantes comprennent des directives générales, des recommandations ciblées et des initiatives réglementaires d’organisations comme AI Now, le gouvernement britannique et le Bureau américain de la gestion et du budget.
- Plus d’outils et de référentiels sont nécessaires pour soutenir l’approvisionnement responsable en IA, y compris des modèles de demande de propositions, des clauses contractuelles et des tableaux de bord pour évaluer la maturité éthique de l’IA.
Les gouvernements et les administrateurs publics achètent l’IA à une échelle de plus en plus grande. Par exemple, en 2022, les États-Unis dépensé 2,5 de plus sur les contrats liés à l’IA qu’en 2017. Ces achats peuvent être très utiles, mais ils incluent des systèmes à haut risque avec un potentiel de préjudice immense. Par conséquent, les administrateurs publics qui achètent des systèmes d’IA doivent disposer des connaissances et des ressources nécessaires pour se procurer l’IA de manière responsable, en tenant compte des risques et opportunités sociétaux. Des ressources utiles sont déjà publiées, mais il est possible de combler des lacunes supplémentaires, de s’adapter à l’évolution des systèmes d’IA et de leurs applications. Cet article passe en revue les ressources en anglais existantes et les lacunes à combler.
Lignes directrices et réglementation
Le type de ressource le plus courant disponible pour les administrateurs publics qui achètent de l’IA est l’IA des lignes directrices. Les lignes directrices se répartissent en trois catégories : 1) conseils généraux en matière d’approvisionnement ; 2) des recommandations ciblées, axées sur un secteur, un cas d’utilisation, un sujet ou une optique ; et 3) initiatives réglementaires.
Les lignes directrices et recommandations générales incluent celles produites par L’IA maintenant, Éthique des données, Hickok, Miller et les eaux, Rubenstein, Gouvernement britanniqueet le Forum économique mondial. De plus, les États-Unis ont annoncé que le Bureau de la gestion et du budget (OMB) publiera des directives sur les achats d’IA.
Parmi les orientations ciblées, la Initiative sur la politique pénitentiaire fournit des lignes directrices pour l’achat de tablettes dans les prisons. Bien qu’elles ne traitent pas spécifiquement de l’IA, ces directives intègrent des exigences d’éthique technologique qui pourraient être adaptées à l’IA. Coglianese & Lampmann recommandent d’ajouter des clauses contractuelles sur les secrets commerciaux, la confidentialité et la cybersécurité, l’audit et la participation du public. Jacobs & Mulligan suggèrent d’utiliser une méthode appelée « modélisation de mesure » dans les processus d’approvisionnement pour comprendre les impacts attendus des systèmes d’IA.
Les initiatives réglementaires fournissent également des lignes directrices. Les praticiens de l’approvisionnement peuvent demander conseil à ces initiatives, même si cela ne s’applique pas à leur juridiction et même si cela n’a pas été adopté.
Découvrir
Comment le Forum économique mondial crée-t-il des garde-corps pour l’intelligence artificielle ?
En réponse aux incertitudes entourant l’IA générative et au besoin de cadres de gouvernance de l’IA robustes pour garantir des résultats responsables et bénéfiques pour tous, le Centre pour la quatrième révolution industrielle (C4IR) du Forum a lancé le Alliance pour la gouvernance de l’IA.
L’Alliance réunira des leaders de l’industrie, des gouvernements, des institutions universitaires et des organisations de la société civile pour défendre la conception et la publication mondiales responsables de systèmes d’IA transparents et inclusifs.
Au Canada, les organismes fédéraux doivent se conformer aux Directive sur la prise de décision automatisée, qui comprend des exigences pour l’approvisionnement en IA concernant l’évaluation d’impact, la transparence, l’assurance qualité, etc. Aux États-Unis, la réglementation existante en matière d’approvisionnement en IA comprend Décret exécutif (EO) 13960qui exige que les agences fédérales conçoivent, développent, acquièrent et utilisent l’IA d’une manière qui favorise la confiance du public, en prenant en compte des thèmes tels que la vie privée, les droits civils et les libertés civiles. La loi sur la formation en IA nécessite la budgétisation de la formation en IA pour le personnel d’approvisionnement. Enfin, les états de Maryland, Connecticutet Washington projets de loi proposés qui introduisent des exigences éthiques en matière d’IA dans le processus d’approvisionnement.
Ces lignes directrices et ces initiatives réglementaires sont un bon début. Cependant, il reste des lacunes à combler pour doter les praticiens des bons outils. Lors de conversations avec les auteurs de cet article, les praticiens ont exprimé leur inquiétude quant au fait que, sans un soutien approprié, les pratiques d’approvisionnement responsables en matière d’IA ne seront pas mises en œuvre même si elles devaient être requises par la loi. Cela s’est produit dans le passé avec une réglementation similaire sur les marchés publics.
Outils
Il existe des outils utiles et pertinents accessibles au public, mais il convient d’accorder plus d’attention à leur mise en œuvre, leur utilisation, leur amélioration et leur expansion. Le Fondation Ford, Richardsonet le F économique mondialeorum a créé des listes de questions que les praticiens de l’approvisionnement peuvent poser tout au long du cycle de vie de l’approvisionnement. La ville d’Amsterdam a créé un English modèle de contrats d’approvisionnement en IAintégrant des fonctionnalités d’IA responsables (voir Miller et les eaux pour un peu de contextualisation et de discussion). La ville de San José, la Californie a créé plusieurs outils d’approvisionnement en IA. Ceux-ci incluent un carte du processus d’examen lors de l’achat d’un système d’IA, et un formulaire pour collecter des informations auprès des fournisseurs d’IA. Enfin, le comté d’Alameda en Californie a publié un Appel d’offres pour un système d’IA qui inclut des exigences de confidentialité. Il peut être utilisé comme modèle.
Même si ce qui précède représente de grands efforts dans la bonne direction, davantage de travail est nécessaire pour aborder l’approvisionnement responsable en IA. Par exemple, les praticiens expriment le besoin de modèles complets d’appels d’offres, de brèves clauses à intégrer aux contrats existants et de tableaux de bord pour évaluer la maturité éthique de l’IA d’un fournisseur potentiel. De plus, les outils existants ne répondent pas aux défis que rencontrent les praticiens lorsqu’ils tentent de se procurer de l’IA de manière responsable, tels que les difficultés à amener les fournisseurs à divulguer des informations liées à l’éthique de l’IA ou à assurer le suivi des engagements en matière d’éthique de l’IA, même si les engagements sont énoncés dans contrats signés.
Référentiels
Nous avons trouvé deux types de référentiels liés à l’approvisionnement responsable en IA dans l’administration publique. Certains référentiels aident à la gestion des connaissances. Par exemple, Base de données soft law de Gutierrez contient une liste de lois souples liées à l’approvisionnement en IA pour les années 2001-2019. Vous pouvez trouver des discussions sur ce référentiel ici et ici. Un autre référentiel de gestion des connaissances pertinent est celui des États-Unis Tableau périodique des innovations d’acquisitioncréé par le Federal Acquisition Institute (FAI) américain.
D’autres référentiels documentent les informations sur l’IA fournies par l’administration publique. Le Pays-Basle Ville d’Amsterdamle Ville d’Helsinkiet le Ville de San José (Californie) ont mis en place des registres d’algorithmes dans leurs municipalités. De plus, Eurocities a créé un schéma pour enregistrer les algorithmes utilisés dans les villes
Les référentiels qui organisent des ressources sur l’approvisionnement responsable en IA n’ont pas été trouvés. Cependant, sans référentiel, les praticiens peuvent avoir du mal à trouver des ressources pertinentes et à choisir celles qui leur conviennent le mieux. Notre examen a nécessité une analyse approfondie que de nombreuses personnes impliquées dans l’approvisionnement en IA pourraient ne pas être en mesure de mener.
A emporter
Les ressources actuelles pour l’approvisionnement responsable en IA dans l’administration publique sont utiles, mais nous devons accorder plus d’attention au développement de ces outils et à la création de ressources supplémentaires pour garantir que les praticiens sont parfaitement équipés pour aborder l’ensemble du cycle d’approvisionnement. Lors du développement de nouveaux outils, il est essentiel d’inclure davantage les praticiens. Bon nombre des ressources que nous avons trouvées ne mentionnent pas de consultation approfondie avec les praticiens et négligent de relever les défis auxquels les praticiens sont confrontés. Combler ces lacunes est une tâche essentielle. L’approvisionnement responsable en IA dans l’administration publique est essentiel pour la sécurité publique et pour inciter le secteur technologique à développer l’IA de manière plus responsable.