- L’intelligence artificielle (IA) peut produire des résultats biaisés car ses algorithmes sont basés sur des choix de conception faits par des humains qui sont rarement neutres. Cependant, cela ne devrait pas décourager les gens car reconnaître que l’IA est encline à perpétuer les inégalités peut nous donner un avantage dans la lutte pour l’équité. En analysant les caractéristiques communes des résultats inéquitables et en replaçant les informations sensibles dans les ensembles de données, nous pouvons aider à lutter contre les biais de l’IA.
Le fait que l’intelligence artificielle (IA) puisse produire des résultats biaisés ne devrait pas nous surprendre. Ses algorithmes sont basés sur des choix de conception faits par des humains qui sont rarement neutres. Nous demandons également aux algorithmes de produire des résultats qui reproduisent les modèles de prise de décision passés où nos idées préconçues peuvent également jouer. Mais que se passe-t-il si nous ne voulons pas que l’avenir ressemble au passé, surtout si l’équité est en cause ? tenir, comme l’ont suggéré plusieurs technologues éminents. Tout le contraire
Reconnaître que l’IA est encline à perpétuer les inégalités peut nous donner une longueur d’avance dans la lutte pour l’équité. En fin de compte, il serait sans doute plus facile d’atténuer les préjugés de l’IA que de remédier à ceux perpétués par les gens.
En effet, un manque d’équité dans l’IA peut être systématisé et quantifié d’une manière qui la rend plus transparente que la prise de décision humaine, qui est souvent en proie à des préjugés et des mythes inconscients. L’IA ne crée pas de biais. Au contraire, il sert de miroir pour en faire apparaître des exemples – et il est plus facile d’arrêter quelque chose qui peut être vu et mesuré.
L’équité de l’IA doit être une priorité
Mais d’abord, nous devons regarder dans ce miroir. Les gouvernements et les entreprises doivent faire de l’équité de l’IA une priorité, étant donné que les algorithmes influencent les décisions sur tout, de l’emploi et des prêts aux soins de santé. Actuellement, les États-Unis et l’Union européenne s’efforcent de limiter les cas croissants de biais liés à l’intelligence artificielle grâce à Commission pour l’égalité des chances dans l’emploi surveillance aux États-Unis et aux Loi sur l’IA et Directive sur la responsabilité en matière d’IA dans l’UE. L’accent devrait initialement être mis sur certains secteurs où le biais de l’IA peut potentiellement empêcher l’accès à des services vitaux. Les meilleurs exemples incluent le crédit, la santé, l’emploi, l’éducation, l’accession à la propriété, l’application de la loi et le contrôle des frontières. Ici, les stéréotypes et les préjugés propagent régulièrement un statu quo inéquitable qui peut conduire à une espérance de vie plus courte, au chômage, à l’itinérance et à la pauvreté. Le contrôle du biais de l’intelligence artificielle doit commencer par tester les résultats des algorithmes avant leur mise en œuvre. Les erreurs sur le biais de l’IA sont le plus souvent commises lorsque ceux qui évaluent les algorithmes se concentrent sur les données entrant dans la prise de décision plutôt que sur l’équité des résultats.
Dans la plupart des cas, en raison de la complexité des modèles d’IA et de la vie des personnes qu’ils touchent, nous ne pouvons pas toujours anticiper les impacts disparates potentiels des recommandations de l’IA, là où le biais se manifeste. Pour ce faire de manière fiable, des bases de données centrales de données sensibles telles que l’âge, le sexe, la race, le handicap, l’état matrimonial, la composition du ménage, la santé et le revenu devraient être créées par le secteur privé ou le gouvernement par rapport auxquelles les modèles basés sur l’IA peuvent être testés et corrigé du biais. De tels ensembles de données sur l' »équité de l’IA » permettraient aux employeurs de vérifier les préjugés dans les conditions d’éligibilité aux emplois avant de les déployer et les universités pourraient analyser de manière proactive les recommandations de l’IA pour déterminer l’influence du statut économique, du sexe, de la race ou du handicap d’un candidat sur l’acceptation.
Les données ne sont pas toujours neutres
Jusqu’à récemment, beaucoup pensaient que la réponse à l’élimination des préjugés était de supprimer complètement les identifiants de sexe et d’origine ethnique des algorithmes. Si l’algorithme ne connaissait pas la race ou le sexe des candidats, les décisions ne seraient pas prises sur cette base. Cette hypothèse s’est avérée fausse, de nombreux exemples d’algorithmes étant toujours capables de déterminer la race et le sexe des candidats à partir de données anonymisées. Si le sexe et la race sont supprimés, l’intelligence artificielle favorisera toujours les hommes blancs qui ont statistiquement des antécédents de revenus plus cohérents et des actifs plus considérables – qui sont eux-mêmes le résultat de pratiques d’emploi déloyales.
Comment le Forum économique mondial assure-t-il le développement éthique de l’intelligence artificielle ?
Le Forum économique mondial Centre pour la quatrième révolution industrielle rassemble des parties prenantes mondiales pour accélérer l’adoption d’une IA transparente et inclusive, afin que la technologie puisse être déployée de manière sûre, éthique et responsable.
Contactez-nous pour plus d’informations sur la façon de s’impliquer.
Parce qu’un algorithme de crédit tente de reproduire les modèles de prêt passés, il refusera les prêts de manière disproportionnée à ceux qui ne sont ni blancs ni masculins, car il sous-estime leur probabilité de rembourser les prêts basé sur des résultats antérieurs biaisés et moins de données. Autre exemple : les banques utilisent également la volonté de fournir des numéros de téléphone mobile comme indicateur que les bénéficiaires de prêts rembourseront leur dette. Étant donné que les femmes sont statistiquement plus réticentes à renoncer à leurs numéros de téléphone portable, elles sont immédiatement désavantagées par rapport aux hommes à la recherche de prêts.
La précision de l’IA compte aussi
Les résultats doivent également être testés pour leur exactitude, dont l’absence peut également biaiser les résultats. Par exemple, en ce qui concerne l’IA générative, telle que ChatGPT, nous ne voyons actuellement pas, ni n’exigeons, un niveau de précision et de véracité dans les résultats, créant une autre voie de propagation des biais de l’IA. Chat AI ne peut pas tester la base factuelle des entrées et imite simplement des modèles, souhaitables ou non. Si nous analysons les caractéristiques communes des résultats inéquitables en réintégrant des informations sensibles dans des ensembles de données, nous pouvons traiter plus efficacement les biais de l’IA. Mais cela signifiera utiliser de l’artificiel