Nous devons parler d’IA – découvrez pourquoi dans la nouvelle série de podcasts de Radio Davos

  • Le podcast hebdomadaire du Forum économique mondial, Radio Davos, propose une série spéciale sur l’intelligence artificielle générative (IA). une « puissante bête sauvage » – peut-elle être apprivoisée pour le bien de l’humanité ?

« C’est la première fois que des personnes du monde entier peuvent utiliser et interagir avec un système d’IA. Cela change vraiment la donne car tout le monde peut découvrir les capacités d’un système d’IA. » Francesca Rossi, responsable de l’éthique chez IBM Research, parle de ChatGPT. Si vous n’avez pas encore utilisé l’outil d’IA générative, vous en aurez au moins probablement entendu parler. Depuis sa sortie à la fin de l’année dernière, elle est rapidement devenue l’application grand public à la croissance la plus rapide de l’histoire. L’explosion de ChatGPT et d’autres « grands modèles de langage » a porté le potentiel de l’IA dans la conscience publique, a soulevé de nombreuses questions sur l’éthique et les opportunités, et a laissé de nombreux régulateurs lutter pour rattraper leur retard. Selon le dernier rapport du Forum économique mondial Rapport sur l’avenir de l’emploi, les employeurs prévoient que près d’un quart de tous les emplois seront affectés par la technologie. Et 44 % des compétences nécessaires sur le lieu de travail changeront d’ici cinq ans, à mesure que les compétences cognitives, la résolution de problèmes complexes et la culture technologique deviendront de plus en plus pertinentes.

La transition verte, la technologie et l’environnement économique modifient le marché de l’emploi. Image : Forum économique mondial

Pour explorer ces questions en profondeur, le podcast hebdomadaire du Forum économique mondial, Radio Davos, a lancé une série en six parties, s’adressant à des experts et des penseurs pour en savoir plus sur certains des plus grands défis et sur la manière dont nous les abordons, ainsi que sur le potentiel de l’IA pour changer notre façon de vivre et de travailler. Dans le premier épisode, nous discutons avec Rossi et avec Pascale Fung, professeur d’ingénierie informatique et directrice du Center for AI Research à l’Université des sciences et technologies de Hong Kong. Vous trouverez ci-dessous une version modifiée de ces conversations. Dans la série, nous expliquerons également une partie du jargon autour de l’IA. Dans cet épisode, Cathy Li, responsable de l’IA, des données et du métaverse au Forum économique mondial, définit les « grands modèles linguistiques » ou LLM :

Qu’est-ce qu’une IA à grand modèle de langage ?

Cathy Li : En termes simples, un grand modèle de langage est un programme informatique intelligent capable de comprendre et de générer un langage de type humain. Il fonctionne en utilisant un type d’intelligence artificielle appelé apprentissage en profondeur, et il est formé sur une quantité massive de données textuelles provenant de livres, d’articles, de sites Web et d’autres sources pour comprendre et apprendre les modèles et les relations entre les mots et les phrases. Pendant la formation, le modèle analyse les données textuelles et essaie de prédire le mot suivant dans la phrase en fonction des mots qui l’ont précédé. Lorsque vous interagissez avec le modèle de langage, vous fournissez une invite ou une question. Le moniteur utilise ses connaissances apprises pour générer une réponse en prédisant les mots et les phrases les plus susceptibles de correspondre au contexte de ce que vous essayez de dire. Il y a évidemment une différence entre un petit modèle de langage et le grand modèle de langage, et le seuil ne peut parfois pas vraiment être prédit. Mais ces scientifiques ont observé que les capacités de prévisibilité ont bondi de façon exponentielle après certains seuils, et c’est aussi là que les scientifiques voient des propriétés émergentes plus surprenantes qu’ils n’ont jamais vues et qu’ils ne pouvaient pas prédire auparavant.

Qu’est-ce que l’IA conversationnelle ?

Pascale Foug: Techniquement parlant, il existe deux types de systèmes d’IA conversationnelle. Fondamentalement, c’est l’interaction entre un utilisateur, un utilisateur humain et une machine. Le premier comprend les chatbots à domaine ouvert, où vous pouvez généralement parler de n’importe quel sujet, donc domaine ouvert, puis vous pouvez discuter de n’importe quoi aussi longtemps que vous le souhaitez. Et les autres types de systèmes d’IA conversationnels sont appelés systèmes de dialogue orientés tâche. Vos assistants virtuels, vos assistants de smartphone, vos assistants virtuels de centre d’appels – ce sont tous des systèmes de dialogue ou des systèmes d’IA conversationnels pour essayer d’accomplir une tâche pour répondre à une requête de l’utilisateur

Qu’y a-t-il derrière ces énormes avancées de l’IA ?

Pascale Foug: L’IA générative existe depuis un certain temps – elle est antérieure à l’apprentissage en profondeur et aux réseaux de neurones. Mais les modèles récents d’IA générative sont beaucoup plus puissants que les générations précédentes car ils disposent d’une énorme quantité de données d’entraînement et d’une taille de paramètres énorme. Et ces modèles d’IA générative, en particulier les grands modèles de langage, sont utilisés comme modèles fondamentaux pour construire des Systèmes d’IA.Il existe un malentendu courant selon lequel ChatGPT est un système d’IA conversationnel. Techniquement, ce n’est pas le cas. ChatGPT est ce que nous appelons un modèle fondamental. Ce sont donc de grands modèles de langage qui peuvent effectuer une multitude de tâches. Et puis il y a une interface de chat. C’est comme une interface utilisateur permettant à l’utilisateur d’interagir avec le grand modèle de langage sous-jacent via le chat. Ainsi, ChatGPT peut être utilisé pour créer d’autres systèmes, y compris, mais sans s’y limiter, des systèmes d’IA conversationnels.Francesca Rossi: Je n’ai pas vraiment vu de grand changement, j’ai vu une évolution sur des décennies. Mais ce qui est différent maintenant par rapport à mon expérience avec l’IA, c’est que ces résultats de recherche – avec une interface très simple – sont accessibles à tous. L’IA dans presque tout ce qu’ils font dans leur vie en ligne. Mais ils ne s’en rendaient pas compte parce que c’était en quelque sorte caché dans toutes les applications, toutes les choses que nous utilisons en ligne.

Statistique montrant la proportion de tâches accomplies par des humains par rapport à des machines.

La frontière homme-machine se déplace. Image : Forum économique mondialQuelles sont les applications qui vous intéressent à l’avenir ?

Pascale Fun : J’aimerais voir que nous pouvons trouver des solutions où nous pouvons tirer parti ou contrôler l’IA générative. Aujourd’hui, ces grands modèles de langage sont comme ces puissantes bêtes sauvages, n’est-ce pas ? Nous avons besoin d’algorithmes et de méthodes pour apprivoiser ces bêtes et ensuite les utiliser au profit de l’humanité. À long terme, j’espère voir une IA plus bénéfique, dans le domaine médical par exemple : soins de santé pour les personnes âgées, soins de santé pour les personnes défavorisées qui n’ont pas accès aux soins médicaux avancés. Et nous pouvons démocratiser ces soins de santé grâce à la technologie de l’IA. Aujourd’hui, la route d’ici à là est inconnue. Peut-être y arriverons-nous d’ici un an. Ou peut-être aurions-nous besoin d’un autre changement de paradigme pour y arriver. Mais c’est ce qui est passionnant dans ce domaine de l’IA générative. Nous faisons presque des découvertes scientifiques lorsque nous travaillons avec ces modèles, et nous apprenons de nouvelles façons de travailler avec eux et d’en tirer parti au quotidien.

Pourquoi les gens s’en préoccupent-ils ?

Francesa Rossi: Il y avait des problèmes dans la précédente vague d’IA – nous savions tout sur les problèmes de partialité, d’explicabilité, de transparence, de robustesse, de confidentialité, etc. Mais maintenant, ces problèmes sont toujours là et il y a des problèmes supplémentaires – liés, encore une fois, à cette capacité à générer du contenu. Ainsi, par exemple, la propagation possible de la désinformation et certains problèmes de droit d’auteur ou de confidentialité. peuvent être des abus. L’invite peut être n’importe quoi, mais nous devons intégrer dans ces grands modèles de langage des moyens de répondre de manière appropriée. Je pense qu’à l’avenir, nous devrons trouver des méthodes plus efficaces qui ne soient pas des filtres après la construction du grand modèle de langage mais qui soient intégrées dans la construction du modèle lui-même.Pascale Foug: Les dommages involontaires m’inquiètent également beaucoup. Donc, pour le bien de leur cœur, les gens essaient de construire un système pour aider les patients à trouver des remèdes pour différentes maladies, une sorte de WebMD mais basé sur l’IA. Et ils pensent que cela aidera les gens à accéder aux informations sur la santé, etc. Mais ils ne savent pas que certaines des réponses données par ces systèmes d’IA générative sont incorrectes. peur que tant de gens ne connaissent pas la limite de ChatGPT et créent ensuite des applications qui, selon eux, feront une chose, mais en réalité, ils font autre chose, pas ce qu’ils sont censés faire.

Découvrir

Comment le Forum économique mondial assure-t-il le développement éthique de l’intelligence artificielle ?

Le Forum économique mondial Centre pour la quatrième révolution industrielle rassemble des parties prenantes mondiales pour accélérer l’adoption d’une IA transparente et inclusive, afin que la technologie puisse être déployée de manière sûre, éthique et responsable.

Contactez-nous pour plus d’informations sur la façon de s’impliquer.

Existe-t-il un risque que le développement de l’IA aille trop vite ?

Pascale Foug: Le risque est déjà là. Nous avons déjà vu que les gens utilisent l’IA générative d’une manière qui n’est pas destinée à être utilisée.Je suis très encouragé de voir les progrès que nous avons réalisés dans la recherche en amont, y compris la recherche de moyens d’atténuer les dommages causés par l’IA.Je suis inquiet le déploiement va trop vite parce que nous déployons des systèmes dont nous ne comprenons pas à 100 % les ramifications. Nous n’avons pas nécessairement besoin d’expliquer en détail le système d’IA que nous déployons à tous ceux qui vont l’utiliser, mais nous devons avoir la certitude que nous pouvons atténuer les dommages avant de libérer le système dans la nature.Francesca Rossi: Je distinguerais les différentes phases de la chaîne de valeur de la construction d’un modèle d’IA, de sa publication et de son déploiement. Je pense que nous voulons faciliter et accélérer encore plus la recherche et le développement, car ce sont des domaines qui peuvent nous aider à comprendre comment pour mieux atténuer les problèmes. Et bien sûr, nous voulons être prudents sur les phases ultérieures de la chaîne de valeur, telles que le déploiement et les utilisations. Et c’est pourquoi je pense que les politiques et les réglementations devraient agir davantage dans cette partie de la chaîne de valeur plutôt que dans la partie initiale.

Infographie montrant l'impact attendu des technologies sur les emplois.

Les mégadonnées et l’IA changent ce dont nous avons besoin des travailleurs. Image : Forum économique mondialOù en sommes-nous en termes de gouvernance mondiale ou régionale de l’IA ?

Francesca Rossi: Je pense que la discussion législative la plus complète concerne ce qui se passe actuellement en Europe autour de la proposition de loi européenne sur l’IA. Il en est encore au niveau d’un projet avec beaucoup de propositions d’amendements différentes, mais sera bientôt approuvé par le Parlement européen. Ce que j’aime dans ce règlement, c’est qu’il est basé sur le risque, où le risque est associé aux scénarios dans lesquels l’IA serait appliquée. Il y a une liste dans le règlement des « utilisations à haut risque », par exemple, pour les candidatures aux ressources humaines, décider qui est embauché, qui est promu, etc. C’est l’un des domaines d’application à haut risque. En ce moment, il y a beaucoup de discussions sur la façon d’inclure également dans ce règlement quelque chose sur l’IA générative et les grands modèles de langage. cadre du domaine d’application à la technologie elle-même. Parce que certaines discussions essaient plutôt de dire que ces modèles sont risqués, peu importe où vous les appliquez. Je pense que ce serait une grosse erreur.

Sinon, comment pouvons-nous atténuer certains des risques associés à l’IA ?

Pascale Foug: Atténuer les risques est un travail multipartite, un travail multinational, et on ne parle pas trop des gens qui construisent les systèmes. Donc, à partir de notre respect du code de conduite, les ingénieurs de recherche doivent se conformer à ce code de conduite. En attendant, nous devons concevoir des algorithmes tels qu’ils puissent être alignés sur les valeurs humaines.