Selon une étude, 45 % des réponses de l'IA basées sur l'actualité présentent « un problème important »

MADRID, 22 octobre (EUROPA PRESS) –

45 % des réponses d'intelligence artificielle (IA) basées sur l'actualité présentent « un problème important », indépendamment de la langue ou du territoire, selon une nouvelle étude coordonnée par l'Union européenne de radiodiffusion (UER) et dirigée par la société britannique BBC, avec la participation de RTVE.

C'est ce qu'a annoncé mercredi l'UER, qui l'a présenté lors de son Assemblée tenue à Naples (Italie) et a souligné que les assistants d'intelligence artificielle présentent régulièrement une image incorrecte des contenus d'actualité, quels que soient la langue, le territoire ou la plateforme d'IA analysée.

Dans le cadre de cette recherche, des journalistes professionnels de 222 diffuseurs publics dans 18 pays d'Europe, des États-Unis et du Canada ont évalué plus de 3 000 réponses de ChatGPT, Copilot, Gemini et Perplexity selon des critères tels que l'exactitude, les sources, la distinction entre opinion et fait et le contexte.

Parmi les principales conclusions, l'UER a souligné que 31% des réponses analysées présentent des problèmes importants d'attribution des sources, soit en raison de références incorrectes, soit en raison de l'absence de lien vers la source, soit en raison de liens qui ne coïncident pas avec l'actualité mentionnée. 20 % des réponses contenaient de graves erreurs d’exactitude, telles que des informations inventées ou obsolètes.

Gemini a obtenu les pires résultats, avec des problèmes importants dans 76 % des réponses, soit plus de deux fois plus que les autres participants, principalement en raison d'une mauvaise gestion des sources. Copilot présente des problèmes importants dans 37 % de ses réponses, suivi de ChatGPT, avec 36 %, et de Perplexity, avec 30 %, comme détaillé par RTVE.

Cependant, « une comparaison entre les premiers résultats de la BBC plus tôt cette année et cette nouvelle étude montre certaines améliorations, même si des niveaux d'erreur élevés subsistent ».

Selon le Digital News Report 2025 du Reuters Institute, 7 % des consommateurs d'informations sur Internet utilisent des assistants IA pour obtenir des informations, un chiffre qui s'élève à 15 % chez les moins de 25 ans. « L'étude démontre de manière concluante que ces échecs ne sont pas des incidents isolés », a déclaré Jean Philip De Tender, directeur des médias et directeur général adjoint de l'UER.

« Ils sont systémiques, transfrontaliers et multilingues, et nous pensons qu'ils mettent en danger la confiance du public. Lorsque les gens ne savent pas à quoi faire confiance, ils finissent par ne faire confiance à rien, ce qui peut décourager la participation démocratique », a-t-il déclaré.

Pour sa part, le directeur des programmes d'IA générative de la BBC, Peter Archer, a déclaré qu'ils étaient « enthousiasmés par le potentiel de l'IA » et par la manière dont elle peut contribuer à « offrir plus de valeur au public ». « Mais les gens doivent pouvoir faire confiance à ce qu'ils lisent, voient et entendent. Malgré quelques améliorations, ces assistants posent encore des problèmes majeurs. Nous voulons que ces outils réussissent et nous sommes ouverts à collaborer avec des entreprises d'IA pour offrir un meilleur service à la société », a-t-il ajouté.

L'équipe de recherche a également publié une « boîte à outils sur l'intégrité de l'information dans les assistants IA », afin de fournir des solutions aux problèmes découverts, notamment des mesures visant à améliorer les réponses des assistants et l'éducation aux médias des utilisateurs.

Cette étude s’inscrit dans le prolongement d’une étude précédente de la BBC publiée en février 2025, qui avait pour la première fois mis en évidence les problèmes de l’IA dans le traitement de l’information.