Safer Internet Day 2023 – renforcer la lutte pour protéger les enfants en ligne

  • Avec plus de 175 000 enfants qui se connectent chaque jour dans le monde, un plus grand nombre d’enfants découvriront les avantages et les risques de la navigation sur le Web.
  • Il existe des lacunes majeures en ce qui concerne la lutte contre le matériel d’exploitation sexuelle d’enfants sur les plateformes numériques.
  • À l’occasion du Safer Internet Day 2023 (7 février), nous examinons les pratiques de l’entreprise qui pourraient améliorer la sécurité en ligne des enfants.

Avec plus de 175 000 enfants se connectent chaque jour Partout dans le monde, un plus grand nombre d’enfants connaîtront à la fois les avantages et les risques de la navigation sur le Web. UN étude par Common Sense Media a constaté que les enfants aussi jeunes que 8 ans utilisent plus que jamais les médias sociaux. L’augmentation de l’utilisation d’Internet chez les enfants s’est accompagnée parallèlement d’une augmentation de l’abus et de l’exploitation des enfants en ligne ; étonnamment, il y a eu un Augmentation de 360 % des images abusives « auto-générées » depuis mars 2020, selon l’Internet Watch Foundation. Comme il est peu probable que cette tendance s’inverse à moins que de nouvelles mesures ne soient prises par l’industrie et le gouvernement, il est urgent de créer une responsabilisation, une proactivité et une transparence des pratiques en place pour lutter contre ces abus.

Dans le cadre de l’Australie Loi sur la sécurité en ligne 2021, les fournisseurs de services en ligne sont tenus de rendre compte de la manière dont ils mettent en œuvre les attentes de base en matière de sécurité en ligne (BOSE) au fur et à mesure que ces rapports sont demandés par le commissaire à la sécurité électronique. Sur la base de la première série de réponses de l’industrie, publiée par eSafety en décembre 2022, nous avons maintenant une meilleure connaissance des mesures prises par les plateformes pour protéger les enfants contre les abus et l’exploitation sur Internet.

À l’occasion de la Journée pour un Internet plus sûr, le 7 février 2023, nous soulignons certaines des principales lacunes en matière de lutte contre le matériel d’exploitation sexuelle des enfants (CSAM) sur les plateformes numériques et certaines des solutions potentielles pour combler ces lacunes :

Découvrir

Comment le Forum économique mondial assure-t-il le développement éthique de l’intelligence artificielle ?

Le Forum économique mondial Plate-forme pour façonner l’avenir de l’intelligence artificielle et de l’apprentissage automatique rassemble des parties prenantes mondiales pour accélérer l’adoption d’une IA transparente et inclusive, afin que la technologie puisse être déployée de manière sûre, éthique et responsable.

Contactez-nous pour plus d’informations sur la façon de s’impliquer.

Détection de nouveaux CSAM

Alors que de nombreuses entreprises utilisent des technologies de hachage (correspondance) pour détecter le CSAM, moins de fournisseurs détectent le matériel. Les outils de correspondance de hachage ne peuvent qu’empêcher le partage continu de contenu préalablement identifié et confirmé. D’autre part, l’intelligence artificielle (« classificateurs ») peut être utilisée pour identifier le potentiel qui consiste à décrire la maltraitance d’un enfant en recherchant des marqueurs clés. De cette façon, l’utilisation de l’IA peut aider à empêcher la diffusion du CSAM lors de sa création avant qu’il ne soit catégorisé ou enregistré dans une base de données. La valeur de ceci est immense.

Des outils tels que Classificateur de Thorn (dont Thorn, une organisation à but non lucratif axée sur la protection de l’enfance, rapporte un taux de précision de 99 %) est un exemple de technologie capable de détecter de nouveaux CSAM. Les classificateurs, tels que ceux-ci, peuvent aider à hiérarchiser les cas pour un examen et une vérification humains, dans le cadre du processus global de lutte contre ce matériel illégal.

Détection de CSAM sur le streaming en direct et le contenu vidéo

Les fournisseurs de services en ligne développent encore des processus, des outils et des mesures pour détecter les abus et l’exploitation sexuels des enfants dans les cas de flux en direct ou d’appels/conférences vidéo. Recherche de la WeProtect Global Alliance and Technology Coalition a constaté que seulement 30 % des entreprises interrogées utilisent des classificateurs CSAM basés sur la vidéo. Et, seulement 22% utilisent des classificateurs pour détecter le CSAM dans des contextes de diffusion en direct.

Pour le contenu sexuel réservé aux adultes, une technologie innovante est utilisée pour aider à détecter le contenu abusif dans les vidéos. Téléperformancepar exemple, exploite un outil capable de mesurer automatiquement la durée et l’étendue de la nudité dans un clip vidéo pour aider les modérateurs à prendre des décisions plus efficaces pour déterminer si le niveau d’exposition enfreint les politiques de la plate-forme.

L’adoption de technologies de modération pour le contenu audio et vidéo sur les flux en direct et les vidéoconférences peut avoir un impact énorme sur la lutte contre le CSAM et d’autres contenus illégaux, compte tenu de l’essor explosif de ce format de contenu.

Détection du toilettage

Le toilettage en ligne fait référence au « Les tactiques que les agresseurs déploient via Internet pour exploiter sexuellement les enfants. » Dans un article de blog, Thorn décrit comment « le toilettage repose sur l’exploitation des insécurités et de la confiance, et dans un contexte en ligne, la confiance peut être établie grâce à une variété de méthodes. » Il poursuit en expliquant comment « tout contenu produit à la suite d’un toilettage peut ensuite être utilisé pour menacer et faire chanter un enfant, en jouant sur la peur d’un enfant d’avoir des ennuis, pour forcer la victime à accomplir plus d’actes, qui peuvent devenir de plus en plus explicites ». .”

Lorsqu’il s’agit de détecter un comportement prédateur, y compris le toilettage, seulement 37% des entreprises interrogées utilisent des classificateurs IA pour détecter de manière proactive cette activité sur leurs plateformes. Compte tenu des différents types et de la gravité des pratiques de toilettage, il peut être plus difficile de définir des seuils pour signaler et examiner ce contenu de manière évolutive.

La détection pourrait être renforcée par des mécanismes de signalement clairs permettant aux utilisateurs de signaler un tel contenu non conforme. « La sécurité dès la conception et les attentes de base en matière de sécurité en ligne sont des moyens facilement détectables de signaler les abus. S’il n’est pas détecté et qu’il ne peut pas être signalé, nous ne pourrons jamais vraiment comprendre l’ampleur réelle du problème », déclare Julie Inman Grant, commissaire australienne à la sécurité électronique.

Au-delà des technologies de détection pour le toilettage et/ou le CSAM, les prestataires pourraient également tirer parti de la technologie d’assurance de l’âge pour aider à prévenir les contacts indésirables entre adultes et enfants. De plus, les invites de sécurité qui fournissent des voies d’aide à ceux qui pourraient rechercher ce matériel sont un moyen axé sur la prévention de lutter contre ce comportement ; un chatbot récemment développé par l’IWF et La Fondation Lucy Faithfull cherche à faire exactement cela. Selon rapport dans WIRED, il existe « certaines preuves que ce type d’intervention technique peut faire une différence en détournant les gens du matériel potentiel d’abus sexuel d’enfants et réduire le nombre de recherches de CSAM en ligne ». Ces innovations sont essentielles pour conduire une réforme comportementale et intégrer des approches centrées sur la sécurité dès la conception. Ces interventions, axées sur le traitement des causes profondes de ces comportements, sont essentielles pour prévenir la victimisation et la revictimisation des enfants.

L’importance de traiter de manière proactive les préjudices en ligne ne peut être surestimée ; plus le contenu violant la sécurité des enfants, ou d’autres domaines de la politique de la plate-forme, peut être identifié et traité efficacement et rapidement, moins il est susceptible d’avoir un impact négatif sur la victime. Un leadership éclairé récent produit par Aperçu de l’examen de la technologie du MIT, « L’humain au centre d’une défense numérique efficace », en association avec Teleperformance, a mis en lumière l’importance croissante de la confiance et de la sécurité. Alors que, Recherche Gartner suggère que près d’un tiers (30%) des grandes entreprises considéreront les services de modération de contenu pour le contenu généré par les utilisateurs comme une priorité absolue d’ici 2024.

Pour innover dans cet espace, il est essentiel que la technologie et les personnes travaillent plus étroitement ensemble. Dans le cadre de la modération de contenu, le Document d’analyse de l’examen de la technologie du MIT met en évidence comment les gens aident à fermer la « boucle de rétroaction de l’apprentissage automatique » en signalant le contenu qui échappe à l’algorithme. L’IA utilise ensuite ces données pour prendre des décisions plus précises à l’avenir. Julie Owono, directrice exécutive d’Internet Sans Frontières et affiliée au Berkman Klein Center for Internet & Society à Harvard, prédit dans le Document d’analyse de l’examen de la technologie du MIT: « Les règles et pratiques de modération des contenus, que j’inclus sous l’égide de la gouvernance des contenus, vont évoluer. Sous la pression croissante des utilisateurs, des annonceurs et des gouvernements pour des espaces en ligne sûrs, nous pourrions voir l’émergence de normes plus communes et, peut-être, de procédures communes. Cela nécessitera une approche multipartite à travers laquelle l’industrie, la société civile, les gouvernements et les universités collaboreront.

C’est dans la protection des enfants en ligne qu’une telle collaboration peut ouvrir la voie à une meilleure gouvernance du contenu et à une approche proactive de la confiance et de la sécurité.

À l’occasion du Safer Internet Day 2023, Teleperformance rejoint la liste croissante des acteurs qui œuvrent à l’amélioration de la sécurité numérique, grâce à la puissance de ses collaborateurs, à sa technologie et à l’excellence de ses processus. Parce que nous savons que chaque interaction compte.