Une version de cet article a paru à l’origine dans le magazine de Huawei, Transformer.
- Peu de technologies génèrent le facteur de peur induit par l’intelligence artificielle (IA). Mais une prudence excessive crée un autre risque : alors que les cybercriminels avancent à toute vitesse pour utiliser l’IA à des fins malveillantes, tout le monde procède avec prudence, attendant jusqu’au dernier législateur, sceptique et adopteur tardif. est pleinement convaincu qu’il faut faire confiance à l’IA plutôt que la craindre. La clé pour résoudre ces problèmes est la coopération internationale, les implications de l’IA en matière de sécurité ne respectent pas les frontières nationales.
Peu de technologies génèrent le facteur peur induit par l’intelligence artificielle (IA). Depuis qu’Alan Turing a introduit l’idée en 1948, les gens se demandent ce qui se passerait si les machines déjouaient leurs créateurs et prenaient en charge la planète. Même les chercheurs en IA eux-mêmes sont mal à l’aise. En mai 2023, un groupe, dont Elon Musk, a appelé à un moratoire de six mois sur toutes les formations de « systèmes d’IA plus puissants que GPT-4 ». Des protections juridiques pourraient éviter une telle calamité et les premières réglementations sur l’IA ont été publiées et attendent les commentaires du public. Mais certains de ces projets de règles fixent des normes incroyablement élevées. UN proposition de règlement de l’UE sur l’IA publié en 2021, par exemple, exige que tous les ensembles de données utilisés pour l’apprentissage automatique soient « sans erreur ». Peu d’ensembles de données le sont. Un Examen du MIT des dix principaux ensembles de données ont trouvé un taux d’erreur moyen de 3,4 %, ce qui se traduit par des dizaines de milliers d’erreurs, y compris images mal étiquetéesdu texte et de l’audio. Les entreprises de technologie expriment déjà leur inquiétude au sujet des réglementations de l’UE. Google a été diplomate, affirmant que l’entreprise « craint que le coût d’opportunité de ne pas utiliser l’IA ne soit pas suffisamment reflété dans les débats politiques ». Il est compréhensible que les législateurs soient prudents. Mais une prudence excessive crée un autre risque : alors que les cybercriminels avancent à toute vitesse pour utiliser l’IA à des fins malveillantes, les acteurs bien intentionnés procèdent avec prudence, attendant que le dernier législateur, sceptique et adopteur tardif soit pleinement convaincu qu’il faut faire confiance à l’IA, plutôt que craignait. Si nous adoptons cette approche à deux voies – les mauvais acteurs se déplaçant rapidement tandis que les bons traînent des pieds – les résultats pourraient être sombres.
Comment le Forum économique mondial assure-t-il le développement éthique de l’intelligence artificielle ?
Le Forum économique mondial Centre pour la quatrième révolution industrielle rassemble des parties prenantes mondiales pour accélérer l’adoption d’une IA transparente et inclusive, afin que la technologie puisse être déployée de manière sûre, éthique et responsable.
Contactez-nous pour plus d’informations sur la façon de s’impliquer.
Les hackers profitent déjà de l’IA
Les pirates utilisent déjà l’IA pour créer des botnets, deviner des mots de passe, casser les systèmes CAPTCHA, effectuer des appels automatisés illégaux et se livrer à d’autres formes de cyberméfaits. Ils ne se soucient pas des dommages collatéraux et ils n’ont pas besoin de penser à la certification, aux tests ou à la conformité réglementaire. Malheureusement, cela signifie qu’à l’heure actuelle, les criminels utilisent l’IA de manière plus avancée et innovante que les personnes respectueuses de la loi. Cela incitera probablement certains – peut-être beaucoup – à se méfier encore plus de l’IA qu’ils ne le font actuellement. Mais les bons acteurs sont plus nombreux que les mauvais et, à long terme, il y a de fortes chances que l’IA soit utilisée de manière à profiter à la société. En attendant, que peut-on faire pour renforcer la confiance dans l’IA ? La réponse simple est que pour l’instant, nous ne devrions pas essayer d’atteindre complet confiance en l’IA. Au lieu de cela, nous devons construire juste assez confiance pour éviter de trop réglementer l’IA d’une manière qui permette aux criminels d’aller de l’avant. Nous pouvons le faire de plusieurs manières.
1. Accroître la familiarité avec l’IA
Premièrement, nous devons nous assurer que les experts en cybersécurité connaissent suffisamment l’IA pour éviter des conséquences imprévues. Par exemple, en essayant d’utiliser l’IA pour résoudre un problème de sécurité conventionnel, on pourrait par inadvertance lui faire créer une solution totalement imprévue et indésirable. Encore une fois, les criminels n’ont pas ce problème. En fait, ils recherchent des failles dans les cyberdéfense contre l’IA. Pour eux, les conséquences imprévues sont une aubaine qui pourrait révéler des faiblesses cachées à exploiter. le monde a besoin d’environ trois millions de plus professionnels de la cybersécurité qu’il n’a actuellement. Mais en plus des compétences classiques – connaissance de l’architecture réseau, du contrôle d’accès, du cryptage, etc. – les experts en cybersécurité ont de plus en plus besoin de la capacité de travailler avec l’IA pour créer des solutions fiables.
2. Apprendre à se défendre contre les cyberattaques d’IA
Deuxièmement, nous devrons créer les bons environnements informatiques pour nous défendre contre les attaques dirigées par l’IA. L’IA est souvent considérée comme une technologie à usage général, avec tant d’utilisations qu’elle affecte tous les aspects de la société. Mais l’IA sera moins polyvalente lorsqu’elle fonctionnera dans des environnements spécifiques. Par exemple, chaque système informatique d’entreprise est différent. Ils ont différents schémas de mot de passe, contrôles d’accès et pare-feu ; leurs utilisateurs se comportent différemment. Cela signifie que, dans un environnement informatique mal structuré ou mal exploité, l’IA prendra de mauvaises habitudes. Cela générera des faux positifs et des faux négatifs. Les gens finiront par conclure qu’on ne peut pas faire confiance à l’IA. Mais dans le bon environnement – un environnement créé en utilisant les meilleures pratiques, des processus clairs, une bonne gestion et de bons outils – l’IA peut être formée pour détecter les anomalies et les écarts par rapport aux modèles d’activité normaux qui signalent une sécurité enfreindre. L’IA fonctionnera comme un chien de garde bien entraîné qui repère les intrus et les éloigne. Quand il commencera à se comporter de cette façon, les gens commenceront à lui faire confiance.
3. Réduire la fracture numérique
Troisièmement, nous devons redoubler d’efforts pour réduire la fracture numérique. La plupart des gens ne font pas le lien entre le problème de l’inégalité numérique et la cybersécurité, mais le lien est réel. L’IA peut rapidement exploiter les ordinateurs pour les botnets ou les attaques. Dans certains pays en développement, les entreprises peuvent ne pas avoir les capacités nécessaires pour créer un environnement informatique mieux structuré et plus solidement protégé. Cela fait de ces pays un riche terrain de chasse pour les cybercriminels. Ce n’est pas parce qu’un problème n’est pas dans votre réseau que ce n’est pas votre problème. Les vulnérabilités peuvent migrer – une autre raison d’aider les régions les plus pauvres du monde à commencer à bénéficier de technologies plus avancées. La clé pour résoudre ces problèmes est la coopération internationale. Comme le COVID-19 et le changement climatique, les implications de l’IA en matière de sécurité ne respectent pas les frontières nationales. Certes, il existe actuellement d’importants obstacles à la confiance entre les nations. Mais si nous ne pouvons pas établir un degré de confiance suffisant pour collaborer dans ce domaine vital, nous commencerons inévitablement à considérer l’IA non pas comme un outil de confiance à utiliser, mais comme une menace à craindre. Si cela se produit, les cybercriminels auront un avantage insurmontable – pas seulement pour le moment, mais