vendredi 21 juin 2024

Il y a 99,9 % de risques que l’intelligence artificielle entraîne la fin du monde, selon un chercheur en IA

-

Un spécialiste en IA en est sûr : d’ici les 100 prochaines années, il y a près de 100 % de chances que l’IA entraîne la fin du monde. Réalisme ? Exagération ? Quels sont vraiment les risques que pourrait entraîner le développement de ces technologies.

5 % de possibilités d’extinction de l’humanité, 70 %, selon un ancien chercheur d’OpenAI ! Qui dit mieux ? Le très pessimiste Roman Yampolskiy, chercheur en IA et professeur d’informatique de l’Université de Louisville aux États-Unis, estime que l’arrivée d’une IA générale a 99,9 % de chances de détruire l’humanité lors des 100 prochaines années.

C’est dans un récent épisode du podcast du chercheur en IA, Lex Fridman, que Roman Yamposkiy s’est exprimé sur cette probabilité que l’essor des AGI — autrement dit les superintelligences générales — tourne suffisamment mal pour qu’il entraîne l’anéantissement de l’humanité. Pour lui, à partir du moment où une IA est capable de prendre un milliard de décisions par seconde durant une centaine d’année, il est pratiquement certain que cela va entraîner la fin du monde.

Pour étayer ses inquiétudes, il met en avant quelques exemples d’, ou encore les réguliers détournements de GPT pour en débrider sa puissance, comme le « mode Dieu » qui a été récemment bloqué par OpenAI. Il estime qu’aucun grand modèle de langage n’a échappé à des manipulations pour accomplir des tâches inattendues par ses créateurs. Pour lui, c’est une menace que nous ne sommes toujours pas capables d’imaginer.

   Pas de consensus sur le sujet

Le chercheur est loin d’être le seul à soulever cette inquiétude. Même Yann LeCun, le patron de l’IA de Meta, considéré comme l’un des parrains des IA, s’est dit préoccupé par le risque existentiel que pourrait poser la technologie dans l’avenir. De même, les problèmes de manque de considérations éthiques autour du développement des IA sont régulièrement soulevés par la communauté des spécialistes depuis plusieurs années.

La semaine dernière Futura (lire ci-dessous) évoquait la publication d’une lettre ouverte signée par d’anciens et actuels salariés d’OpenAI qui s’inquiètent du manque de prudence des dirigeants développant des IA au profit de la fascination de leurs possibilités. Si de nombreux chercheurs expriment leur crainte, leur considération ne fait pas non plus l’objet d’un consensus général de leurs pairs. Il faut dire que la science de la prévision autour du développement de ces IA en est à ses balbutiements et qu’elle pourrait bien progresser positivement. Et puis, en termes de menaces existentielles, les IA restent loin d’être les seules à pouvoir poser problème en ce moment.

 
- Advertisment -