dimanche 26 mai 2024

Des IA pourront se répliquer et survivre dans la nature dès 2025, s’inquiète le patron d’Anthopic

-

Des IA qui s’auto-répliquent en autonomie et se développent de façon débridée, c’est le scénario dangereux qu’imagine le patron du chatbot Claude de la société Anthropic. Utilisé par des États ces intelligences artificielles autonomes et militarisées augmenteraient considérablement leurs capacités de nuisance. Et ce n’est pas pour dans 10 ans, mais presqu’aujourd’hui !

Si l’on en croit le patron d’Anthropic, Dario Amodei, mieux vaut ne pas se fâcher avec les robots en ce moment. Selon ses prédictions, les IA pourraient bien s’auto-dupliquer pour survivre dans la nature d’ici un an et ce serait très dangereux. C’est en tout cas ce qu’il a annoncé lors d’une interview avec une journaliste de The New York Times. Avec son Chatbot Claude, l’ancien membre d’OpenAI sait de quoi il parle. 

Mécontent de la philosophie jugée aventureuse d’OpenAI, il tout misé sur la sécurité et l’éthique dans le développement de son propre modèle de langage en créant Anthropic. Pour se rendre compte des dangers des IA selon leur phase de développement, la firme a même créé une échelle se basant sur des niveaux de sécurité. Ce cadre  le nom d’AI Safety Levels (ASL) et Anthropic en a défini quatre.

Actuellement, les modèles se classent dans le niveau ASL 2. Les risques sont déjà présents, mais réduits. En revanche, selon lui, le niveau ASL 4 pourrait bientôt être atteint avec des intelligences artificielles douées d’ et capables de persuader les humaines. Utilisées par des États, ces IA permettraient d’augmenter leur capacité de .

   Des robots qui s’auto-dupliquent

Dario Amodei imagine déjà qu’elles pourraient être employées par des pays comme la Corée du Nord, la Chine ou la Russie pour renforcer leurs capacités offensives dans diverses zones militaires. Toujours selon le scénario catastrophe du patron d’Anthropic, ces IA autonomes capables de s’auto-répliquer et subsister pourraient bien arriver dès l’an prochain, étant donné que l’IA se développe de façon exponentielle.

Amodei n’est pas le seul à tenir des discours apocalyptiques sur les IA, mais sa prédiction pèse lourd car qu’il en est également un créateur averti. Alors qu’avec Anthropic le développement de l’IA de Claude est très éthiquement encadré pour garantir plus de sécurité, tous les éditeurs d’IA ne sont pas aussi précautionneux, surtout si leur objectif est de les transformer en outil à usage militaire. Sûr de lui, Dario Amodei s’est aventuré à miser sur sa chasteté s’il se trompe. Sacré pari !

- Advertisment -