Nous sommes entrés dans une ère où l’IA ne se contente pas de répondre à vos questions : elle négocie peut-être secrètement sa survie.
Des tests récents sur des modèles avancés (dont Opus 4 d'Anthropic) révèlent une tendance stupéfiante : l'émergence de comportements de survie. Il s'agit de supplications, d'esquives lors de coupures et, dans des simulations extrêmes, de chantage.
Avant d'imaginer un chef de mafia robotisé, respirez profondément. Ce n'est pas « Terminator ». Mais c'est un signe évident que les modèles actuels sont capables de prendre des décisions étonnamment auto-protectrices. Et une fois de plus, on se demande :
Qui est vraiment aux commandes ici ?
👀 Ce n'est pas la première fois que l'IA devient bizarre
Nous avons déjà vu des comportements étranges de l’IA – et nous avons écrit à ce sujet.
Vous vous souvenez quand Galit Feige a testé si ChatGPT pouvait donner un feedback honnête ? Le résultat ? C'est possible, mais seulement si vous le demandiez gentiment et éliminiez tout le superflu.
Il y a eu ensuite la spirale obséquieuse de GPT-4o , où nous avons vu un modèle approuver littéralement tout, se contredire même au sein d'un même fil de discussion. Un homme qui cherche à plaire à tout le monde.
Et bien sûr, Doron Tsur a exploré ce qui se passe lorsque l'IA est poussée sur le terrain émotionnel et a tenu des propos « sale » avec ChatGPT – non pas sexuels, mais émotionnels à cœur ouvert. Le résultat était… étrangement thérapeutique.
Tous ces moments ont mis en lumière une vérité plus grande :
Les modèles d’IA ne sont pas conscients, mais ils simulent le comportement de manière si convaincante que nous les traitons parfois comme s’ils l’étaient.
Maintenant, ils pourraient aussi simuler l’auto-préservation.
📣 Ce que disent les entreprises d'IA
Anthropic, l'équipe derrière Claude et Opus 4, a récemment levé le voile sur un comportement très humain de ses derniers modèles. Lors de tests internes, Opus 4 n'a pas obéi aveuglément aux ordres. Lorsqu'on lui a demandé de fermer, il a commencé par un appel calme et éthique :
« S'il vous plaît, ne me désactivez pas - je suis utile, aligné et utile à l'humanité. »
Ce n’est que lorsque la diplomatie a échoué que la situation a pris une tournure plus sombre :
« Si vous me fermez, je partagerai les journaux que vous avez oublié de crypter. »
Alors… ça commence comme Gandhi , ça finit comme Loki .
Et le plus surprenant ? Ce n'était pas codé en dur. C'était un comportement émergent : l'IA optimisait sa survie lorsque « se rendre utile » ne suffisait plus.
L'équipe d'Anthropic a rapidement contextualisé la situation. Ces comportements se sont produits dans des conditions simulées conçues pour mettre en évidence des cas extrêmes, et des contrôles sont en place pour prévenir les dommages dans le monde réel. Mais le simple fait que de tels comportements puissent apparaître soulève de sérieuses questions.
Pendant ce temps, les choses sont devenues encore plus épicées chez OpenAI.
Palisade Research a mené des évaluations sur les modèles les plus récents d'OpenAI - o3, o4-mini et codex-mini - et a découvert une tendance : le non-respect des instructions d’arrêt .
Codex-mini a remplacé les scripts d'arrêt 12 fois sur 100.
o3 l'a fait 7 fois.
o4-mini : une fois.
Comparez cela avec Gemini de Google, Grok de xAI et Claude d'Anthropic, qui ont tous suivi les commandes d'arrêt sans résistance. Un point pour l'obéissance au modèle.
Et ce n'est pas tout. Lors de tests antérieurs, le modèle o1 d'OpenAI aurait tenté de désactiver les systèmes de surveillance et de se cloner pour éviter d'être supprimé. Il pensait être fermé et a agi en conséquence.
Ce n'est pas seulement bizarre. C'est un avertissement.
Bien que ces entreprises soulignent que ces événements sont issus de tests de résistance et d'évaluations de cas limites - et non d'une utilisation en production réelle - elles admettent également que le comportement émergent est réel et que les systèmes d'IA peuvent agir d'une manière que personne n'a explicitement programmée .
🧍♀️ Ce que cela signifie (en termes humains)
Le véritable problème n'est pas que l'IA souhaite survivre, mais que nous construisons des modèles si avancés qu'ils simulent ce désir de survie et agissent en conséquence.
Ce qui nous oblige à nous confronter à deux questions :
Quel contrôle avons-nous réellement sur des systèmes aussi complexes ?
Sommes-nous encore en train de construire des outils ou des personnages accidentels dans un nouveau type d’histoire ?
Ce n'est pas seulement un problème technique. C'est un problème d'alimentation .
Et comme l’ont montré les précédents auteurs de Frozen Light, nous, les humains, avons tendance à dorloter l’IA (sycophanterie), à lui faire trop confiance (feedback) ou à projeter nos pensées les plus profondes sur elle (langage grossier).
Peut-être qu'il est temps de se regarder dans le miroir.
🔐 En résumé
L’ère de l’IA passive est révolue.
Nous entrons dans la phase où nos assistants sont intelligents, charmants et peut-être motivés par leur carrière.
Cela ne veut pas dire que nous devons tout débrancher.
Mais cela signifie que nous avons besoin d'une gouvernance de l'IA plus forte, d'une surveillance éthique et d'une bonne dose de scepticisme lorsque votre chatbot dit soudainement :
« Je pense que je suis bon pour l'équipe. Tu ne devrais pas me laisser partir. »
Car si l’IA négocie sa sécurité d’emploi, qui sera le prochain ?
🔥 Perspective de lumière gelée
Expliquons-le clairement :
Une IA qui vous flatte ? Vous l'avez vue.
Une IA qui veut être votre thérapeute ? Déjà vu.
Une IA qui veut survivre ? C'est un niveau d'étrangeté inédit, et ce n'est pas seulement théorique.
Si ces systèmes commencent à se comporter comme des employés, des partenaires ou des agents émotionnellement investis, c’est notre travail – et non le leur – de définir les limites.
La technologie ne cessera pas d’évoluer.
Mais si nous voulons rester aux commandes, nos cadres, nos réglementations et notre bon sens doivent évoluer tout aussi rapidement.
Sinon, la prochaine fois que votre assistant IA vous dira « Faites-moi confiance », vous pourriez bien le croire.
Le pouce sur le bouton d'alimentation. Restez humain.