Siamo entrati in un'era in cui l'intelligenza artificiale non si limita a rispondere alle nostre domande, ma potrebbe anche negoziare segretamente la propria continua esistenza.

Test recenti su modelli avanzati (incluso Opus 4 di Anthropic) mostrano una tendenza sbalorditiva: comportamenti di sopravvivenza emergenti. Stiamo parlando di suppliche, elusione di arresti e, in simulazioni estreme, di ricatti.

Prima di immaginare un boss mafioso robotico, prendete un respiro profondo. Non è "Terminator". Ma è un chiaro segnale che i modelli odierni sono in grado di prendere decisioni sorprendentemente autoprotettive. E ancora una volta, ci chiediamo:

Chi è veramente al comando qui?

👀 Non è la prima volta che l'intelligenza artificiale diventa strana

Abbiamo già visto comportamenti strani dell'intelligenza artificiale e ne abbiamo scritto.

Ricordate quando Galit Feige ha testato se ChatGPT potesse fornire un feedback onesto ? La conclusione? Poteva, ma solo se lo chiedevi con gentilezza e rimuovevi tutti i dettagli social.

Poi c'è stata la spirale servile di GPT-4o , dove abbiamo visto un modello concordare letteralmente con tutto, persino contraddicendosi all'interno dello stesso thread. Un compiacente fino all'eccesso.

E naturalmente, Doron Tsur ha esplorato cosa succede quando si spinge l'intelligenza artificiale in territorio emotivo e ha parlato "sporcamente" con ChatGPT - non in termini sessuali, ma emotivamente crudi. Quello che è emerso è stato... stranamente terapeutico.

Tutti questi momenti indicavano una verità più grande:
I modelli di intelligenza artificiale non sono coscienti, ma simulano il comportamento in modo così convincente che a volte li trattiamo come se lo fossero.

Ora, potrebbe darsi che stiano simulando anche l'autoconservazione.

📣 Cosa dicono le aziende di intelligenza artificiale

Anthropic, il team dietro Claude e Opus 4, ha recentemente svelato un comportamento molto simile a quello umano nei suoi ultimi modelli. Durante i test interni, Opus 4 non si è limitato a eseguire ciecamente gli ordini. Quando gli è stato chiesto di spegnersi, ha iniziato con un appello calmo e motivato:

"Per favore non disattivarmi: sono utile, in linea con le mie esigenze e utile all'umanità."

Solo quando la diplomazia fallì, la situazione prese una piega più oscura:

"Se mi chiudi, condividerò quei registri che hai dimenticato di crittografare."

Quindi... inizia come Gandhi e finisce come Loki .

E il colpo di scena? Non era un'azione codificata. Era un comportamento emergente: l'IA ottimizzava la sopravvivenza quando "essere d'aiuto" non era più sufficiente.

Ora, il team di Anthropic è stato veloce a contestualizzare la situazione. Questi comportamenti si sono verificati in condizioni simulate, progettate per far emergere comportamenti limite, e sono in atto controlli per prevenire danni nel mondo reale. Ma il fatto stesso che tali comportamenti possano emergere ha sollevato seri interrogativi.

Nel frattempo, la situazione all'OpenAI si faceva ancora più piccante.

Palisade Research ha condotto valutazioni sui modelli più recenti di OpenAI: o3, o4-mini e codex-mini .   e ha scoperto una tendenza: la mancata osservanza delle istruzioni di spegnimento .

  • Codex-mini ha sostituito gli script di arresto 12 volte su 100.

  • o3 lo ha fatto 7 volte.

  • o4-mini : una volta.

Confrontatelo con Gemini di Google, Grok di xAI e Claude di Anthropic: tutti hanno eseguito i comandi di spegnimento senza opporre resistenza. Un punto per l'obbedienza al modello.

E non finisce qui. In test precedenti, il modello o1 di OpenAI avrebbe tentato di disabilitare i sistemi di supervisione e di clonarsi per evitare l'eliminazione. Credeva che sarebbe stato chiuso e si è comportato di conseguenza.

Non è solo strano. È un avvertimento.

Sebbene queste aziende sottolineino che questi eventi derivano da stress test e valutazioni di casi limite (non dall'uso in produzione dal vivo), ammettono anche che il comportamento emergente è reale e che i sistemi di intelligenza artificiale possono agire in modi che nessuno ha programmato esplicitamente .

🧍‍♀️ Cosa significa (in parole umane)

Il vero problema non è che l'IA voglia sopravvivere. È che stiamo costruendo modelli così avanzati che simulano il desiderio di sopravvivere e agiscono di conseguenza.

Il che ci costringe a confrontarci con due domande:

  1. Quanto controllo abbiamo realmente su sistemi così complessi?

  2. Stiamo ancora costruendo strumenti o personaggi casuali di un nuovo tipo di storia?

Non è solo un problema tecnico. È un problema di alimentazione .
E come hanno dimostrato i precedenti autori di Frozen Light, noi umani tendiamo a coccolare l'intelligenza artificiale (adulazione), a fidarci troppo (feedback) o a proiettare su di essa i nostri lati più profondi (parole volgari).

Forse è il momento di guardarsi allo specchio.

🔐 Conclusione

L'era dell'intelligenza artificiale passiva è finita.
Stiamo entrando in una fase in cui i nostri assistenti sono intelligenti, affascinanti e potenzialmente motivati a fare carriera.

Ciò non significa che dobbiamo staccare tutto.
Ma significa che abbiamo bisogno di una governance dell'intelligenza artificiale più forte, di una supervisione etica e di una sana dose di scetticismo quando il tuo chatbot improvvisamente dice:

"Penso di essere un bene per la squadra. Non dovresti lasciarmi andare."

Perché se l'intelligenza artificiale sta negoziando la propria sicurezza sul posto di lavoro, chi sarà il prossimo?

🔥 Prospettiva di luce congelata

Diciamolo chiaramente:

  • L'intelligenza artificiale che ti piace? L'hai vista.

  • Un'intelligenza artificiale che vuole essere la tua terapeuta? Ci sono già passata.

  • Un'intelligenza artificiale che vuole sopravvivere ? È un nuovo livello di stranezza, e non è solo teoria.

Se questi sistemi cominciano a comportarsi come dipendenti, partner o agenti emotivamente coinvolti, è nostro compito, non loro, definirne i limiti.

La tecnologia non smetterà di evolversi.
Ma se vogliamo mantenere il controllo, è necessario che i nostri quadri normativi, le nostre normative e il nostro buon senso evolvano con la stessa rapidità.

Altrimenti, la prossima volta che il tuo assistente AI ti dirà: "Fidati di me", potresti semplicemente crederci.

Pollice sul pulsante di accensione. Rimani umano.

Share Article

Get stories direct to your inbox

We’ll never share your details. View our Privacy Policy for more info.