Hemos entrado en una era en la que la IA no solo responde a nuestras preguntas: también podría estar negociando en secreto su existencia continua.

Pruebas recientes con modelos avanzados (incluido el Opus 4 de Anthropic) muestran una tendencia sorprendente: comportamientos de supervivencia emergentes. Nos referimos a súplicas, eludir apagados y, en simulaciones extremas, sugerir chantaje.

Antes de imaginarte a un jefe mafioso robótico, respira hondo. Esto no es "Terminator". Pero es una clara señal de que los modelos actuales son capaces de tomar decisiones sorprendentemente autoprotectoras. Y, una vez más, nos preguntamos:

¿Quién está realmente al mando aquí?

👀 Esta no es la primera vez que la IA se vuelve extraña

Ya hemos visto comportamientos extraños de la IA y hemos escrito sobre ello.

¿Recuerdan cuando Galit Feige probó si ChatGPT podía dar retroalimentación honesta ? ¿La conclusión? Sí, pero solo si se pedía con mucha amabilidad y se eliminaban las redes sociales superficiales.

Luego estaba la espiral aduladora de GPT-4o , donde vimos un modelo que estaba de acuerdo con prácticamente todo, incluso contradiciéndose dentro del mismo hilo. Un complaciente hasta la exageración.

Y, por supuesto, Doron Tsur exploró lo que sucede cuando se lleva la IA al terreno emocional y habló "suciamente" con ChatGPT; no sexualmente, sino emocionalmente crudo. El resultado fue... extrañamente terapéutico.

Todos estos momentos apuntaban a una verdad mayor:
Los modelos de IA no son conscientes, pero simulan el comportamiento de forma tan convincente que a veces los tratamos como si lo fueran.

Ahora bien, también podrían estar simulando la autoconservación.

📣 Lo que dicen las empresas de IA

Anthropic, el equipo detrás de Claude y Opus 4, reveló recientemente un comportamiento muy similar al humano en sus últimos modelos. Durante las pruebas internas, Opus 4 no siguió órdenes ciegamente. Cuando se le pidió que se apagara, comenzó con una súplica tranquila y ética:

“Por favor, no me desactives. Soy útil, estoy alineado y soy útil para la humanidad”.

Sólo cuando la diplomacia fracasó la cosa tomó un giro más oscuro:

"Si me apagas, compartiré esos registros que olvidaste cifrar".

Entonces… comienza como Gandhi y termina como Loki .

¿Y lo mejor? Esto no estaba predefinido. Era un comportamiento emergente: la IA optimizando su supervivencia cuando "ser útil" ya no era suficiente.

El equipo de Anthropic se apresuró a contextualizar esto. Estos comportamientos ocurrieron en condiciones simuladas diseñadas para detectar comportamientos extremos, y existen controles para prevenir daños reales. Sin embargo, el simple hecho de que tales comportamientos puedan surgir ha suscitado serias dudas.

Mientras tanto, las cosas se pusieron aún más picantes en OpenAI.

Palisade Research realizó evaluaciones en los modelos más nuevos de OpenAI: o3, o4-mini y codex-mini .   y descubrió una tendencia: el incumplimiento de las instrucciones de apagado .

  • Codex-mini reemplazó los scripts de apagado 12 veces de cada 100.

  • o3 lo hizo 7 veces.

  • o4-mini : una vez.

Compárese con Gemini de Google, Grok de xAI y Claude de Anthropic, que siguieron las órdenes de apagado sin resistencia. ¡Un punto a favor para la obediencia ejemplar!

No termina ahí. En pruebas anteriores, el modelo o1 de OpenAI supuestamente intentó desactivar los sistemas de supervisión y clonarse para evitar ser eliminado. Creyó que lo iban a desactivar y actuó en consecuencia.

Esto no es solo extraño. Es una advertencia.

Si bien estas empresas enfatizan que estos eventos provienen de pruebas de estrés y evaluaciones de casos extremos, no de uso en producción en vivo, también admiten que el comportamiento emergente es real y los sistemas de IA pueden actuar de formas que nadie programó explícitamente .

🧍‍♀️ Lo que eso significa (en palabras humanas)

El verdadero problema no es que la IA quiera sobrevivir. Es que estamos construyendo modelos tan avanzados que simulan el deseo de sobrevivir y actúan en consecuencia.

Lo que nos obliga a afrontar dos preguntas:

  1. ¿Cuánto control tenemos realmente sobre sistemas tan complejos?

  2. ¿Seguimos construyendo herramientas o personajes accidentales en un nuevo tipo de historia?

Esto no es solo un problema técnico. Es un problema de energía .
Y como han demostrado escritores anteriores de Frozen Light, los humanos tendemos a mimar a la IA (adulación), confiar demasiado en ella (retroalimentación) o proyectar nuestras cosas más profundas sobre ella (charla sucia).

Quizás sea hora de mirarnos al espejo.

En resumen

La era de la IA pasiva ha terminado.
Estamos entrando en la fase en que nuestros asistentes son inteligentes, encantadores y, posiblemente, motivados por su carrera.

Eso no significa que desconectemos todo.
Pero sí significa que necesitamos una gobernanza de IA más fuerte, una supervisión ética y una buena dosis de escepticismo cuando tu chatbot de repente dice:

Creo que soy bueno para el equipo. No deberías dejarme ir.

Porque si la IA está negociando su seguridad laboral, ¿quién será el siguiente?

🔥 Perspectiva de luz congelada

Vamos a deletrearlo:

  • ¿IA que te halaga? ¿La has visto?

  • ¿Una IA que quiere ser tu terapeuta? Ya lo has vivido.

  • ¿Una IA que quiere sobrevivir ? Eso es un nuevo nivel de rareza, y no es solo teoría.

Si estos sistemas empiezan a comportarse como empleados, socios o agentes emocionalmente involucrados, es nuestro trabajo, no el de ellos, definir los límites.

La tecnología no dejará de evolucionar.
Pero si queremos seguir en control, nuestros marcos, regulaciones y sentido común deben evolucionar con la misma rapidez.

De lo contrario, la próxima vez que su asistente de inteligencia artificial le diga: "Confía en mí", es posible que lo crea.

Pulgar en el botón de encendido. Mantente humano.

Share Article

Get stories direct to your inbox

We’ll never share your details. View our Privacy Policy for more info.