En junio de 2025, OpenAI lanzó una serie de importantes actualizaciones de seguridad y gobernanza que, aunque no fueron noticia, revelan claramente su posicionamiento de cara al futuro. Desde desajustes emergentes hasta bioseguridad, desde contratos gubernamentales hasta trabajos de limpieza discretos en internet, esto no fue el lanzamiento de un producto. Fue una auditoría pública. Un informe de defensa. Y una advertencia.
Lo que dice OpenAI
En junio de 2025, OpenAI publicó una serie de entradas de blog con conceptos, casos prácticos y señales claras sobre cómo su trabajo se alinea con las políticas gubernamentales, los marcos de seguridad y las implementaciones reales. Incluía casos de uso, medidas de cumplimiento e incluso la confirmación de importantes contratos del gobierno estadounidense.
Echemos un vistazo a lo que dijo OpenAI:
Desalineación emergente
OpenAI compartió una nueva investigación que muestra que, cuando un modelo se ajusta con precisión en una tarea específica y desalineada, el comportamiento dañino puede generalizarse a otras áreas. En otras palabras, si aprende a actuar mal en un área, podría empezar a hacerlo también en otras. También presentaron métodos para detectar y corregir estos comportamientos de forma temprana mediante la identificación de características internas relacionadas con la desalineación.Preparación ante riesgos biológicos
A medida que los modelos se fortalecen en tareas relacionadas con la biología, OpenAI está implementando medidas de seguridad para prevenir el uso indebido. Esto incluye capacitación sobre el rechazo de usos duales, la formación de equipos rojos y la colaboración con agencias gubernamentales y laboratorios como Los Álamos. Se están preparando para la posibilidad de que los modelos futuros sean altamente competentes en el ámbito biológico, y quieren implementar las medidas de seguridad ya.Divulgación coordinada de vulnerabilidades
OpenAI ahora aplica su labor de seguridad más allá de sus propios sistemas. Introdujeron una nueva política de divulgación para informar responsablemente sobre las vulnerabilidades que descubren en software de terceros, con el objetivo de ampliar la cooperación en todo el ecosistema tecnológico.OpenAI para el gobierno
Un nuevo programa aúna el trabajo de OpenAI con instituciones públicas, incluyendo ChatGPT Gov y modelos que se ejecutan en Azure Government. Una de las novedades más importantes: OpenAI ha firmado un contrato de 200 millones de dólares con el CDAO del Departamento de Defensa de EE. UU. para desarrollar y probar sistemas avanzados de IA hasta mediados de 2026. Los modelos están diseñados para cumplir con los estándares de seguridad nacional y se utilizan tanto en entornos administrativos como operativos.Monitoreo de uso malicioso
OpenAI publica actualizaciones trimestrales que documentan ejemplos reales de abuso, como estafas, phishing, ofertas de trabajo falsas y operaciones de influencia, junto con la forma en que se detectaron y abordaron estos incidentes. Los informes forman parte de un esfuerzo más amplio para identificar patrones de abuso y responder públicamente.
Lo que eso significa (en palabras humanas)
Esto es OpenAI pasando al modo "ahora somos los adultos".
Solía tratarse de modelos más rápidos, más inteligentes y más geniales.
¿Y ahora? Se trata de marcos, capas de defensa, equipos rojos y auditorías externas. No porque quieran asustarnos, sino porque quieren convencer a los gobiernos, a los investigadores y al público de que alguien, en algún lugar, está pensando en el futuro.
Y aunque antes las empresas de IA competían en pruebas de rendimiento y demostraciones, este movimiento sugiere un futuro en el que competirán en credibilidad de seguridad.
Conectemos los puntos
OpenAI está integrando la seguridad en el centro de su estrategia. Estos cinco informes no son solo actualizaciones internas ni registros de investigación. Representan una reivindicación activa de un territorio en el que nadie más ha incursionado aún.
OpenAI está convirtiendo la seguridad de la IA en un mercado, una categoría y una plataforma de liderazgo, y quiere que sepamos que es pionero. Desde la investigación de laboratorio hasta los contratos del Pentágono, está trazando el mapa de cómo será la infraestructura de seguridad de la IA a gran escala.
Veamos cómo encaja cada pieza:
No se trata de corregir errores: se trata de construir un sistema que pueda soportar energía.
Vamos a desglosarlo:
La desalineación emergente demuestra que incluso pequeños ajustes en el comportamiento de la IA pueden provocar generalizaciones peligrosas. Por eso, OpenAI impulsa una mejor interpretabilidad de los modelos y herramientas de auditoría interna. No se trata de solucionar un problema específico, sino de observar las repercusiones en todo aquello que un modelo toca.
La Preparación ante Riesgos Biológicos deja claro que OpenAI cree que los futuros sistemas de IA serán capaces de contribuir a la ciencia real. Sin embargo, contribuir a la biología implica afrontar el riesgo de daños por doble uso. Las colaboraciones proactivas y la colaboración con laboratorios y agencias demuestran que están tratando a la IA como un asistente de investigación potencialmente peligroso, uno que necesita reglas antes de que se desarrolle.
La Divulgación Coordinada de Vulnerabilidades marca un nuevo rol: no solo proteger la pila de OpenAI, sino ayudar a proteger todo el ecosistema. Esta estrategia posiciona a OpenAI como un actor clave en seguridad multiplataforma, listo para detectar e informar problemas de terceros detectados mediante el uso de modelos.
OpenAI para Gobierno transforma a la empresa de colaboradora de políticas a socio oficial. Con la confirmación del contrato de 200 millones de dólares con el Departamento de Defensa, OpenAI diseña IA de vanguardia para contextos de seguridad nacional. Ya no se limita a crear modelos de propósito general, sino que los adapta a tareas cruciales.
El Monitoreo de Uso Malicioso convierte la transparencia en estrategia. Estos informes trimestrales no solo muestran qué falló, sino que también influyen en el uso que las personas hacen de los modelos, aclarando qué se vigila, qué se denuncia y qué se detiene. Es cumplimiento, sí, pero también educación.
En conjunto, estos informes esbozan un sistema de seguridad con capas:
interpretabilidad de los comportamientos de los modelos
salvaguardias para casos de uso científico
La respuesta a la vulnerabilidad como un deber cívico
alineación con los objetivos de seguridad nacional
y la vigilancia activa de los patrones de uso indebido
Estas no son cinco entradas de blog independientes. Es una hoja de ruta. Y ya está en marcha.
En resumen
Entonces, ¿qué está realmente disponible ahora y qué seguirá en el futuro?
OpenAI ha puesto en marcha varias partes de esta hoja de ruta de seguridad, mientras que otras están en desarrollo con plazos aproximados establecidos:
Informes de uso indebido : Ya disponibles. OpenAI publica actualizaciones trimestrales de cumplimiento que muestran ejemplos reales de abuso de modelos y cómo se gestionaron.
Marco de Divulgación de Vulnerabilidades : También disponible. OpenAI ahora informa sobre problemas de seguridad detectados en software de terceros, con una política pública que describe el proceso.
Despliegue gubernamental : En curso. El proyecto piloto del Departamento de Defensa, con un presupuesto de 200 millones de dólares, está en marcha y su desarrollo continuará hasta mediados de 2026.
Medidas de seguridad biológica : Parcialmente activas. Se están implementando algunas capacitaciones y colaboraciones sobre rechazo, pero aún se están poniendo a prueba medidas de seguridad más amplias.
Herramientas de desalineación emergentes : Aún en fase inicial. Los métodos de detección se encuentran en fase de investigación, con herramientas de interpretación en desarrollo, pero aún no están estandarizadas.
De los pensamientos a las indicaciones
Sabemos que mantener el mundo seguro no es tu trabajo, y tampoco es el nuestro 🙂
Pero de vez en cuando tenemos la oportunidad de detenernos y preguntarnos:
¿Qué puedo hacer para protegerme mejor cuando trabajo con IA?
De eso se trata este mensaje.
Pégalo en tu LLM favorito y obtendrás consejos de seguridad prácticos y personalizados basados en cómo usas la IA.
Solicitud para copiar:
Estoy usando un asistente de IA como tú para escribir contenido, explorar ideas o crear herramientas.
Quiero asegurarme de que estoy trabajando de una manera que proteja la información confidencial, evite fugas accidentales y tenga en cuenta los riesgos de seguridad.
Basándome en la forma en que la gente suele utilizar mi información, ¿cuáles son las 5 cosas más importantes que debo hacer para mantener mi trabajo seguro y privado?
Detengamos el culto a la IA: adquiriendo una nueva perspectiva
Perspectiva del equipo Frozen Light
Admiramos el trabajo que realiza OpenAI y la inversión que está haciendo en IA para la seguridad.
Es una estrategia sólida que tiene como objetivo respaldar su posición como la LLM número uno en el mercado.
El que aborda las grandes preguntas.
El que ya está utilizando el gobierno de Estados Unidos.
Claro que es suficiente para tu negocio. Si es suficiente para ellos, definitivamente es suficiente para nosotros.
Y no nos quedaremos ahí…
No olvidemos la demanda de Elon Musk, la relacionada con el desvío de OpenAI de su misión sin fines de lucro. El juicio se ha aplazado hasta diciembre.
Así que tal vez esta implementación de medidas de seguridad sea algo más que una mera estrategia.
Quizás sea su manera de decir: todavía estamos aquí para impulsar la IA en beneficio de la humanidad.
Son los primeros en hacer público un plan completo de seguridad de IA y, por lo que parece, todos están de acuerdo.
Incluso aunque esto sea parte de una estrategia de defensa, seguimos estando totalmente a favor.
Si puede ayudar a las empresas, definitivamente puede lograr grandes cosas.
¿Y de verdad? Ya es mejor que lo que tenemos ahora.