
El 30 de septiembre de 2025, OpenAI presentó formalmente Sora 2, el modelo de generación de video y audio de próxima generación, junto con una aplicación social complementaria simplemente llamada Sora.
A diferencia de su predecesor , Sora 2 fusiona audio y video sincronizados, un comportamiento físico más preciso y un conjunto de herramientas orientadas al usuario como cameos (que le permiten insertar su imagen en escenas generadas por IA).
La aplicación se lanza solo por invitación en EE. UU. y Canadá (primero en iOS), con una expansión gradual prevista. En cuestión de días, la aplicación Sora alcanzó el número 1 en la lista de aplicaciones gratuitas de la App Store de EE. UU .
Pero la atención también ha brillado, con dureza, sobre cuestiones relacionadas con los deepfakes, los derechos de autor y la moderación de contenidos.
Lo que dice OpenAI
Avances clave en Sora2
- Audio + Video juntos: Sora 2 genera diálogos sincronizados, sonidos ambientales y efectos junto con elementos visuales, abordando una limitación importante de los sistemas de texto a video de primera generación.
- Mejor física y control: los objetos, personajes y movimientos deberían comportarse de forma más realista (mejores colisiones, continuidad, profundidad) que en los modelos anteriores.
Cameos y remezclas: Los usuarios pueden grabar un video corto con audio (opt-in) y permitir que Sora los incorpore en escenas generadas. Otros pueden remezclar o crear a partir de esas escenas (con permisos). - Estilo y fidelidad: OpenAI afirma una mayor fidelidad en todos los estilos (realista, cinematográfico, animación) y una mayor adherencia a las indicaciones.
- Seguridad, moderación y derechos: protecciones integradas, filtros y sistemas de identidad/consentimiento son parte del lanzamiento.
El marco “Lanzamiento responsable de Sora” de OpenAI enfatiza la importancia de la mitigación del uso indebido, los controles de usuario y la implementación gradual.
En su tarjeta de sistema, describen a Sora 2 como “generación de audio y video de última generación” con mejoras en realismo, maniobrabilidad y control.
Aun así, el enfoque de OpenAI hacia los personajes con derechos de autor es controvertido: de manera predeterminada, los propietarios de contenido deben optar por no usarlos (a menos que permitan su uso).
En respuesta a la reacción negativa, se informa que la empresa está cambiando a otorgar a los titulares de derechos un control más granular y opciones de participación en los ingresos.
¿Cómo se compara Sora 2?
| Área de características | Sora 1 / Modelos anteriores | Sora 2 | Modelos de la competencia / Notas |
|---|---|---|---|
| Audio | Raro o inexistente | Audio nativo + sincronización | Veo 3 de Google también admite la integración de audio en YouTube |
| Física y Continuidad | Básico; transiciones a menudo con fallos | Comportamiento de objetos más estable, continuidad entre tomas | Aún es pronto; otros como Veo o Runway están evolucionando rápidamente |
| Inserción de usuario (Cameo) | Ausente o limitado | Sí, opt-in, basado en consentimiento | Única entre las principales herramientas públicas para el lanzamiento |
| Aplicación + Feed Social | A través de ChatGPT, no hay una aplicación social dedicada | Aplicación independiente "estilo TikTok" con feed y remix | Meta tiene "Vibraciones"; YouTube integra Veo 3 |
| Modelo de acceso | Implementación limitada para creadores/usuarios plus | Solo por invitación (iOS de EE. UU. y Canadá), en expansión | Es posible que otros adopten un acceso más abierto desde el principio. |
| Barandillas legales/de propiedad intelectual | Restricciones más fuertes | Mixto: inclusión automática a menos que se opte por no participar | Muchos críticos argumentan que la política de derechos de autor es demasiado permisiva. |
En resumen: Sora 2 eleva el listón técnicamente, pero se adentra en un espacio concurrido y disputado. La aplicación y la capa social lo convierten en algo más que un modelo: en una plataforma. Algunos observadores lo consideran una apuesta arriesgada; otros, una apuesta arriesgada.
Lo que eso significa (en palabras humanas)
Para creadores, narradores o usuarios curiosos de todo el mundo, Sora 2 ofrece un vistazo a cómo podría ser el futuro de la creación de video: de tus palabras, directamente al video , sin cámara ni equipo. Sin embargo, en la fase de lanzamiento actual, el acceso está restringido y surgen muchas cuestiones legales y éticas.
A continuación te explicamos cómo puedes usar Sora 2 incluso desde fuera de EE. UU. y Canadá (respetando las reglas y arriesgándote a cumplir los límites):
1. Regístrate y verifica tu elegibilidad
Descargue la aplicación Sora iOS (cuando esté disponible) o visite sora.com .
Inicie sesión con su cuenta OpenAI / ChatGPT .
Ingrese un código de invitación cuando se le solicite (más información a continuación).
Proporcione su fecha de nacimiento / autenticación para controles de seguridad.
2. Obtener un código de invitación
Los códigos de invitación son limitados, caducan rápidamente y son la puerta de entrada. Estos son los métodos que utilizan los usuarios:
Canal oficial de Discord “sora-2” : los usuarios verificados comparten códigos allí en tiempo real.
Redes sociales (Twitter / X) : Busca “código de invitación de Sora 2” y actúa rápidamente cuando aparezcan nuevos códigos.
De usuarios existentes : cada nuevo usuario puede obtener algunos códigos de referencia.
Solución alternativa de VPN + región : algunos usuarios informan que utilizan una IP de EE. UU. (a través de VPN) para engañar al sistema, pero esto puede violar los términos.
⚠️ Nota: Comprar códigos (en eBay, etc.) es riesgoso, a menudo infringe los términos y muchos códigos compartidos se vuelven inválidos en cuestión de minutos.
3. Cómo hacer tu primer vídeo (una vez dentro)
El Centro de ayuda de OpenAI describe el flujo:
Toque el botón “+”
Elija “describir una escena” o transformar una imagen
Proporcione detalles del mensaje: tema, movimiento, estilo de cámara, audio (diálogo, ambiente)
Revisar una vista previa, modificarla, remezclarla o publicarla
Utilice la función Cameo para insertarse (si está habilitada)
Puedes eliminar el uso de cameos o bloquear los remixes de otros.
Nota: la generación aún es limitada: escenas complejas, hablantes simultáneos o cortes rápidos de cámara pueden degradar la calidad.
Así que, incluso fuera de EE. UU., con paciencia y un código de invitación válido, puedes unirte a la frontera creativa . La aplicación puede detectar tu IP o región en ocasiones, así que siempre revisa los términos y ten cuidado.
Conectando las voces más destacadas sobre Sora 2
Profundicemos en lo que destaca cada uno de estos creadores de YouTube: los elogios, las advertencias y las conclusiones del mundo real.

Alex Volkov, de ThursdAI, presenta demostraciones prácticas, centrándose especialmente en la fidelidad visual (textura de la piel, iluminación, fondos) y la estabilidad del movimiento (cómo se mueven los sujetos en el espacio). Observa que, si bien muchas escenas son convincentes, las acciones rápidas o las interacciones grupales complejas aún presentan artefactos (por ejemplo, extremidades ligeramente deformadas o texturas parpadeantes). Hace hincapié en la ingeniería de señales: pequeños ajustes en frases pueden producir resultados sorprendentemente diferentes.
Thomas Lundström adopta una perspectiva técnica; le interesa especialmente si Sora 2 obedece a leyes físicas consistentes (p. ej., gravedad, colisiones de objetos). En su conjunto de pruebas (pelotas que rebotan, objetos que caen, movimiento de telas), descubre que muchos escenarios se comportan ahora de forma más natural que en los modelos de vídeo anteriores. Sin embargo, al combinar efectos secundarios (humo, viento, múltiples actores interactuando), el modelo a veces "hace trampa" (p. ej., fusión de objetos, artefactos visuales). Su comparación con Veo 3 también es reveladora: Sora 2 supera ligeramente en audio sincrónico, pero se queda atrás en complejidad extrema de escenas en algunas pruebas. 
Dan Kieft es una de las voces que explora trucos para acceder por invitación y el acceso anticipado desde fuera de EE. UU./Canadá. En el video, muestra paso a paso cómo (a) unirse a OpenAI Discord, (b) supervisar la sala de chat con códigos de invitación y (c) introducir los códigos en cuanto aparecen. También comparte sus primeros intentos de creación: se presentan en escenas surrealistas (por ejemplo, "en Marte", "ciudad submarina") y comentan sus limitaciones (por ejemplo, las diferencias faciales en la iluminación). Sus comentarios son especialmente útiles para usuarios no estadounidenses que intentan acceder sin autorización.

Desde la perspectiva de la creación y la monetización, vidIQ analiza cómo Sora 2 podría transformar la economía del vídeo. Se preguntan: ¿Canibalizarán los vídeos cortos con IA el contenido generado por humanos? ¿Pueden los creadores monetizar sus cameos o remixes? Su tono es cautelosamente optimista: Sora 2 es potente, pero el modelo de plataforma (feed, visibilidad, control de derechos) determinará si se convierte en una herramienta o en un competidor. También señalan que, a largo plazo, el reparto de ingresos o las licencias serán más importantes que la fidelidad pura.

Dan Dingle ofrece una narrativa de las "primeras 24 horas": lo que intentaron, lo que les sorprendió y lo que falló. Genera escenas cotidianas (una cafetería, un paseo bajo la lluvia, efectos de espejo con fallos) y destaca los puntos fuertes (el realismo del sonido ambiental, la coherencia de las expresiones faciales) y los fallos (el efecto fantasma ocasional, fallos en las transiciones, texturas extrañas en los elementos del fondo). Su estilo es realista: "Esto es lo que funciona ahora, no lo que prometen después".
En resumen
Características principales
- Audio y video totalmente sincronizados: voz, sonido ambiental, efectos, todo vinculado a las imágenes.
- Física y continuidad mejoradas: los objetos se mueven de forma más “natural”, las colisiones y las transiciones de movimiento presentan menos fallos.
- Cameos / Inserción de usuario: función opcional que le permite grabar su rostro y voz para insertarlos en escenas generadas.
- Cadenas de remixes/feedback estilo TikTok: desplázate, descubre, remixa y comparte clips dentro de la aplicación Sora.
- Procedencia y marca de agua de C2PA: los metadatos de etiquetado de origen de IA están integrados para ayudar a rastrear las fuentes de generación.
- Herramientas de seguridad y moderación: filtros de contenido, verificación de identidad, límites para menores, capacidades de exclusión de IP.
Limitaciones y problemas conocidos
- Inicialmente, solo por invitación en EE. UU. y Canadá (solo iOS).
- Uso gratuito con límites: OpenAI lo describe como “límites generosos”, con niveles pagos o acceso Pro para un mayor uso.
- Las escenas complejas siguen siendo un desafío: la cantidad de actores en movimiento, la superposición de efectos y la gran variación de profundidad causan artefactos. (Según lo observado por los creadores).
- Controversia sobre derechos de autor y propiedad intelectual: de manera predeterminada, se pueden usar personajes con derechos de autor a menos que opten por no hacerlo; OpenAI está revisando esta postura.
- El acceso global está restringido: para muchos usuarios no estadounidenses, es difícil conseguir códigos y administrar las restricciones regionales.
- Aún ocurren errores y artefactos: parpadeos, imágenes superpuestas y deformaciones de objetos se informan en casos extremos.
Modelo de precios y acceso
Nivel gratuito/Acceso anticipado: en el lanzamiento, Sora se puede usar de forma gratuita con “límites generosos” para los usuarios invitados.
Sora 2 Pro / Actualizaciones pagas: OpenAI planea una versión “Pro” de mayor calidad accesible para usuarios de ChatGPT Pro o mediante suscripción.
Acceso API: Eventualmente, Sora 2 estará disponible vía API para desarrolladores.
Monetización y licencias: OpenAI está desarrollando opciones de reparto de ingresos para los titulares de derechos y un control de propiedad intelectual más granular.
Perspectiva del equipo de FrozenLight
Sora 2 es una muestra deslumbrante de lo que sucede cuando la IA obtiene visión, sonido y dirección de escena a la vez. Es técnicamente impresionante —el "momento ChatGPT" para imágenes en movimiento—, pero también un recordatorio de que la potencia sin precisión puede descontrolarse rápidamente.
El informe de Business Insider sobre la retirada de OpenAI de los derechos de autor destaca un patrón recurrente en la era de la IA: primero la implementación, después la reparación. Al incluir el material protegido por derechos de autor en el entrenamiento y uso de Sora por defecto, OpenAI subestimó la importancia que los creadores le dan al consentimiento y al control. La decisión de la empresa de revertir el rumbo sugiere un creciente reconocimiento de que la innovación no puede depender de la propiedad prestada.
Además, los hallazgos de The Guardian sobre los vídeos violentos y racistas que circulan en las redes sociales de Sora apuntan a una brecha de moderación más profunda. Los filtros del modelo siguen siendo inconsistentes, especialmente cuando los matices importan: escenas de daño, imágenes culturales o sátira aún pueden filtrarse. A medida que Sora crece en las redes sociales, las consecuencias de esa ambigüedad se multiplican.
Estos problemas no disminuyen la brillantez técnica de Sora 2; definen el panorama en el que opera actualmente. La conversación sobre autoría, autenticidad y seguridad determinará si esta tecnología se convierte en un instrumento creativo o en un punto crítico regulatorio.
OpenAI se enfrenta a un difícil equilibrio: empoderar a millones de usuarios y proteger a la vez miles de millones de imágenes, sonidos e identidades. Lograr ese equilibrio exige transparencia, un cumplimiento real del consentimiento y un ecosistema que valore la responsabilidad tanto como el realismo.
Por ahora, Sora 2 se siente como un vistazo al futuro: cinematográfico, colaborativo y ligeramente explosivo. El reto no es crear mejores videos, sino asegurar que lo que generemos refleje no solo imaginación, sino integridad.