Microsoft ha prohibido oficialmente a sus empleados utilizar la aplicación DeepSeek , un chatbot de inteligencia artificial desarrollado en China.

¿La razón?
No es el modelo en sí, sino la preocupación por lo que la aplicación podría decir y a dónde van los datos .

Microsoft advirtió sobre los siguientes riesgos:

  • La aplicación que produce contenido alineado con las narrativas estatales chinas

  • Posible enrutamiento de datos a servidores chinos

  • Falta de transparencia en torno a cómo se generan las respuestas

No se trata de quién lo hizo, se trata de cómo se comporta y quién lo controla .

🗣️ Lo que dice la empresa


El presidente de Microsoft, Brad Smith, explicó la prohibición durante una audiencia del Senado de Estados Unidos sobre IA y China.

Afirmó que:

“No permitimos que nuestros empleados utilicen la aplicación DeepSeek debido a preocupaciones relacionadas con la propaganda, el sesgo de contenido y la falta de control sobre cómo se procesa la información”.

Al mismo tiempo, Microsoft ofrece el modelo base de DeepSeek en Azure , pero sólo después de modificarlo para eliminar los “efectos secundarios dañinos”.

Entonces sí, la aplicación está prohibida.
¿Pero el modelo? Sigue vigente, porque Microsoft lo aloja y controla .

Este es un caso de:

El motor está bien. ¿El vehículo en el que venía? No es de confianza.

💬 Lo que eso significa (en palabras humanas)


Microsoft no tiene miedo de los modelos chinos.
Son cautelosos con las aplicaciones controladas por China .

No se trata de rendimiento.
Se trata de quién conduce el coche y a dónde envía el GPS los datos .

Entonces, si eres un empleado de Microsoft, no puedes usar DeepSeek.com.
Pero puedes utilizar una versión del modelo de DeepSeek, siempre que lo hagas a través de Azure, donde Microsoft controla el entorno.

Esa es la diferencia:
El acceso no es sinónimo de confianza. El control sí.

📊 Aclarando la confusión: qué está bloqueado y qué está permitido

Cosa Estado de los empleados de Microsoft Por qué
Aplicación DeepSeek (versión pública) ❌ Prohibido Control externo + preocupaciones sobre el contenido
Modelo DeepSeek (en Azure) ✅ Permitido (versión modificada) Microsoft controla la salida + alojamiento
Otros modelos de código abierto ✅ Permitido (si cumple con la política) Caso por caso, según el comportamiento

En resumen

✅ Qué está permitido:
Los empleados de Microsoft pueden utilizar el modelo DeepSeek alojado en Azure , porque Microsoft controla el entorno y ha modificado el modelo.

🚫 Qué está prohibido:
La aplicación DeepSeek (versión pública) está estrictamente prohibida para el uso interno de los empleados.

❗¿Qué pasa si un empleado lo usa de todos modos?
Esto constituye una violación de la política y podría dar lugar a lo siguiente:

  • Investigación interna

  • Pérdida de acceso a los sistemas de la empresa

  • Acción disciplinaria formal (especialmente si hay datos laborales involucrados)

📌 ¿Qué pasa con los dispositivos personales?
Microsoft no ha confirmado públicamente las reglas de los dispositivos, pero en entornos empresariales cualquier dispositivo usado para trabajar (incluso el personal) suele estar cubierto por una política interna.

🔗 Más información.

🧊 Perspectiva del equipo Frozen Light


No estamos diciendo que este tipo de prohibición no haya sucedido antes.
Lo ha hecho: desde TikTok hasta WhatsApp y Zoom.
Lo entendemos. Tiene sentido.

Pero estamos aquí para hacer nuestro trabajo.
Y nuestro trabajo es decir:
Oye, Microsoft, prohibiste la aplicación DeepSeek, ¿pero aún ofreces el modelo en Azure?

Si lo cambiaste, genial. Eso significa que sabes que algo necesitaba ser arreglado .
Lo que también significa... sabes cuál es el riesgo .

Así que aquí está la pregunta:

Si es demasiado arriesgado para tus empleados, ¿por qué sigue estando bien para el resto de nosotros?

No estamos pidiendo drama.
Pedimos claridad.

Porque cuando impides que tu equipo toque una herramienta, pero aun así vendes una versión de ella,
Esto no es sólo una llamada de seguridad.

Esto es un mensaje.
Y merece un poco más de explicación que:

—Está bien ahora. Confía en nosotros.

No necesitamos paranoia
Sólo necesitamos la misma transparencia que esperas de todos los demás.

Share Article

Get stories direct to your inbox

We’ll never share your details. View our Privacy Policy for more info.