
Microsoft ha prohibido oficialmente a sus empleados utilizar la aplicación DeepSeek , un chatbot de inteligencia artificial desarrollado en China.
¿La razón?
No es el modelo en sí, sino la preocupación por lo que la aplicación podría decir y a dónde van los datos .
Microsoft advirtió sobre los siguientes riesgos:
La aplicación que produce contenido alineado con las narrativas estatales chinas
Posible enrutamiento de datos a servidores chinos
Falta de transparencia en torno a cómo se generan las respuestas
No se trata de quién lo hizo, se trata de cómo se comporta y quién lo controla .
🗣️ Lo que dice la empresa
El presidente de Microsoft, Brad Smith, explicó la prohibición durante una audiencia del Senado de Estados Unidos sobre IA y China.
Afirmó que:
“No permitimos que nuestros empleados utilicen la aplicación DeepSeek debido a preocupaciones relacionadas con la propaganda, el sesgo de contenido y la falta de control sobre cómo se procesa la información”.
Al mismo tiempo, Microsoft ofrece el modelo base de DeepSeek en Azure , pero sólo después de modificarlo para eliminar los “efectos secundarios dañinos”.
Entonces sí, la aplicación está prohibida.
¿Pero el modelo? Sigue vigente, porque Microsoft lo aloja y controla .
Este es un caso de:
El motor está bien. ¿El vehículo en el que venía? No es de confianza.
💬 Lo que eso significa (en palabras humanas)
Microsoft no tiene miedo de los modelos chinos.
Son cautelosos con las aplicaciones controladas por China .
No se trata de rendimiento.
Se trata de quién conduce el coche y a dónde envía el GPS los datos .
Entonces, si eres un empleado de Microsoft, no puedes usar DeepSeek.com.
Pero puedes utilizar una versión del modelo de DeepSeek, siempre que lo hagas a través de Azure, donde Microsoft controla el entorno.
Esa es la diferencia:
El acceso no es sinónimo de confianza. El control sí.
📊 Aclarando la confusión: qué está bloqueado y qué está permitido
Cosa | Estado de los empleados de Microsoft | Por qué |
---|---|---|
Aplicación DeepSeek (versión pública) | ❌ Prohibido | Control externo + preocupaciones sobre el contenido |
Modelo DeepSeek (en Azure) | ✅ Permitido (versión modificada) | Microsoft controla la salida + alojamiento |
Otros modelos de código abierto | ✅ Permitido (si cumple con la política) | Caso por caso, según el comportamiento |
En resumen
✅ Qué está permitido:
Los empleados de Microsoft pueden utilizar el modelo DeepSeek alojado en Azure , porque Microsoft controla el entorno y ha modificado el modelo.
🚫 Qué está prohibido:
La aplicación DeepSeek (versión pública) está estrictamente prohibida para el uso interno de los empleados.
❗¿Qué pasa si un empleado lo usa de todos modos?
Esto constituye una violación de la política y podría dar lugar a lo siguiente:
Investigación interna
Pérdida de acceso a los sistemas de la empresa
Acción disciplinaria formal (especialmente si hay datos laborales involucrados)
📌 ¿Qué pasa con los dispositivos personales?
Microsoft no ha confirmado públicamente las reglas de los dispositivos, pero en entornos empresariales cualquier dispositivo usado para trabajar (incluso el personal) suele estar cubierto por una política interna.
🧊 Perspectiva del equipo Frozen Light
No estamos diciendo que este tipo de prohibición no haya sucedido antes.
Lo ha hecho: desde TikTok hasta WhatsApp y Zoom.
Lo entendemos. Tiene sentido.
Pero estamos aquí para hacer nuestro trabajo.
Y nuestro trabajo es decir:
Oye, Microsoft, prohibiste la aplicación DeepSeek, ¿pero aún ofreces el modelo en Azure?
Si lo cambiaste, genial. Eso significa que sabes que algo necesitaba ser arreglado .
Lo que también significa... sabes cuál es el riesgo .
Así que aquí está la pregunta:
Si es demasiado arriesgado para tus empleados, ¿por qué sigue estando bien para el resto de nosotros?
No estamos pidiendo drama.
Pedimos claridad.
Porque cuando impides que tu equipo toque una herramienta, pero aun así vendes una versión de ella,
Esto no es sólo una llamada de seguridad.
Esto es un mensaje.
Y merece un poco más de explicación que:
—Está bien ahora. Confía en nosotros.
No necesitamos paranoia
Sólo necesitamos la misma transparencia que esperas de todos los demás.