
Microsoft a officiellement interdit à ses employés d'utiliser l'application DeepSeek , un chatbot IA développé en Chine.
La raison ?
Ce n’est pas le modèle lui-même qui est en cause, mais les préoccupations concernant ce que l’application pourrait dire et où vont les données .
Microsoft a signalé des risques autour de :
L'application produit du contenu aligné sur les récits de l'État chinois
Routage potentiel des données vers les serveurs chinois
Manque de transparence sur la manière dont les réponses sont générées
Il ne s’agit pas de savoir qui l’a créé, mais de savoir comment il se comporte et qui le contrôle .
🗣️ Ce que dit l'entreprise
Le président de Microsoft, Brad Smith, a expliqué l'interdiction lors d'une audition au Sénat américain sur l'IA et la Chine.
Il a déclaré que :
« Nous n'autorisons pas nos employés à utiliser l'application DeepSeek en raison de préoccupations concernant la propagande, la partialité du contenu et le manque de contrôle sur la manière dont les informations sont traitées. »
Dans le même temps, Microsoft propose le modèle de base de DeepSeek sur Azure , mais seulement après l’avoir modifié pour supprimer les « effets secondaires néfastes ».
Donc oui, l’application est interdite.
Mais le modèle ? Toujours utilisé, car Microsoft l'héberge et le contrôle .
Il s'agit d'un cas de :
Le moteur est en bon état. Le véhicule dans lequel il est livré n'est pas fiable.
đź’¬ Ce que cela signifie (en termes humains)
Microsoft n’a pas peur des modèles chinois.
Ils sont prudents à l’égard des applications contrôlées par les Chinois .
Ce n’est pas une question de performance.
Il s’agit de savoir qui conduit la voiture et où le GPS envoie les données .
Donc, si vous êtes un employé de Microsoft, vous ne pouvez pas utiliser DeepSeek.com.
Mais vous pouvez utiliser une version du modèle de DeepSeek, à condition de le faire via Azure, où Microsoft contrôle l'environnement.
C'est la différence :
L'accès n'est pas synonyme de confiance. Le contrôle, oui.
📊 Clarifier la confusion : ce qui est bloqué, ce qui est autorisé
Chose | Statut des employés de Microsoft | Pourquoi |
---|---|---|
Application DeepSeek (version publique) | ❌ Interdit | Contrôle externe + préoccupations liées au contenu |
Modèle DeepSeek (sur Azure) | ✅ Autorisé (version modifiée) | Microsoft contrôle la sortie et l'hébergement |
Autres modèles open source | ✅ Autorisé (si conforme à la politique) | Au cas par cas, en fonction du comportement |
🔚 En résumé
✅ Ce qui est autorisé :
Les employés de Microsoft peuvent utiliser le modèle DeepSeek hébergé sur Azure , car Microsoft contrôle l’environnement et a modifié le modèle.
đźš« Ce qui est interdit :
L' application DeepSeek (version publique) est strictement interdite à l'usage interne des employés.
❗Que se passe-t-il si un employé l’utilise quand même ?
Il s'agit d'une violation de la politique et cela pourrait entraîner :
EnquĂŞte interne
Perte d'accès aux systèmes de l'entreprise
Mesures disciplinaires formelles (en particulier si des données de travail sont impliquées)
📌 Qu'en est-il des appareils personnels ?
Microsoft n'a pas confirmé publiquement les règles relatives aux appareils, mais dans les environnements d'entreprise, tout appareil utilisé pour le travail (même personnel) est généralement couvert par la politique interne.
🧊 Point de vue de l'équipe Frozen Light
Nous ne disons pas que ce type d’interdiction n’a jamais eu lieu auparavant.
Cela va de TikTok Ă WhatsApp en passant par Zoom.
On comprend. C'est logique.
Mais nous sommes ici pour faire notre travail.
Et notre travail est de dire :
Hé, Microsoft, vous avez interdit l’application DeepSeek, mais vous proposez toujours le modèle sur Azure ?
Si vous l'avez changé, c'est cool, cela signifie que vous savez que quelque chose devait être réparé .
Ce qui veut aussi dire... que vous savez quel est le risque .
Alors voici la question :
Si c'est trop risqué pour vos employés, pourquoi est-ce toujours acceptable pour le reste d'entre nous ?
Nous ne demandons pas de drame.
Nous demandons des éclaircissements.
Parce que lorsque vous empêchez votre équipe de toucher à un outil, mais que vous en vendez quand même une version —
ce n’est pas seulement un appel de sécurité.
C'est un message.
Et cela mérite un peu plus d'explications que :
« Tout va bien maintenant. Fais-nous confiance. »
Nous n’avons pas besoin de paranoïa.
Nous avons simplement besoin de la mĂŞme transparence que vous attendez de tout le monde.