Depuis le 24 juin, des milliers de groupes Facebook ont disparu. Groupes de parents, pages d'animaux, forums de jeux, et même clubs de prénoms pour bébés.
Les administrateurs se réveillent avec des messages sur le « terrorisme », la « nudité » ou les « violations de la communauté »... mais le contenu ?
Tout Ă fait normal.
Alors que s'est-il passé ?
Ce que dit Meta
Meta a admis que ce n'était pas une erreur de l'utilisateur, mais la sienne.
Certains groupes ont été supprimés par erreur en raison d'un problème technique. Nous travaillons à rétablir les groupes concernés au plus vite.
– Porte-parole de Meta, via TechCrunch
Il s'agit d'un autre échec de modération de l'IA : des groupes faussement signalés et bannis à grande échelle. Les communautés concernées vont de petits groupes de quartier à des communautés comptant des centaines de milliers de membres.
Ce que cela signifie (en termes humains)
Facebook utilise l'IA pour détecter les violations - et cela a mal tourné.
Gravement.
Le système a probablement confondu l'activité normale du groupe avec du contenu enfreignant les règles (ou a été submergé par des signalements massifs de robots). Une fois signalés, des groupes entiers ont été mis hors ligne.
Les administrateurs tentent de faire appel ?
Beaucoup d’entre eux se sont vu refuser l’accès immédiatement ou ont été complètement exclus.
Ce n’était pas ciblé.
C'était systémique.
Et pour l’instant, la solution de Meta semble être : attendre et espérer que cela revienne.
Relions les points
Ce qui s'est passé | Ce que vous devez savoir |
Les fermetures massives des groupes ont commencé vers le 24 juin | Il touche principalement l'Asie du Sud-Est, l'Amérique du Nord et les communautés de parents et de joueurs. |
Motif de la suppression : vague ou faux (par exemple, terrorisme, nudité) | Non basé sur le contenu réel du groupe |
Meta dit que c'était un bug | Probablement causé par une logique de modération de l'IA ou par de faux rapports générés par des robots |
Les appels échouent pour la plupart | Certains administrateurs sont complètement bloqués après avoir fait appel |
Meta travaille sur un correctif | Mais aucun calendrier confirmé pour un rétablissement complet |
Qu’est-ce qui pourrait amener un système de modération IA à générer un faux positif ?
Il semble que nous soyons tous d'accord sur le fait qu'il s'agit d'un problème d'IA, même Meta, donc la vraie question est :
Quelles sont les raisons les plus courantes pour lesquelles un algorithme signale quelque chose à tort ?
1. Mauvaises données d'entraînement
Si Meta entraîne son IA de modération sur des exemples trop vagues ou biaisés, le système commence à réagir de manière excessive.
Par exemple, il pourrait apprendre que les publications contenant certains mots-clés ou émojis sont toujours dangereuses, même lorsqu'elles ne le sont pas.
Exemple : Quelqu'un écrit « Bombardons cette fête 🎉 » de manière amusante.
L’IA voit le mot « bombe » et déclenche une alerte terroriste.
2. Trop de confiance dans la correspondance des modèles
L’IA ne comprend pas le sens : elle fait correspondre des modèles.
Ainsi, si une publication ressemble statistiquement à une publication interdite (même si ce n'est pas le cas), le système peut la signaler.
Pensez-y comme ceci :
« Ce message est similaire à 87 % à quelque chose d'interdit = doit être mauvais. »
Pas de place pour le contexte.
3. Cécité contextuelle
L’IA ne peut pas vraiment « lire la pièce ».
Un commentaire dans un groupe peut être inoffensif, mais dans un autre contexte, il peut être signalé.
La plupart des IA de modération ne peuvent pas faire la différence.
« Envoyer des nus » dans un groupe de mèmes = blague.
« Envoyer des nus » dans un groupe d’enfants = violation majeure.
L’IA voit les deux de la même manière.
4. Signalements de masse par des robots ou des trolls
Parfois, des utilisateurs malveillants ou des réseaux de robots signalent un groupe en spam.
Même si le contenu est propre, un nombre suffisant de rapports peut tromper l'IA en lui faisant croire qu'il existe une menace réelle.
L'IA n'évalue pas le contenu.
Il réagit au nombre de signalements.
5. Actions automatiques trop confiantes
Certaines plateformes permettent à l’IA d’agir sans contrôle humain, en particulier à grande échelle.
C'est plus rapide… mais cela signifie également qu'une erreur = tout le groupe est supprimé, sans poser de questions.
Meta utilise probablement l'automatisation pour agir avant que les humains ne l'examinent.
6. Règles enfreintes ou erronées
La modération de l'IA fonctionne sur la base de règles et de suppositions d'apprentissage automatique.
Si une partie du système est mise à jour de manière incorrecte (comme une mise à niveau de modèle ou le déploiement d'un nouveau filtre), cela peut créer une vague de faux positifs sans avertissement.
Politique méta et processus de restauration
Le travail acharné de nombreuses personnes a été mis à mal. Nous avons donc pris la liberté de creuser et de trouver tout ce que vous devez savoir sur la politique de Meta et la restauration du groupe :
FenĂŞtre d'appel
Les administrateurs disposent de 30 jours pour faire appel si Facebook désactive un groupe pour violation des standards de la communauté. Si votre appel est accepté, le groupe devrait être rétabli : transparency.meta.com+12facebook.com+12facebook.com+12 .
Restaurations automatiques
Si Meta reconnaît une erreur, votre groupe sera restauré, parfois même sans appel facebook.com .
Pour cette récente vague de suspensions, de nombreux administrateurs signalent que le simple fait d'attendre tranquillement (24 à 72 heures) déclenche souvent une auto-restauration, surtout si elle est reconnue comme un bug reddit.com .
⏱️ Temps de réponse observés
La plupart des administrateurs signalent une restauration dans les 24 Ă 72 heures suivant la suppression, sans aucune action autre que l'attente.
Une confirmation formelle de Meta peut arriver plus tard par e-mail ou par notification dans l'application.
Quand ça ne restaure pas
Si une violation est jugée valide, votre appel peut être refusé et la restauration n'aura pas lieu facebook.com+5facebook.com+5reddit.com+5 facebook.com+2facebook.com+2reddit.com+2 .
Si le groupe a été réellement supprimé (au lieu d'être suspendu), vous ne pourrez peut-être pas le récupérer et devrez peut-être en créer un nouveau facebook.com+8webapps.stackexchange.com+8reddit.com+8 .
Meilleures mesures à prendre pour les administrateurs concernés
Ne faites rien pendant 24 à 72 heures après la suspension - évitez de publier ou de faire appel immédiatement.
Si le problème persiste après 3 jours, soumettez un appel via l'aide Facebook.
Gardez un œil sur vos notifications par e-mail et Facebook.
Si le groupe disparaît définitivement, envisagez d'en créer un nouveau et de migrer les membres.
En résumé
Si votre groupe a disparu, vous n’êtes pas seul et vous n’avez probablement rien fait de mal.
Voici ce qu'il faut faire :
Ne vous précipitez pas pour faire appel : de nombreux rapports indiquent que cela aggrave la situation.
Attendez 24 Ă 72 heures pendant que Meta trie le correctif.
Tenez votre communauté informée sur d’autres plateformes (WhatsApp, Instagram ou même par e-mail).
Si votre groupe revient, prenez des captures d’écran du contenu important.
On ne sait jamais quand il pourrait disparaître à nouveau.
Voilà ce qui se passe lorsque la modération de l’IA est plus rapide que la logique humaine.
Des pensées à l'invite
L’histoire de Meta montre ce qui se passe lorsque l’IA prend des décisions sans le bon contexte ou le bon retour d’information.
Mais il ne s'agit pas seulement de méta. Il s'agit de la façon dont nous travaillons avec l'IA au quotidien.
Pour vous aider à améliorer vos propres flux de travail d’IA, nous avons créé une invite que vous pouvez copier et coller dans votre assistant.
Il vous dira ce qui lui manque - afin que vous puissiez mieux le guider.
Point de vue de l'équipe Frozen Light
Il s’agit d’une histoire de formation, d’IA non supervisée et d’une sorte de test bêta en cours.
Bien que nous ne puissions pas confirmer la deuxième partie, ce n'est pas du jamais vu : tester dans des environnements réels est le SaaS 101.
Certains fournisseurs proposent des programmes officiels. D'autres ne vous le disent pas du tout.
Mais le fait que ce problème semble géographiquement limité renforce notre suspicion :
Il s’agissait d’un petit groupe de test… et cela a mal tourné.
En ce qui concerne la première partie, nous n’avons aucun doute que le soi-disant « bug » est lié à la formation.
Cela met en évidence la tension permanente à laquelle nous sommes tous confrontés :
Nous ne voulons pas donner d'informations pour aider à former des systèmes d'IA -
mais lorsque l’IA manque de formation adéquate, nous obtenons de faux positifs.
Voici comment cela se passe :
L'outil devient trop sensible
L'IA ne comprend pas le contexte
Les mauvais acteurs trompent le système
Et il n'y a aucun humain qui vérifie le résultat
Dans le cas de Meta, cela ressemble Ă :
Une mise à jour de modération
Peut-être associé à des rapports de robots de masse
Aucune réelle capacité à séparer la vérité du bruit
Et un système d'élimination automatisé sans filtre humain
Le résultat ?
Des groupes entiers ont été effacés, sans aucune violation réelle.
Et personne n'est lĂ pour dire :
« Attends, c'est un groupe de parents. Pas une cellule terroriste. »
C’est là que l’impact et la responsabilité doivent jouer un rôle.
Cela commence par :
Transparence, pour que les gens puissent faire confiance au processus
Un plan de basculement approprié - parce que nous avons toujours besoin d'un moyen de réparer les dommages
Nous espérons que les utilisateurs pourront récupérer l'intégralité de leurs groupes.
Mais si ce n’est pas le cas, les fournisseurs devraient comprendre à quel point l’impact est profond.
et mettre en place des mesures de protection qui respectent le temps et les efforts des personnes.
L’histoire de Meta n’est pas différente des autres « bugs » que nous avons vus dans l’IA.
Hier encore, nous avons écrit sur la sortie de la V1 de Midjourney et sur la vague de frustration suscitée par les problèmes de droits d'auteur.
Dans ce cas, les gens n'ont pas perdu de groupes, mais ils ont perdu du temps à essayer de comprendre pourquoi le modèle refusait de générer leurs images.
Le message que nous souhaitons vous laisser est le suivant :
Que vous l’appeliez formation ou données, cela compte.
De votre projet d’IA personnel aux plus grands modèles de fournisseurs, c’est le cœur de tout.
Nous ne savons pas comment cela va se passer.
Il y a des forces qui tirent dans des directions opposées :
Nous ne voulons pas donner de données.
L’IA en a besoin.
Mais nous savons ceci :
Nous voulons tous que l’IA remplisse sa fonction.
Ce qui veut dire que nous trouverons une solution.
Et il faut que ce soit une solution qui fonctionne pour tout le monde.