Desde el 24 de junio, miles de grupos de Facebook han desaparecido. Grupos de padres, páginas de mascotas, foros de videojuegos e incluso clubes de nombres para bebés... desaparecieron.

Los administradores se están dando cuenta de mensajes sobre “terrorismo”, “desnudez” o “violaciones a la comunidad”... ¿pero el contenido?
Totalmente normal.

¿Y entonces qué pasó?

Lo que dice Meta

Meta admitió que esto no fue un error del usuario: fue suyo.

Algunos grupos se eliminaron incorrectamente debido a un problema técnico. Estamos trabajando para restaurar los grupos afectados lo antes posible.
– Portavoz de Meta, vía TechCrunch

Esto parece ser otro fallo de moderación de la IA: grupos marcados falsamente y baneados a gran escala. Las comunidades afectadas van desde pequeños grupos vecinales hasta comunidades con cientos de miles de miembros.

Lo que eso significa (en palabras humanas)

Facebook usa inteligencia artificial para buscar infracciones y cometió un error.
Gravemente.

Es probable que el sistema confundiera la actividad normal del grupo con contenido que infringía las normas (o que se viera abrumado por informes masivos de bots). Una vez detectados, grupos enteros fueron desconectados.

¿Los administradores están intentando apelar?
A muchos se les negó el acceso de inmediato o se les bloqueó por completo.

Esto no fue un objetivo.
Fue sistémico.
Y por ahora, la solución de Meta parece ser: esperar y tener la esperanza de que se revierta.

Conectemos los puntos

Qué pasó

Lo que debes saber

Los cierres masivos de grupos comenzaron alrededor del 24 de junio

Afecta principalmente al sudeste asiático, América del Norte y comunidades de padres y jugadores.

Motivo de la eliminación: vago o falso (por ejemplo, terrorismo, desnudez)

No se basa en el contenido real del grupo

Meta dice que fue un error

Probablemente causado por la lógica de moderación de la IA o por informes falsos generados por bots.

Las apelaciones en su mayoría fracasan

Algunos administradores quedan bloqueados por completo después de apelar

Meta está trabajando en una solución

Pero no hay un cronograma confirmado para la recuperación completa.

¿Qué podría provocar que un sistema de moderación de IA genere un falso positivo?

Parece que todos estamos de acuerdo en que es un problema de IA, incluso Meta, así que la verdadera pregunta es:

¿Cuáles son las razones más comunes por las que un algoritmo marca algo incorrectamente?

1. Datos de entrenamiento erróneos

Si Meta entrenó su IA de moderación con ejemplos demasiado vagos o sesgados, el sistema comienza a reaccionar exageradamente.
Por ejemplo, podría aprender que las publicaciones con determinadas palabras clave o emojis siempre son peligrosas, incluso cuando no lo son.

Ejemplo: Alguien escribe “Vamos a arruinar esta fiesta 🎉” de forma divertida.
La IA ve la palabra “bomba” y activa una alerta terrorista.

2. Demasiada confianza en la comparación de patrones

La IA no entiende el significado: coincide con patrones.
Entonces, si una publicación parece estadísticamente similar a una prohibida (incluso si no lo es), el sistema podría marcarla.

Piénsalo así:
"Esta publicación es 87% similar a algo prohibido = debe ser mala".
No hay espacio para el contexto.

3. Ceguera contextual

La IA realmente no puede “leer la sala”.
Un comentario en un grupo puede ser inofensivo, pero en otro contexto puede ser marcado.
La mayoría de las IA de moderación no pueden notar la diferencia.

“Enviar desnudos” en un grupo de memes = broma.
“Enviar desnudos” en un grupo de niños = violación grave.
La IA ve lo mismo en ambos casos.

4. Denuncias masivas por parte de bots o trolls

A veces, usuarios maliciosos o redes de bots envían informes spam a un grupo.
Incluso si el contenido está limpio, suficientes informes pueden engañar a la IA y hacerle creer que existe una amenaza real.

La IA no está evaluando el contenido.
Está reaccionando a la cantidad de informes.

5. Acciones automáticas excesivamente confiadas

Algunas plataformas permiten que la IA actúe sin revisión humana, especialmente a gran escala.
Eso es más rápido… pero también significa que un error = todo el grupo es eliminado, sin preguntas.

Es probable que Meta esté usando la automatización para actuar antes de que los humanos revisen.

6. Reglas rotas o defectuosas

La moderación de IA funciona en base a reglas + conjeturas de aprendizaje automático.
Si una parte del sistema se actualiza incorrectamente (como una actualización de modelo o la implementación de un nuevo filtro), puede crear una ola de falsos positivos sin previo aviso.

Meta Política y Proceso de Restauración

El arduo trabajo de muchas personas se vio afectado, por lo que nos tomamos la libertad de investigar y encontrar todo lo que necesita saber sobre la política de Meta y la restauración del grupo:

Ventana de apelación

Los administradores tienen 30 días para apelar si Facebook desactiva un grupo por infringir las Normas de la Comunidad. Si se acepta la apelación, el grupo debería ser restaurado .

Restauraciones automáticas

  • Si Meta reconoce un error, su grupo será restaurado, a veces incluso sin necesidad de presentar una apelación facebook.com .

  • Ante esta reciente ola de suspensiones, muchos administradores informan que simplemente esperar en silencio (24 a 72 horas) suele desencadenar una restauración automática, especialmente si se reconoce como un error reddit.com .

⏱️ Tiempos de respuesta observados

  • La mayoría de los administradores informan la restauración dentro de las 24 a 72 horas posteriores a la eliminación, sin ninguna acción excepto esperar.

  • La confirmación formal de Meta puede llegar más tarde por correo electrónico o notificación en la aplicación.

Cuando no se restaura

Mejores pasos para los administradores afectados

  1. No haga nada durante 24 a 72 horas después de la suspensión: evite publicar o apelar inmediatamente.

  2. Si después de 3 días sigue sin poder acceder, envíe una apelación a través de la Ayuda de Facebook.

  3. Esté atento a sus notificaciones de correo electrónico y Facebook.

  4. Si el grupo desaparece de forma permanente, considere iniciar uno nuevo y migrar a los miembros.

En resumen

Si tu grupo desapareció, no estás solo... y probablemente no hiciste nada malo.

Esto es lo que debes hacer:

  • No se apresure a apelar: muchos informes dicen que eso empeora la situación.

  • Espere entre 24 y 72 horas mientras Meta soluciona el problema.

  • Mantenga a su comunidad actualizada en otras plataformas (WhatsApp, Instagram o incluso correo electrónico).

  • Si tu grupo regresa, toma capturas de pantalla del contenido importante.
    Nunca se sabe cuando podría desaparecer de nuevo.

Esto es lo que sucede cuando la moderación de la IA avanza más rápido que la lógica humana.

De los pensamientos a la indicación

La historia de Meta muestra lo que sucede cuando la IA toma decisiones sin el contexto ni la retroalimentación adecuados.
Pero no se trata solo de Meta. Se trata de cómo trabajamos con la IA a diario.

Para ayudarte a mejorar tus propios flujos de trabajo de IA, creamos un mensaje que puedes copiar y pegar en tu asistente.
Te dirá qué le falta para que puedas guiarlo mejor.




Perspectiva del equipo Frozen Light

Esta es una historia de entrenamiento, inteligencia artificial no supervisada y algún tipo de prueba beta en curso.

Si bien no podemos confirmar la segunda parte, no es algo inaudito: realizar pruebas en entornos en vivo es lo básico en SaaS.
Algunos proveedores tienen programas oficiales para ello. Otros no te lo dicen.
Pero el hecho de que esta cuestión parezca geográficamente limitada refuerza nuestra sospecha:
Este era un pequeño grupo de prueba… y salió mal.

En cuanto a la primera parte, no tenemos ninguna duda de que el llamado “bug” está relacionado con el entrenamiento.

Pone de relieve la tensión constante a la que nos enfrentamos todos:
No queremos dar información para ayudar a entrenar sistemas de IA -
Pero cuando la IA carece de un entrenamiento adecuado, obtenemos falsos positivos.

Así es como sucede:

  • La herramienta se vuelve demasiado sensible

  • La IA no entiende el contexto

  • Los malos actores engañan al sistema

  • Y no hay ningún humano que verifique el resultado.

En el caso de Meta, se ve así:

  • Una actualización de moderación

  • Posiblemente emparejado con informes masivos de bots

  • No hay capacidad real para separar la verdad del ruido

  • Y un sistema de eliminación automatizado sin filtro humano.

¿El resultado?
Grupos enteros fueron eliminados, sin ninguna violación real.
Y nadie allí para decir:

Espera, eso es un grupo de padres. No una célula terrorista.

Aquí es donde el impacto y la rendición de cuentas deben desempeñar un papel.

Comienza con:

  • Transparencia, para que la gente pueda confiar en el proceso

  • Un plan de conmutación por error adecuado: porque siempre necesitamos una forma de deshacer el daño

Esperamos que los usuarios recuperen sus grupos completos.
Pero si no, los proveedores deben comprender cuán profundo es el impacto.
y construir salvaguardas que respeten el tiempo y el esfuerzo de las personas.

La historia de Meta no es diferente de otros “errores” que hemos visto en IA.

Justo ayer escribimos sobre el lanzamiento de la versión 1 de Midjourney y la ola de frustración por problemas de derechos de autor.

En ese caso, la gente no perdió grupos, pero sí perdió tiempo intentando averiguar por qué el modelo se negaba a generar sus imágenes.

El mensaje que queremos dejaros es este:

Ya sea que lo llames entrenamiento o datos, importa.
Desde su proyecto de IA personal hasta los modelos de los proveedores más grandes: este es el núcleo de todo.

No sabemos cómo se desarrollará esto.
Hay fuerzas que tiran en direcciones opuestas:
No queremos dar datos.
La IA lo necesita.

Pero sí sabemos esto:
Todos queremos que la IA cumpla su propósito.
Lo cual significa que encontraremos una solución.
Y tiene que ser uno que funcione para todos.

Expert Voices

Galit Feige
Galit Feige

When Facebook Goes Dark: What’s Your Backup?

Share Article

Comments (1)

Sarit Lahav
Sarit Lahav
25 Jun. 2025

Unbelievable

wow!!!! Thousands of Facebook groups were shut down

Get stories direct to your inbox

We’ll never share your details. View our Privacy Policy for more info.