منذ ٢٤ يونيو، اختفت آلاف المجموعات على فيسبوك. اختفت مجموعات الأبوة والأمومة، وصفحات الحيوانات الأليفة، ومنتديات الألعاب، وحتى نوادي تسمية الأطفال.

يستيقظ المشرفون على رسائل حول "الإرهاب" أو "العري" أو "انتهاكات المجتمع"... ولكن ماذا عن المحتوى؟
طبيعي تماما.

فماذا حدث؟

ما يقوله ميتا

اعترفت شركة Meta بأن هذا لم يكن خطأ المستخدم - بل كان خطأهم.

تمت إزالة بعض المجموعات بشكل غير صحيح بسبب مشكلة فنية. نعمل على استعادة المجموعات المتضررة في أسرع وقت ممكن.
– المتحدث باسم Meta، عبر TechCrunch

يبدو هذا فشلاً آخر في إدارة الذكاء الاصطناعي - مجموعات تم الإبلاغ عنها خطأً وحظرها على نطاق واسع. تتراوح المجتمعات المتضررة من مجموعات أحياء صغيرة إلى مجتمعات تضم مئات الآلاف من الأعضاء.

ماذا يعني ذلك (بالكلمات البشرية)

يستخدم فيسبوك الذكاء الاصطناعي للبحث عن الانتهاكات - وقد أخطأ.
سيئة للغاية.

من المرجح أن النظام خلط بين نشاط المجموعة الاعتيادي والمحتوى المخالف للقواعد (أو غمرته البلاغات الجماعية من الروبوتات). بمجرد الإبلاغ عن أي نشاط، تُغلق المجموعات بأكملها.

هل يحاول المسؤولون الاستئناف؟
تم رفض العديد منهم على الفور أو إغلاقهم بالكامل.

لم يكن هذا مستهدفا.
لقد كان منهجيا.
وفي الوقت الحالي، يبدو أن حل Meta هو: الانتظار والأمل في عودة الأمور إلى طبيعتها.

دعونا نربط النقاط

ماذا حدث

ما يجب أن تعرفه

بدأت عمليات الإغلاق الجماعي في حوالي 24 يونيو

يؤثر بشكل رئيسي على جنوب شرق آسيا وأمريكا الشمالية ومجتمعات الآباء/الألعاب

سبب الإزالة: غامض أو كاذب (على سبيل المثال، الإرهاب، العري)

لا يعتمد على محتوى المجموعة الفعلي

تقول ميتا أنه كان خطأ

من المحتمل أن يكون السبب هو منطق تعديل الذكاء الاصطناعي أو التقارير الكاذبة التي يقودها الروبوت

الطعون تفشل في الغالب

يتم إغلاق بعض المسؤولين بشكل كامل بعد الاستئناف

ميتا تعمل على إصلاح

ولكن لا يوجد جدول زمني مؤكد للتعافي الكامل

ما الذي قد يتسبب في قيام نظام تعديل الذكاء الاصطناعي بإعطاء نتيجة إيجابية خاطئة؟

يبدو أننا جميعًا نتفق على أن هذه مشكلة تتعلق بالذكاء الاصطناعي، حتى Meta، لذا فإن السؤال الحقيقي هو:

ما هي الأسباب الأكثر شيوعًا لقيام الخوارزمية بتمييز شيء ما بشكل خاطئ؟

1. بيانات التدريب السيئة

إذا قام Meta بتدريب الذكاء الاصطناعي الخاص به على أمثلة غامضة للغاية أو متحيزة، يبدأ النظام في المبالغة في رد الفعل.
على سبيل المثال، قد يتعلم أن المنشورات التي تحتوي على كلمات رئيسية أو رموز تعبيرية معينة تكون دائمًا خطيرة - حتى عندما لا تكون كذلك.

مثال: يكتب شخص ما "دعنا نفجر هذا الحفل 🎉" بطريقة ممتعة.
يرى الذكاء الاصطناعي كلمة "قنبلة" ويطلق تنبيهًا بالإرهاب.

2. الثقة المفرطة في مطابقة الأنماط

الذكاء الاصطناعي لا يفهم المعنى - فهو يطابق الأنماط.
لذا، إذا كانت إحدى المنشورات تبدو مشابهة إحصائيًا لمنشور محظور (حتى لو لم تكن كذلك)، فقد يقوم النظام بتمييزها.

فكر في الأمر على هذا النحو:
"هذه التدوينة تشبه إلى حد كبير شيئًا محظورًا بنسبة 87% = لا بد أن تكون سيئة."
لا مجال للسياق.

3. عمى السياق

الذكاء الاصطناعي لا يستطيع حقًا "قراءة الغرفة".
قد يكون التعليق في مجموعة ما غير ضار - ولكن في مجموعة أخرى، قد يتم الإبلاغ عنه.
معظم الذكاء الاصطناعي لا يستطيع التمييز بين الاثنين.

"إرسال صور عارية" في مجموعة ميم = نكتة.
"إرسال صور عارية" في مجموعة الأطفال = انتهاك كبير.
الذكاء الاصطناعي يرى كلا الأمرين بنفس الطريقة.

4. الإبلاغ الجماعي بواسطة الروبوتات أو المتصيدين

في بعض الأحيان، يقوم المستخدمون الضارون أو شبكات الروبوتات بالإبلاغ عن مجموعة من الرسائل غير المرغوب فيها.
حتى لو كان المحتوى نظيفًا، فإن عددًا كافيًا من التقارير قد يخدع الذكاء الاصطناعي ويجعله يعتقد أن هناك تهديدًا حقيقيًا.

الذكاء الاصطناعي لا يقوم بتقييم المحتوى.
إنه رد فعل على عدد التقارير.

5. الإجراءات التلقائية المفرطة الثقة

تسمح بعض المنصات للذكاء الاصطناعي بالعمل دون مراجعة بشرية - خاصة على نطاق واسع.
هذا أسرع... ولكن هذا يعني أيضًا أن خطأ واحدًا = إزالة المجموعة بأكملها، دون طرح أي أسئلة.

من المحتمل أن تستخدم Meta الأتمتة للتصرف قبل المراجعة البشرية.

6. القواعد المكسورة أو الخاطئة

تعتمد عملية تعديل الذكاء الاصطناعي على القواعد + تخمينات التعلم الآلي.
إذا تم تحديث جزء واحد من النظام بشكل غير صحيح (مثل ترقية النموذج أو طرح مرشح جديد)، فقد يؤدي ذلك إلى إنشاء موجة من الإيجابيات الخاطئة دون سابق إنذار.

سياسة ميتا وعملية الاستعادة

لقد تأثر العمل الجاد الذي قام به الكثير من الأشخاص - لذلك أخذنا على عاتقنا مهمة البحث والعثور على كل ما تحتاج إلى معرفته حول سياسة Meta واستعادة المجموعة:

نافذة الاستئناف

لدى المسؤولين 30 يومًا للاستئناف في حال تعطيل فيسبوك لمجموعة لمخالفتها معايير المجتمع. في حال قبول استئنافك، ستُعاد المجموعة إلى حالتها الأصلية . transparent.meta.com+12facebook.com+12facebook.com+12 .

الاستعادة التلقائية

  • إذا اعترفت Meta بخطأ ما، فسيتم استعادة مجموعتك، وفي بعض الأحيان حتى بدون استئناف facebook.com .

  • بالنسبة لهذه الموجة الأخيرة من عمليات التعليق، أفاد العديد من المسؤولين أن مجرد الانتظار بهدوء (24–72 ساعة) غالبًا ما يؤدي إلى استعادة ذاتية، خاصةً إذا تم التعرف عليه باعتباره خطأ reddit.com .

⏱️ أوقات الاستجابة المرصودة

  • يقوم معظم المسؤولين بالإبلاغ عن الاستعادة خلال 24 إلى 72 ساعة بعد الإزالة - دون أي إجراء باستثناء الانتظار.

  • قد يصل التأكيد الرسمي من Meta لاحقًا عبر البريد الإلكتروني أو الإشعار داخل التطبيق.

عندما لا يتم الاستعادة

أفضل الخطوات للمسؤولين المتأثرين

  1. لا تفعل شيئًا لمدة تتراوح من 24 إلى 72 ساعة بعد الإيقاف - تجنب النشر أو الاستئناف على الفور.

  2. إذا لم تتمكن من الوصول بعد مرور 3 أيام، يمكنك تقديم طلب استئناف عبر مساعدة Facebook.

  3. راقب إشعارات البريد الإلكتروني والفيسبوك.

  4. إذا اختفت المجموعة بشكل دائم، ففكر في إنشاء مجموعة جديدة ونقل الأعضاء.

خلاصة القول

إذا اختفت مجموعتك، فأنت لست وحدك - وربما لم تفعل أي شيء خاطئ.

إليك ما يجب عليك فعله:

  • لا تتسرع في تقديم الاستئناف، إذ تشير العديد من التقارير إلى أن ذلك يجعل الأمر أسوأ.

  • انتظر لمدة تتراوح من 24 إلى 72 ساعة بينما يقوم Meta بحل المشكلة.

  • حافظ على تحديث مجتمعك على منصات أخرى (WhatsApp أو Instagram أو حتى البريد الإلكتروني).

  • إذا عادت مجموعتك، التقط لقطات شاشة للمحتوى المهم.
    لا تعرف أبدًا متى قد يختفي مرة أخرى.

هذا ما يحدث عندما تتحرك تعديلات الذكاء الاصطناعي بشكل أسرع من المنطق البشري.

من الأفكار إلى المطالبات

تُظهر قصة Meta ما يحدث عندما تتخذ الذكاء الاصطناعي قرارات دون السياق أو التعليقات الصحيحة.
لكن الأمر لا يقتصر على ميتا فحسب، بل يتعلق بكيفية تعاملنا مع الذكاء الاصطناعي يوميًا.

لمساعدتك على تحسين سير عمل الذكاء الاصطناعي الخاص بك، قمنا بإنشاء موجه يمكنك نسخه ولصقه في مساعدك.
سيخبرك بما ينقصه - حتى تتمكن من توجيهه بشكل أفضل.




منظور فريق الضوء المتجمد

هذه قصة تدريب وذكاء اصطناعي غير خاضع للإشراف ونوع من اختبارات الإصدار التجريبي.

في حين أننا لا نستطيع تأكيد الجزء الثاني، فهو ليس بالأمر غير المألوف - فالاختبار في البيئات الحية هو أساسيات SaaS.
بعض البائعين لديهم برامج رسمية لذلك، والبعض الآخر لا يخبرك بذلك إطلاقًا.
لكن حقيقة أن هذه القضية تبدو محدودة جغرافيا تدعم شكوكنا:
كانت هذه مجموعة اختبار صغيرة... وحدث خطأ ما.

وعندما يتعلق الأمر بالجزء الأول، فليس لدينا شك في أن ما يسمى بـ "الخطأ" مرتبط بالتدريب.

ويسلط الضوء على التوتر المستمر الذي نواجهه جميعًا:
نحن لا نريد تقديم معلومات للمساعدة في تدريب أنظمة الذكاء الاصطناعي -
ولكن عندما يفتقر الذكاء الاصطناعي إلى التدريب المناسب، نحصل على نتائج إيجابية خاطئة.

وهنا كيف يحدث ذلك:

  • تصبح الأداة حساسة للغاية

  • الذكاء الاصطناعي لا يفهم السياق

  • الجهات السيئة تخدع النظام

  • ولا يوجد إنسان يتحقق من النتيجة

في حالة ميتا، يبدو الأمر كما يلي:

  • تحديث الاعتدال

  • ربما يقترن بتقارير الروبوت الجماعية

  • لا توجد قدرة حقيقية على فصل الحقيقة عن الضوضاء

  • ونظام إزالة آلي بدون فلتر بشري

النتيجة؟
تم مسح المجموعات بأكملها - دون أي انتهاكات حقيقية.
وليس هناك من يقول:

"انتظر، هذه مجموعة أبوية. ليست خلية إرهابية."

وهنا يأتي دور التأثير والمساءلة.

يبدأ بـ:

  • الشفافية، حتى يتمكن الناس من الثقة في العملية

  • خطة التعافي من الفشل المناسبة - لأننا نحتاج دائمًا إلى طريقة للتراجع عن الضرر

نأمل أن يتمكن المستخدمون من استعادة مجموعاتهم بالكامل.
ولكن إذا لم يكن الأمر كذلك، فيتعين على البائعين أن يفهموا مدى عمق التأثير -
وبناء الضمانات التي تحترم وقت الناس وجهودهم.

قصة ميتا لا تختلف عن "الأخطاء" الأخرى التي رأيناها في الذكاء الاصطناعي.

بالأمس فقط، كتبنا عن إصدار Midjourney V1 وموجة الإحباط بسبب مشكلات حقوق النشر.

في هذه الحالة، لم يفقد الأشخاص مجموعاتهم - ولكنهم فقدوا الوقت أثناء محاولتهم معرفة سبب رفض النموذج إنشاء صورهم.

الرسالة التي نريد أن نتركها لكم هي:

سواء كنت تسميها تدريبًا أو بيانات، فإن الأمر مهم.
من مشروع الذكاء الاصطناعي الشخصي الخاص بك إلى نماذج البائعين الأكبر - هذا هو جوهر كل شيء.

نحن لا نعلم كيف ستسير الأمور.
هناك قوى تسحب في اتجاهين متعاكسين:
نحن لا نريد أن نعطي بيانات.
الذكاء الاصطناعي يحتاج إليها.

ولكننا نعلم هذا:
نحن جميعا نريد أن يخدم الذكاء الاصطناعي غرضه.
وهذا يعني أننا سوف نجد حلاً.
ويجب أن يكون الحل مناسبًا للجميع.

Expert Voices

Galit Feige
Galit Feige

When Facebook Goes Dark: What’s Your Backup?

Share Article

Comments (1)

Sarit Lahav
Sarit Lahav
25 Jun. 2025

Unbelievable

wow!!!! Thousands of Facebook groups were shut down

Get stories direct to your inbox

We’ll never share your details. View our Privacy Policy for more info.