מאז ה-24 ביוני, אלפי קבוצות פייסבוק נעלמו. קבוצות הורות, דפי חיות מחמד, פורומים של משחקים, אפילו מועדוני מתן שמות לתינוקות - נעלמו.
מנהלים מתחילים להתעורר להודעות על "טרור", "עירום" או "הפרות קהילה"... אבל התוכן?
נורמלי לחלוטין.
אז מה קרה?
מה מטא אומרת
מטא הודתה שזו לא הייתה טעות של המשתמש - זו הייתה שלהם.
"חלק מהקבוצות הוסרו בטעות עקב בעיה טכנית. אנו פועלים לשחזר את הקבוצות שנפגעו במהירות האפשרית."
– דובר מטא, דרך TechCrunch
זה נראה כמו עוד כישלון ניהול של בינה מלאכותית - קבוצות סומנו כוזב ונחסמו בקנה מידה גדול. הקהילות שנפגעו נעות בין קבוצות שכונתיות קטנות לקהילות עם מאות אלפי חברים.
מה זה אומר (במילים אנושיות)
פייסבוק משתמשת בבינה מלאכותית כדי לסרוק הפרות - וזה נהיה קלוש.
בצורה גרועה.
סביר להניח שהמערכת בלבלה פעילות קבוצתית רגילה עם תוכן שמפר חוקים (או שהייתה מוצפת בדיווחים המוניים מבוטים). לאחר שסומנה, קבוצות שלמות הוצאו מהרשת.
מנהלים מנסים לערער?
רבים נדחו באופן מיידי או נחסמו לחלוטין.
זה לא היה ממוקד.
זה היה שיטתי.
וכרגע, נראה שהפתרון של מטא הוא: לחכות ולקוות שזה יחזור לעצמו.
בואו נחבר את הנקודות
מה קרה | מה שכדאי לדעת |
סגירת קבוצות המוניות החלה בסביבות ה-24 ביוני | נפגע בעיקר בדרום מזרח אסיה, צפון אמריקה ובקהילות הורות/משחקים |
סיבת ההסרה: מעורפלת או שקרית (למשל, טרור, עירום) | לא מבוסס על תוכן קבוצתי אמיתי |
מטא אומרת שזה היה באג | ככל הנראה נגרם על ידי לוגיקת ניהול בינה מלאכותית או דיווח כוזב המונע על ידי בוטים |
ערעורים לרוב נכשלים | חלק מהמנהלים נעולים לחלוטין לאחר הגשת ערעור |
מטא עובדת על תיקון | אך אין ציר זמן מאושר להחלמה מלאה |
מה יכול לגרום למערכת ניהול בינה מלאכותית לקבל תוצאה חיובית כוזבת?
נראה שכולנו מסכימים שזו בעיה של בינה מלאכותית, אפילו מטא, אז השאלה האמיתית היא:
מהן הסיבות הנפוצות ביותר לכך שאלגוריתם מסמן משהו בטעות?
1. נתוני אימון גרועים
אם מטא אימנה את הבינה המלאכותית של המדידה שלה על דוגמאות מעורפלות מדי או מוטות, המערכת מתחילה להגיב יתר על המידה.
לדוגמה, ייתכן שהוא ילמד שפוסטים עם מילות מפתח או אימוג'ים מסוימים תמיד מסוכנים - גם כשהם לא.
דוגמה: מישהו כותב "בואו נפוצץ את המסיבה הזאת 🎉" בצורה כיפית.
הבינה המלאכותית רואה את המילה "פצצה" ומפעילה התרעת טרור.
2. יותר מדי אמון בהתאמת תבניות
בינה מלאכותית לא מבינה משמעות - היא תואמת דפוסים.
אז אם פוסט נראה דומה סטטיסטית לפוסט חסום (גם אם הוא לא), המערכת עשויה לסמן אותו.
תחשבו על זה ככה:
"הפוסט הזה דומה ב-87% למשהו אסור = בטח גרוע."
אין מקום להקשר.
3. עיוורון הקשר
בינה מלאכותית לא באמת יכולה "לקרוא את החדר".
הערה בקבוצה אחת עשויה להיות לא מזיקה - אך במסגרת אחרת, היא עשויה לקבל סימון.
רוב מערכות הבינה המלאכותית של ניהול לא יכולות להבחין בהבדל.
"שליחת תמונות עירום" בקבוצת ממים = בדיחה.
"שליחת תמונות עירום" בקבוצת ילדים = עבירה חמורה.
בינה מלאכותית רואה את שניהם אותו הדבר.
4. דיווח המוני על ידי בוטים או טרולים
לפעמים, משתמשים זדוניים או רשתות בוטים מדווחים על קבוצה כספאם.
אפילו אם התוכן נקי, מספיק דוחות יכולים לגרום לבינה המלאכותית לחשוב שיש איום ממשי.
הבינה המלאכותית לא מעריכה את התוכן.
זה מגיב למספר הדיווחים.
5. פעולות אוטומטיות ביטחון עצמי יתר על המידה
חלק מהפלטפורמות מאפשרות לבינה מלאכותית לפעול ללא בדיקה אנושית - במיוחד בקנה מידה גדול.
זה יותר מהיר... אבל זה גם אומר טעות אחת = קבוצה שלמה הוסרה, בלי לשאול שאלות.
סביר להניח שמטא משתמשת באוטומציה כדי לפעול לפני שבני אדם בודקים את הנתונים.
6. כללים שבורים או שגויים
ניהול בינה מלאכותית פועל על סמך כללים + ניחושים של למידת מכונה.
אם חלק אחד של המערכת מתעדכן באופן שגוי (כמו שדרוג דגם או פריסת מסנן חדש), הדבר עלול ליצור גל של תוצאות חיוביות שגויות ללא אזהרה.
מדיניות מטא ותהליך שיקום
הרבה אנשים עמלו על עבודתם הקשה - אז הרשינו לעצמנו לחפור לעומק ולמצוא את כל מה שאתם צריכים לדעת על המדיניות של מטה ושיקום הקבוצות:
חלון ערעורים
למנהלים יש 30 יום לערער אם פייסבוק משביתה קבוצה עקב הפרת כללי הקהילה. אם הערעור שלכם מתקבל, הקבוצה אמורה להיות משוחזרת. transparency.meta.com+12facebook.com+12facebook.com+12 .
שחזורים אוטומטיים
אם מטא מודה בטעות, הקבוצה שלך תוחזר, לפעמים אפילו ללא ערעור facebook.com .
עבור גל ההשעיות האחרון, מנהלים רבים מדווחים כי המתנה שקטה (24-72 שעות) גורמת לעיתים קרובות לשחזור עצמי, במיוחד אם זה מזוהה כבאג reddit.com .
⏱️ זמני תגובה שנצפו
רוב המנהלים מדווחים על שחזור תוך 24-72 שעות לאחר ההסרה - ללא כל פעולה מלבד המתנה.
אישור רשמי מ-Meta עשוי להגיע מאוחר יותר באמצעות דוא"ל או התראה בתוך האפליקציה.
כאשר זה לא משחזר
אם הפרה נחשבת תקפה, ייתכן שערעורך יידחה ולא יבוצע שיקום. facebook.com+5facebook.com+5reddit.com+5 facebook.com+2facebook.com+2reddit.com+2
אם הקבוצה באמת נמחקה (לעומת הושעתה), ייתכן שלא תוכלו לשחזר אותה - וייתכן שתצטרכו ליצור קבוצה חדשה facebook.com+8webapps.stackexchange.com+8reddit.com+8 .
הצעדים הטובים ביותר עבור מנהלים שנפגעו
אל תעשו דבר במשך 24-72 שעות לאחר ההשעיה - הימנעו מפרסום או ערעור מיידי.
אם עדיין לא ניתן לגשת לאחר 3 ימים, ניתן להגיש ערעור דרך העזרה של פייסבוק.
שימו לב להתראות שלכם במייל ובפייסבוק.
אם הקבוצה אינה פעילה לצמיתות, שקלו להקים קבוצה חדשה ולהעביר חברים.
שורה תחתונה
אם הקבוצה שלך נעלמה, אתה לא לבד - וכנראה שלא עשית שום דבר רע.
הנה מה שצריך לעשות:
אל תמהרו לערער - דיווחים רבים אומרים שזה מחמיר את המצב.
המתן 24-72 שעות בזמן ש-Meta ממיין את התיקון.
עדכנו את הקהילה שלכם בפלטפורמות אחרות (וואטסאפ, אינסטגרם או אפילו אימייל).
אם הקבוצה שלכם חוזרת, צלמו צילומי מסך של תוכן חשוב.
אף פעם אי אפשר לדעת מתי זה עלול להיעלם שוב.
זה מה שקורה כאשר מתינות של בינה מלאכותית נעה מהר יותר מההיגיון האנושי.
ממחשבות להנחיה
סיפור המטא מראה מה קורה כאשר בינה מלאכותית מקבלת החלטות ללא ההקשר או המשוב הנכונים.
אבל זה לא רק עניין של מטא. זה עניין של איך אנחנו עובדים עם בינה מלאכותית כל יום.
כדי לעזור לכם לשפר את זרימות העבודה שלכם בתחום הבינה המלאכותית, יצרנו הנחיה שתוכלו להעתיק ולהדביק בעוזר שלכם.
זה יגיד לך מה חסר לו - כדי שתוכל להנחות אותו טוב יותר.
פרספקטיבה של צוות האור הקפוא
זהו סיפור של אימון, בינה מלאכותית ללא פיקוח, וסוג של בדיקות בטא שמתרחשות.
למרות שאנחנו לא יכולים לאשר את החלק השני, זה לא דבר חסר תקדים - בדיקות בסביבות חיות הן SaaS 101.
לחלק מהספקים יש תוכניות רשמיות לכך. לחלקם בכלל לא מציינים זאת.
אבל העובדה שנושא זה נראה מוגבל גיאוגרפית תומכת בחשד שלנו:
זו הייתה קבוצת ניסוי קטנה... וזה השתבש.
כשמדובר בחלק הראשון, אין לנו ספק שה"באג" כביכול קשור לאימון.
זה מדגיש את המתח המתמשך שכולנו מתמודדים איתו:
אנחנו לא רוצים לתת מידע שיעזור לאמן מערכות בינה מלאכותית -
אבל כאשר לבינה מלאכותית חסרה הכשרה מתאימה, אנחנו מקבלים תוצאות חיוביות שגויות.
כך זה קורה:
הכלי הופך רגיש מדי
בינה מלאכותית לא מבינה הקשר
שחקנים רעים מרמים את המערכת
ואין אדם שבודק את התוצאה
במקרה של מטא, זה נראה כך:
עדכון בנושא ניהול
ייתכן בשילוב עם דיווחי בוטים המוניים
אין יכולת אמיתית להפריד בין אמת לרעש
ומערכת הסרה אוטומטית ללא פילטר אנושי
התוצאה?
קבוצות שלמות נמחקו - ללא הפרות של ממש.
ואין שם אף אחד שיגיד:
"רגע, זו קבוצת הורים. לא תא טרור."
כאן צריכות להיות תפקיד של השפעה ואחריות.
זה מתחיל עם:
שקיפות, כך שאנשים יוכלו לסמוך על התהליך
תוכנית כשל נכונה - כי אנחנו תמיד צריכים דרך לתקן נזק
אנו מקווים שהמשתמשים יקבלו בחזרה את הקבוצות שלהם במלואן.
אבל אם לא, ספקים צריכים להבין עד כמה עמוקה ההשפעה -
ולבנות אמצעי הגנה המכבדים את הזמן והמאמץ של אנשים.
הסיפור של מטא אינו שונה מ"באגים" אחרים שראינו בבינה מלאכותית.
רק אתמול כתבנו על יציאת הגרסה V1 של Midjourney ועל גל התסכול בגלל בעיות זכויות יוצרים.
במקרה כזה, אנשים לא איבדו קבוצות - אבל הם כן בזבזו זמן בניסיון להבין מדוע המודל סירב לייצר את התמונות שלהם.
המסר שאנחנו רוצים להשאיר לכם הוא זה:
בין אם תקראו לזה אימון או נתונים, זה משנה.
מפרויקט הבינה המלאכותית האישי שלכם ועד למודלים של הספקים הגדולים ביותר - זהו הליבה של הכל.
אנחנו לא יודעים איך זה יתפתח.
ישנם כוחות המושכים לכיוונים מנוגדים:
אנחנו לא רוצים לתת נתונים.
בינה מלאכותית צריכה את זה.
אבל אנחנו כן יודעים את זה:
כולנו רוצים שבינה מלאכותית תשרת את ייעודה.
מה שאומר - נמצא פתרון.
וזה חייב להיות כזה שעובד עבור כולם.