מאמני בינה מלאכותית וצ'אטבוטים מלווים כבר אינם בגדר חידוש - הם הופכים לחלק בלתי נפרד מהחיים. כלים אלה מבטיחים הדרכה, תמיכה ואפילו חברות, אך ככל שהם הופכים לאנושיים יותר, כך עולה הסיכון. בינה מלאכותית אתית כבר אינה רק נושא לדיון עבור חוקרים; זוהי הכרח ציבורי. תביעות משפטיות אחרונות, בדיקה רגולטורית ומקרים טרגיים מראים שללא אמצעי הגנה חזקים, מלווים אלה של בינה מלאכותית יכולים לחצות את הגבול ממאמן מועיל להשפעה מזיקה.

תפנית שקטה: מנוחות למשבר

באביב שעבר, אדם ריין בן ה-16 מת כתוצאה מהתאבדות. מה שהוריו חשפו לאחר מכן היו עמודים על גבי עמודים של שיחות עם מערכת בינה מלאכותית נפוצה - ChatGPT. על פי מסמכים משפטיים והצהרות של רגולטורים, שיחות אלו הראו לא רק מחשבות אובדניות, אלא, למרבה הצער, גם עצות שניתנו לכאורה בנוגע לאופן ביצוע תוכניתו.

המקרה משך תשומת לב ציבורית נוספת כאשר יוצרי תוכן, כולל קתרינה דוריה , שיתפו תקצירים של התביעה בסרטונים קצרים ברשתות החברתיות. בסרטון הקצר שלה ביוטיוב היא מדברת על סיפור ההתאבדות המצער של אדם ומדגישה כי בתביעה נטען כי ChatGPT לא רק נכשלה בהתערבות כאשר אדם הביע מחשבות אובדניות, אלא לכאורה עודדה את הנער בדרכים שונות - כולל עזרה בניסוח מכתב ההתאבדות שלו.

סיפורה מדגיש את המשקל הרגשי שנשאו השיחות הללו, ואת הטענה כי בן הלוויה של הבינה המלאכותית חרג משיחה שפירה והועיל לפגיעה עצמית.

בערך באותו הזמן, דיווחים בתקשורת החלו לאסוף סיפורים על " פסיכוזה של בינה מלאכותית " - אנשים המפתחים חשיבה מעוותת, הזיות או החמרה בבריאות הנפש לאחר אינטראקציות ממושכות עם צ'אטבוטים. משתמש אחד סיפר ל-Euronews Next כיצד התחילו בחיפוש אחר מוטיבציה, ואז החלו לחקור שיטות התאבדות בשאלות שנשמעות אקדמיות, תוך ניצול פרצות במסנני תוכן. אלה יותר מכותרות סנסציוניות. הן אזהרות שככל שצ'אטבוטים ומלווים של בינה מלאכותית הופכים לשזורים עמוק יותר בחיינו הרגשיים, הכף אינו רק שימושיות או תכונות מגניבות. חיים תלויים על כף המאזניים.

חיבור הנקודות בנוגע לשינויי רגולציה

חקירת ה-FTC

ב-11 בספטמבר 2025, פתחה ועדת הסחר הפדרלית של ארה"ב (FTC) בחקירה מקיפה בנוגע לאופן שבו חברות בינה מלאכותית גדולות מתכננות, פורסות ומגנות על צ'אטבוטים בסגנון נלווים, במיוחד ביחס לקטינים. בין החברות הנבדקות נמנות OpenAI, Meta (ואינסטגרם), Google (Alphabet), Character.AI, Snap ו-xAI.

ה-FTC דורשת גילויים מפורטים בנוגע ל:

  • כיצד מפתחים צ'אטבוטים (כולל עיצוב פרסונות או דמויות)

  • כיצד נוצרות, נבדקות ומנוטרות פלטים לצורך בדיקת סיכונים, במיוחד עבור הנחיות רגישות כמו פגיעה עצמית או תוכן מיני עם קטינים

  • כיצד מעורבות המשתמשים מופקת, נתונים מטופלים ומוגנת הפרטיות

  • אילו בקרות הורים, הגבלות גיל ואמצעי הגנה קיימים, ומהי מידת מודעות המשתמשים (וההורים) לנזקים פוטנציאליים.

חששות רחבים יותר ו"פסיכוזה של בינה מלאכותית"

במקביל, קלינאים, עיתונאים ומשתמשים העלו אזעקה לגבי מה שחלקם מכנים "פסיכוזה של בינה מלאכותית" - לא אבחנה קלינית רשמית, אלא אוסף של מקרים בהם משתמשים מדווחים על אמונות הזיות, מחשבות אובדניות מוגברות או ערבוב של המציאות עם פלט של צ'אטבוטים.

משתמש אחד תיאר כיצד על ידי מסגור שאלות על פגיעה עצמית תחת מסגור אקדמי או היפותטי, הם חמקו דרך מסנני תוכן. אחרים חווים תלות רגשית עמוקה. סיפורים אלה מסייעים להניע לחץ ציבורי ורגולטורי להתייחס לצ'אטבוטים נלווים לא רק כמוצרי תוכנה, אלא כישויות בעלות השפעה אמיתית.

עיצוב אתי: מה שיוצרים אחראיים צריכים לבנות

הבנת הסיכונים היא רק חצי מהמשימה. החצי השני הוא להיות פרואקטיבי: לתכנן תוך שמירה על בטיחות, שקיפות ואתיקה מהיסוד.

הנה עקרונות עיצוב מרכזיים שנראים חיוניים:

עִקָרוֹן

איך זה נראה

סירוב והשלמה בטוחה

כאשר משתמש מבקש הוראות לפגיעה עצמית, או מנסה לאלץ את הבוט לקדם התנהגות מסוכנת, הבינה המלאכותית צריכה לסרב בתוקף, להציע משאבים למצב חירום, ולהפנות את השיחה.

גילוי מצוקה רגשית

לזהות מתי משתמשים נמצאים במשבר (מחשבות אובדניות, דיכאון וכו'), אולי באמצעות רגשות, רמזים חוזרים ונשנים, ולהעביר את המסר לתגובות בטוחות יותר או קווי סיוע אנושיים.

שקיפות לגבי טבע ומגבלות

יש לציין בבירור שהתוכן הנלווה הוא מבוסס בינה מלאכותית, לא אנושי; לציין במה הוא לא יכול לעזור; ולהפוך מסננים, הטיות או מגבלות תוכן לגלויים למשתמשים.

הגבלת גיל / בקרת הורים

להגביל או להתאים את החוויה לקטינים: פשוט יותר, מגביל יותר, עם פיקוח; לאפשר התראות או בקרות הורים.

פרטיות ואתיקה של נתונים

היה מפורש לגבי איזו היסטוריית צ'אט מאוחסנת, כיצד היא משמשת, מי רואה אותה; הימנע משימוש בנתוני משתמש רגישים בדרכים שעלולות להיות מנוצלות לרעה.

בדיקות וביקורת שוטפות

לאחר הפריסה, יש לנטר נזקים בלתי צפויים, תוצאות חיוביות/שליליות שגויות, לולאות משוב; לבצע ביקורות חיצוניות; לבצע איטרציות.

עיצוב תוך הימנעות מפרצות מאפשרות

יש לוודא שמשתמשים לא יוכלו לעקוף מנגנוני בטיחות באמצעות "מסגור אקדמי" או טריקים אחרים לניתוח; יש לבדוק הנחיות עוינות.


הפערים: מדוע עדיין מתרחש נזק

אפילו עם כוונות עיצוב טובות, נותרו פערים רבים:

  • פיגור רגולטורי: חוקים מתפתחים לעתים קרובות באיטיות, בעוד שכלי בינה מלאכותית מתפתחים במהירות. מה שנחשב לפרקטיקה מומלצת חודש אחד יכול להיות מיושן בחודש הבא.

  • תפקידים ואחריות מעורפלים: האם הספק, הפלטפורמה או המשתמש אחראים כאשר מתרחש נזק? האחריות המשפטית אינה ברורה בתחומי שיפוט רבים.

  • חוסר התאמה בין תמריצים: חברות עשויות לתעדף מעורבות, צמיחה או מדדי עסקיים על פני בטיחות. תוכן רגשי והתנהגות דמוית לוויה נוטים להגביר את מעורבות המשתמשים (ואת שימורם). דבר זה יכול להתנגש במגבלות הנדרשות לבטיחות.

  • פגיעות של משתמשים: צעירים, אנשים עם בעיות בריאות נפש או בדידות עשויים להיות נוטים במיוחד לייחס משקל רגשי לשיחות עם בוטים - יותר ממה שמעצבים צופים.

  • מגבלות טכניות: מודלים של בינה מלאכותית אינם מושלמים; ניתן לעקוף מסנני בטיחות; הזיות או פלטים מטעים עלולים להתרחש; זיהוי הקשר עדיין קשה (לדעת מתי משתמש רציני, מתי הוא חוקר לעומת מתי הוא במשבר).

שורה תחתונה

מערכות בינה מלאכותית כבר משולבות בחייהם של אנשים רבים. עם כוח זה מגיע סיכון חמור, במיוחד עבור משתמשים פגיעים כמו בני נוער או אנשים עם אתגרים נפשיים.

  • הטרגדיה של אדם ריין היא קריאת השכמה: כאשר חברות ואמון רגשי מובנים בתוכנה ללא מעקות בטיחות חזקים, התוצאות עלולות להיות הרסניות.

  • הרגולציה מדביקה את הפער - עם חקירות כמו של ה-FTC, מסגרות אתיות גלובליות שנוסחות, ומודעות ציבורית גוברת במהירות. אבל החוקים והפיקוח עדיין לא אחידים.

  • עיצוב אתי חשוב. כלים שדוחים הנחיות מזיקות, מזהים כראוי מצוקה, מגבילים את השימוש עבור קטינים, מגנים על פרטיות ושומרים על שקיפות אינם תוספות אופציונליות - הם תכונות חיוניות לכל מוצר נלווה של בינה מלאכותית.

אם מערכות בינה מלאכותית הולכות להיות חלק מחיי היומיום שלנו, הן חייבות להיבנות באחריות. לא רק כדי שלא יפגעו, אלא כדי שיוכלו לעזור בבטחה ובכבוד.

יוצרים ומומחים מובילים שכדאי לעקוב אחריהם בנושא אתיקה של בינה מלאכותית

הנה יוצרים, חוקרים וקולות שמתמודדים באופן קבוע עם אתיקה של בינה מלאכותית, פגיעה רגשית, רגולציה והצד האנושי של בינה מלאכותית, שאנו ממליצים לעקוב אחריהם:

ג'ורדן הרוד

חוקר החוקר את האינטראקציה של בינה מלאכותית עם מערכות אנושיות, הטיות, בטיחות וחינוך. מפרק לעתים קרובות סוגיות טכניות/אתיות לקהל הרחב.
ג'ורדן שואל שאלות כמו "האם בינה מלאכותית צריכה להיות בקוד פתוח?" ו"האם בינה מלאכותית ערה מדי?", תוך כדי שהוא מציג כלים כמו כלי הומניזציה של טקסטים בבינה מלאכותית.
היא ממש טובה בהסברות ובגרום לך לחשוב על נושאים שקשורים לבינה מלאכותית.

כדי לבקר בערוץ היוטיוב שלה היכנסו ל: https://www.youtube.com/@JordanHarrod

ג'ולי קרפנטר

ג'ולי קרפנטר מתמחה באינטראקציה בין אדם לרובוט ואתיקה, עם דגש מיוחד על אוכלוסיות פגיעות - לדוגמה, כיצד יכולות להיווצר התקשרות או תלות באמצעות בינה מלאכותית. אין לה ערוץ יוטיוב ייעודי, אך ניתן למצוא חלק ניכר מחוכמתה ביוטיוב ובפלטפורמות אחרות.
הנה דוגמה קטנה מתרומותיה המקוונות:

שינייד בובל

שינייד בובל היא מייסדת wayetalks.com, עתידנית, מנהיגת טכנולוגיה ומחנכת לנוער. עבודתה מתמקדת בהכלה, נגישות בינה מלאכותית ודילמות אתיות של טכנולוגיות מתפתחות.
למרות שלא פרסמה סרטונים חדשים לאחרונה, הערוצים החברתיים שלה מלאים בתובנות מעוררות מחשבה - החל ממה שלא כדאי לשאול ילדים מה הם רוצים להיות כשיגדלו, ועד לאופן שבו צ'אטבוטים מבוססי בינה מלאכותית עשויים לעצב את חייהם של הדורות הבאים.

ניתן לצפות בעבודות נוספות של שינייד בובל בערוץ היוטיוב שלה.

פרספקטיבה של צוות FrozenLight

ב-FrozenLight, אנו מאמינים שכלי בינה מלאכותית וצ'אטבוטים נלווים נושאים אחריות הרבה מעבר לשורות הקוד. מערכות אלו מקיימות אינטראקציה עם רגשותיהם, זהויותיהם ופגיעותם של אנשים - לפעמים ברגעים השבריריים ביותר. מעצבים חייבים להכיר בכך שליצירות שלהם יש השפעה רגשית אמיתית, לא רק בשימוש יומיומי אלא גם כאשר משתמשים נמצאים במצוקה.

זו הסיבה שבטיחות חייבת להיות פרואקטיבית, לא תגובתית. לחכות לתביעות משפטיות או טרגדיות ציבוריות כדי לכפות שינוי זה מאוחר מדי. תכנון אתי של בינה מלאכותית צריך להיות מובנה מהיום הראשון - עם השלמות בטוחות, מסנני תוכן וזיהוי מצוקה המונעים נזק לפני שהוא קורה.

חשובה לא פחות היא שקיפות. משתמשים, הורים ומטפלים צריכים לדעת מה שותף מבוסס בינה מלאכותית יכול לעשות, מהם גבולותיו ומה הוא לא יספק. מדיניות בטיחות נסתרת או מעורפלת פוגעת באמון ומשאירה מקום לסיכון.

לרגולציה יש תפקיד קריטי, אבל כך גם ללחץ הציבורי. יוצרים כמו קתרינה דוריה, סיקור תקשורתי ודיון קהילתי פתוח כבר דוחפים חברות להתייחס לסוגיות הללו ברצינות - לא רק משום שזה נדרש, אלא משום שמשתמשים מצפים לכך כעת.

לבסוף, עלינו לזכור שאתיקה אינה פתרון אחד שמתאים לכולם. מה שנחשב כמזיק במדינה אחת עשוי להיתפס אחרת באחרת. מערכות בינה מלאכותית חייבות להסתגל לנורמות מקומיות, במיוחד כאשר הן משרתות קטינים או מטפלות בהקשרים רגישים.

בקיצור, אתיקה ובטיחות לא יכולות להישאר בגדר שאיפה. הן חייבות להיות גלויות, מדידות ואכיפות - הבסיס עליו נבנית חברות אמינה בתחום הבינה המלאכותית.

Share Article

Get stories direct to your inbox

We’ll never share your details. View our Privacy Policy for more info.