ממשלת בריטניה עובדת על חוק חדש שיאפשר לחברות בינה מלאכותית להשתמש בתוכן המוגן בזכויות יוצרים כדי לאמן את המודלים שלהן - אלא אם כן היוצר המקורי יבחר שלא לעשות זאת .

זה אומר שאם לא תאמר במפורש "אל תתאמן על הדברים שלי", הם יכולים להמשיך ולהשתמש בזה.

סופרים, אמנים, מו"לים ואפילו שמות כמו פול מקרטני וטום סטופארד התנגדו לכך בתקיפות. הם קראו לזה מה שזה: איום על זכויותיהם של יוצרים.

לאחר התגובה הנגדית, ממשלת בריטניה עצרה ואמרה שהיא מחפשת אפשרויות טובות יותר.

🗣️ מה הממשלה אומרת

שר הטכנולוגיה של בריטניה, פיטר קייל, אמר כי רעיון ה"אופט-אוט" נשקל מחדש.

במקום זאת, הם בוחנים כעת מודלים של רישוי , שבהם יוצרים יוכלו לקבל תשלום כאשר עבודתם משמשת לאימון בינה מלאכותית.

הממשלה הוסיפה תיקונים חדשים לחוק הנתונים - כולל הבטחה לבחון את ההשפעה הכלכלית של כל תוכנית שתבחר.

בעיקרון: "אנחנו עדיין עובדים על זה".

🤔 מה זה אומר (במילים אנושיות)

כל התוכנית הזו מניחה שיוצרים יכולים "לבטל את הסכמתם" להכשרה בתחום הבינה המלאכותית.
אבל הנה הבעיה: איך?

חברות בינה מלאכותית אינן משתפות בפומבי את הנתונים עליהם הן מתאמנות.
אין דרך לבדוק אם נעשה שימוש בספר, בתמונה או במאמר שלך.
וגם אם בכל זאת אמרתם לא - אין שום מערכת שתגרום לחברות בינה מלאכותית להוכיח שהקשיבו.

אז מה התוכנית של בריטניה?
זה כמו לתת לך פתח חירום בבית בלי ידיות של דלת.

אלא אם כן החוק מחייב חברות:

  • שתפו על מה הם מתאמנים

  • כבוד לרשימות ביטול

  • תשלום הוגן ליוצרים

...ואז שום דבר לא באמת משתנה.

ובעוד שבריטניה מתכננת לבחון את כל זה במהלך השנה הקרובה, מבקרים אומרים שזה איטי מדי - ומשאיר את היוצרים ללא הגנה בזמן שבינה מלאכותית ממשיכה ללמוד.

🔚 שורה תחתונה

  • 📜 נושא : הגנת זכויות יוצרים ליוצרים לעומת זכויות הכשרה בתחום הבינה המלאכותית

  • 🧑‍🎨 יוצרים המעורבים : סופרים, מוזיקאים, אמנים ומוציאים לאור, כולל פול מקרטני וטום סטופארד

  • 🧠 מה מונח על כף המאזניים : האם בינה מלאכותית יכולה להתאמן על יצירות המוגנות בזכויות יוצרים ללא אישור

  • 📅 ציר זמן : סקירת הממשלה נמשכת עד 2025; עיכוב אפשרי עד סוף הפרלמנט (2029)

  • ⚖️ מנגנון משפטי : מדיניות "ביטול הסכמה" מוצעת - כעת נשקלת מחדש לטובת מודלים של רישוי

  • 📰 מידע נוסף :

❄️ פרספקטיבה קבוצתית של אור קפוא

נגלה לכם סוד:
אנחנו לא בתחילת השינוי בבינה המלאכותית - אנחנו כבר עמוק בתוכו.

ובעוד שבריטניה מנסה לעשות את הדבר הנכון - להגן על יוצרים, לקבוע כללים, ליצור איזון -
הם שכחו פרט קטן אחד: בינה מלאכותית כבר התאמנה על הכל.

אי אפשר "לוותר" על משהו שכבר נלמד.
אין כפתור "שכח" בבינה מלאכותית.
אין הרצה אחורה.

אנחנו מעריצים את המאמץ. ברצינות.
הם אחת הממשלות הראשונות שאמיצות מספיק אפילו לנסות להתמודד עם זה.
אבל אם לא לוקחים בחשבון את מה שכבר קרה,
איך מגנים על מה שיקרה אחר כך?

החוק הזה מנסה להגן על אנשים...
ממשהו שכבר קרה בשקט, בקנה מידה עצום.

זה לא הבטחת עתיד.
זה מופיע באיחור בהורדה.

🎤 קו להנחת מיקרופון

ביטול הסכמה עובד רק כאשר מישהו שואל אותך קודם.
כרגע, בינה מלאכותית קודם כל מתאמנת - ולעולם לא מתנצלת.

Expert Voices

Avinoam Boaron
Avinoam Boaron

2025 and the Big Crash of Copyright and Copy-Bots

Share Article

Get stories direct to your inbox

We’ll never share your details. View our Privacy Policy for more info.