לאחר שחשד כי הסטארט-אפ הסיני DeepSeek העתיק את המודלים שלו באמצעות טכניקה הנקראת "זיקוק", OpenAI נכנסה למצב סגר מלא.

החברה מתייחסת כעת למעבדות שלה כמו לאתרי ביטחון לאומי - מתקינה סורקי טביעות אצבע, משתמשת במחשבים לא מקוונים ומגבילה את הגישה לפרויקט לצוות "צריך לדעת" בלבד. המטרה? להגן על הדגם הגדול הבא שלה (המכונה "Strawberry" או "o1") מפני העתקה לפני יציאתו לאור.

מה שאומר OpenAI

חברת OpenAI טוענת שהיא מגבירה את האבטחה הפנימית שלה לאחר חששות גוברים כי המודלים שלה עלולים להיות מועתקים או חיקויים. החברה חוסמת את הגישה לעבודות הרגישות ביותר שלה באמצעות סורקי טביעות אצבע, מכונות לא מקוונות וגישת מניעת גישה לאינטרנט כברירת מחדל. רק צוות שעובד ישירות על פרויקטים ספציפיים רשאי לדעת או אפילו לדבר עליהם.

כפי שדווח על ידי הפייננשל טיימס , OpenAI הגבירה את אמצעי האבטחה הפנימיים בתגובה לחששות גוברים מחיקוי מודלים.
תחת הדרכתו של מאט נייט, סגן נשיא האבטחה של OpenAI , החברה יישמה, על פי הדיווחים, מדיניות של "דחיית גישה כברירת מחדל", הציגה מערכות עם פערי גישה לאימון מודלים רגישים, והוסיפה אבטחה ביומטרית במעבדות שלה.

המוטיבציה? דאגה גוברת שהתנהגות מודל - אם תיחשף - ניתנת להעתקה באמצעות זיקוק, אפילו ללא גישה למשקלים המקוריים.

מה זה אומר (במילים אנושיות)

זה לא קשור לפריצת נתונים או למישהו שפורץ לשרתים של OpenAI.

מדובר בסוג אחר של גניבה - חברה אחרת מאמנת דגם קטן יותר על ידי חיקוי הפלט של דגם גדול יותר. על פי הדיווחים, DeepSeek עשתה זאת עם GPT-4... והתקרבה למדי.

OpenAI רואה בכך יריית אזהרה - אם המודל הבא שלהם "יזוקק" לפני ההשקה, הם מאבדים יתרון תחרותי שבנייתו הוציאו מאות מיליונים. אז עכשיו הם:

  • בידוד כל דבר קריטי

  • סריקת טביעות אצבע כדי לשלוט מי הולך לאן

  • ולהפוך את תרבות המשרד שלהם למשהו שנשמע יותר כמו תדרוך של הפנטגון מאשר פגישת סטארט-אפ טכנולוגית

בואו נחבר את הנקודות

מה זה זיקוק?

זיקוק היא טכניקה שבה מודל אחד לומד על ידי העתקת הפלט של אחר - לא הקוד שלו, לא הנתונים שלו, אלא רק ההתנהגות שלו.

כך זה עובד:

  1. אתם שולחים אלפי (או מיליוני) הנחיות למודל רב עוצמה כמו GPT‑4.

  2. אתה אוסף את התשובות.

  3. אתה מאמן את המודל שלך לחקות את התשובות האלה.

זהו. עכשיו יש לך מודל ש"מרגיש" כמו המקור - בלי גישה לחלקים הפנימיים שלו.

זה כמו ללמוד לבשל על ידי טעימה של אוכל של מישהו שוב ושוב עד שמבינים את המתכון.

איך זה נעשה בפועל?

זה יותר פשוט ממה שאנשים חושבים:

  • אף אחד לא פורץ כלום.

  • אף אחד לא מוריד קבצים סודיים.

חברה כמו DeepSeek יכולה להשתמש בממשק ה-API של ChatGPT, לשאול אותו המון שאלות, ולהשתמש בתשובות כדי לאמן מודל קטן יותר. זה יוצר חיקוי שמבצע ביצועים דומים - בחלק קטן מהעלות וללא נטל המחשוב הכרוך באימון מאפס.

זה בדיוק מה ש-OpenAI מאמינה ש-DeepSeek עשתה. וזו הסיבה ש-OpenAI עכשיו נועלת הכל.

האם ניתן לעשות זאת גם לדגמים שיצאו?

כן - וזה אפילו יותר קל.

אם מודל הוא בעל משקל פתוח (כמו Llama, Mistral או Falcon של Meta ), אינך צריך לזקק שום דבר. אתה יכול:

  • הורד את המודל המלא

  • שנה את זה

  • כוונן אותו לצרכים שלך

  • השיקו גרסה משלכם

זוהי אחת הסיבות לכך ש-OpenAI לא משחררת משקולות GPT-4 או GPT-4o. הם יודעים שברגע שזה יוצא, זה יוצא.

אז לסיכום:

  • ניתן לחקות מודלים סגורים באמצעות זיקוק.

  • ניתן לשכפל מודלים פתוחים ישירות.

שניהם טומנים בחובם סיכונים - אבל זיקוק הוא הדרך שבה אפילו מודלים סגורים יכולים להיות מוצלים.

למה OpenAI לא יכולה לתבוע את DeepSeek?

הנה האמת הקשה: זה לא חוקי (עדיין).

  • לא נגנבו קוד או משקולות

  • פלטי המודל אינם מוגנים בזכויות יוצרים

  • הנדסה הפוכה המבוססת על ממשקי API ציבוריים אינה מפרה שום חוק

  • DeepSeek נמצאת בסין - מה שהופך את אכיפה משפטית מעבר לגבולות לכמעט בלתי אפשרית

אפילו אם תנאי השירות של OpenAI אוסרים התנהגות מסוג זה, כמעט בלתי אפשרי לאכוף אותם ברמה בינלאומית, במיוחד אם הגישה ל-API הגיעה דרך פרוקסי או מקורות אנונימיים.

אלא אם כן OpenAI תוכל להוכיח ש-DeepSeek פרצה למערכות שלה או הפרה את חוקי בקרת היצוא, אין תביעה שתעמוד במבחן הזמן.

זו הסיבה שאנחנו רואים אבטחה בסגנון מבצר, לא קרבות משפטיים.

מי עוד נמצא בסיכון?

כל מי שחושף התנהגות מודל או משקולות פתוחות:

  • אנתרופי (קלוד) – ממשקי API חושפים התנהגות מודל, פגיעים לזיקוק

  • מטא (למה) – משקלים פתוחים, קלים להורדה ולמיתוג מחדש

  • מיסטרל – דגמים בעלי משקל פתוח וביצועים גבוהים שחולקו בגלוי

  • מבוכה - ייתכן שמישהו יגרד את ממשקי ה-APIs והפלטים

  • xAI (Grok) – פלטים גלויים דרך ממשק ציבורי

  • סטארט-אפים המשתמשים במודלים של קוד פתוח - קל יותר לשכפול, פחות הגנה משפטית

אפילו כאשר הכוונות פתוחות וממוקדות בקהילה, הגדרות אלו הופכות את המעבר, העתקה או שכפול של מודלים ופלט לקליל עבור מתחרים.

למה OpenAI נכנסת לסגר מלא?

מכיוון שחיקוי הוא כבר לא אקדמי - הוא איום על עסקים, יתרון תחרותי ואפילו מנהיגות טכנולוגית לאומית.

זו הסיבה ש-OpenAI הוא:

  • דרישה לסריקות טביעות אצבע בנקודות כניסה מרכזיות למעבדות

  • אימון מודלים רגישים על מכונות בעלות מרווח אוויר

  • שימוש במדיניות רשת מסוג "דחייה כברירת מחדל"

  • הגבלת גישת הצוות לפרויקטים באמצעות חומות אש מחמירות של "צורך לדעת"

  • גיוס ראשי צבא לשעבר ומנהלי אבטחה בפלנטיר

הם עברו מ"ארגון מחקר" ל"מעבדה מסווגת".

כאשר ניתן לשכפל את המוצר שלך מהתנהגותו הציבורית בלבד - ההגנה היחידה שנותרה היא לשמור על ההתנהגות מוסתרת עד הרגע האחרון האפשרי.

שורה תחתונה:

  • מודלים שפורסמו = קל יותר להעתקה (אבל פתוחים במכוון)

  • מודלים סגורים = קשה יותר להעתקה, אך עדיין ניתן לחקות אותם באמצעות זיקוק

  • החשש של OpenAI הוא שגם אם הם לא ישחררו את המודל, ההתנהגות עצמה ניתנת להעתקה.

הנחיה: השתמש בזיקוק - על עצמך

זיקוק הוא הדרך בה חברה אחרת התקרבה ל-GPT-4. הם פשוט שאלו את השאלות הנכונות, בקנה מידה גדול.
אותה שיטה יכולה לעזור לך לעבוד טוב יותר עם התואר שלך במשפטים.

אם אינך מקבל את התפוקה הרצויה -
אל תזרקו את זה. אל תכתבו הכל מחדש.
לזקק. לשאול. לחזור על התהליך.

השתמש בהנחיה זו:

אני מנסה [להכניס את התרחיש - למשל, לכתוב תיאור מוצר, ליצור קוד טוב יותר, לעצב נתיב למידה וכו'],

אבל התוצאות שאני מקבל ממך לא עובדות או לא מה שציפיתי.

אנא עזרו לי להבין:
מה יכול להיות לא בסדר באופן שבו אני שואל?
- על מה אתה צריך ממני יותר הבהרה
– אילו דוגמאות או פרטים עליי לספק כדי שנוכל להגיע לתוצאה טובה יותר
- הצעות כלשהן כיצד אוכל להתאים את ההנחיה או הגישה שלי

השתמש בו כאשר ההנחיה שלך לא עובדת.
זיקוק זה לא פריצה - זו התקדמות באמצעות שאלות טובות יותר.

פרספקטיבה של צוות האור הקפוא

כשמדובר בבינה מלאכותית, אנחנו כל הזמן מדברים על זכויות יוצרים, דיפפייקס, וכמובן - פרטיות.
אבל הפעם, אנחנו לא דנים באזורים האפורים.
OpenAI מחזיקה באלגוריתם. אין ספק בכך.
ובכל זאת - הם עדיין לא יכולים לתבוע.

DeepSeek לא גנבו קוד. הם לא פרצו את המערכת.
הם שאלו שאלות חכמות ובנו מודל שמתנהג כמו GPT-4.
זה חוקי. זה יעיל.
וזו בעיה.

רק השבוע דיווחנו על שינוי חוק זכויות היוצרים של דנמרק כדי לאפשר לאנשים לתבוע בגין זיופים עמוקים .
דעתנו אם כך?
גם אם תנצחו בבית המשפט - הנזק כבר נעשה.

ובכן, ברוכים הבאים לדוגמה המושלמת.

מה ש-DeepSeek בנתה אינו מודל חדש - זהו אלגוריתם דיפפייק.
ו-OpenAI יודעת את זה.
התגובה היחידה שלהם? לנעול הכל.
סריקות טביעות אצבע. חומות אש. שקט.
כי הדבר היחיד שאתה יכול לתבוע... זה גנב.
וקודם כל, צריך להוכיח שהייתה גניבה.

מטורף, נכון?

יש אנשים שיקראו לזה קארמה - אבל אנחנו לא האנשים האלה.
אנחנו כאן כדי להדגיש את הברור מאליו:

הכללים משתנים - וכולם חשופים.

מצד אחד, אנשים מקווים שחוקים חדשים יוכלו להגן על פניהם, קולם ויצירותיהם.
מצד שני, ספקים צופים במודלים שלהם, ששווים מיליארד דולר, מקבלים "השראה" לשיבוטים.

ב-DeepSeek יכלו לומר שהם פשוט קיבלו השראה מהאלגוריתם של GPT-4.
ומבחינה משפטית? זה אולי יחזיק מעמד.

אבל אם זה העתיד -
היכן שבקשה יכולה להחליף בעלות -
אז חוק זכויות היוצרים לא רק מפגר מאחור.

זה מיושן.

וזה החלק של מהפכת הבינה המלאכותית שאף אחד לא מדבר עליו.
אבל זה משנה. לכולם.

Share Article

Get stories direct to your inbox

We’ll never share your details. View our Privacy Policy for more info.