بعد الشك في أن شركة OpenAI الصينية الناشئة DeepSeek قامت بنسخ نماذجها باستخدام تقنية تسمى "التقطير"، دخلت الشركة في وضع الإغلاق الكامل.

تتعامل الشركة الآن مع مختبراتها كمواقع أمنية وطنية، حيث تُركّب ماسحات بصمات الأصابع، وتستخدم أجهزة كمبيوتر غير متصلة بالإنترنت، وتُقصر الوصول إلى المشاريع على الموظفين الذين يحتاجون إلى المعرفة فقط. الهدف؟ حماية نموذجها الرئيسي التالي (المُلقّب بـ "الفراولة" أو "o1") من النسخ قبل إصداره.

ما يقوله OpenAI

أعلنت شركة OpenAI أنها تُعزز أمنها الداخلي بعد تزايد المخاوف من إمكانية نسخ أو تقليد نماذجها. وتمنع الشركة الوصول إلى أكثر أعمالها حساسيةً باستخدام ماسحات بصمات الأصابع، وأجهزة غير متصلة بالإنترنت، ونهج المنع التلقائي للوصول إلى الإنترنت. ولا يُسمح إلا للموظفين العاملين مباشرةً في مشاريع محددة بمعرفة هذه المعلومات أو حتى التحدث عنها.

وكما ذكرت صحيفة فاينانشيال تايمز ، عززت شركة OpenAI إجراءات الأمن الداخلي استجابة للمخاوف المتزايدة بشأن تقليد النموذج.
تحت إشراف مات نايت، نائب الرئيس للأمن في OpenAI ، يُقال إن الشركة نفذت سياسة إنترنت "رفض افتراضيًا"، وقدمت أنظمة معزولة لتدريب النماذج الحساسة، وأضافت الأمان البيومتري في مختبراتها.

الدافع؟ القلق المتزايد من أن سلوك النموذج - إذا انكشف - يمكن نسخه من خلال التقطير، حتى بدون الوصول إلى الأوزان الأصلية.

ماذا يعني ذلك (بالكلمات البشرية)

لا يتعلق الأمر بخرق البيانات أو قيام شخص ما باختراق خوادم OpenAI.

يتعلق الأمر بنوع مختلف من السرقة - حيث تُدرّب شركة أخرى نموذجًا أصغر بمحاكاة مخرجات نموذج أكبر. يُقال إن DeepSeek فعلت ذلك باستخدام GPT-4... واقتربت كثيرًا من تحقيق ذلك.

ترى OpenAI هذا تحذيرًا: إذا تم "تنقيح" نموذجها التالي قبل إطلاقه، فستفقد ميزتها التنافسية التي أنفقت مئات الملايين لبنائها. لذا فهي الآن:

  • عزل كل شيء بالغ الأهمية

  • مسح بصمات الأصابع للتحكم في من يذهب إلى أين

  • وتحويل ثقافة مكتبهم إلى شيء يشبه إحاطة البنتاغون أكثر من اجتماع شركة ناشئة في مجال التكنولوجيا

دعونا نربط النقاط

ما هو التقطير؟

التقطير هو تقنية يتعلم فيها أحد النماذج عن طريق نسخ مخرجات نموذج آخر - ليس الكود الخاص به، وليس بياناته، فقط سلوكه.

إليك كيفية عملها:

  1. ترسل آلاف (أو ملايين) المطالبات إلى نموذج قوي مثل GPT‑4.

  2. أنت تجمع الإجابات.

  3. تقوم بتدريب نموذجك الخاص لمحاكاة تلك الإجابات.

هذا كل شيء. لديك الآن نموذج يُشبه النموذج الأصلي تمامًا - دون الحاجة للوصول إلى مكوناته الداخلية.

إنه مثل تعلم الطبخ من خلال تذوق طعام شخص ما مرارًا وتكرارًا حتى تكتشف الوصفة.

كيف يتم ذلك فعليا؟

إنه أبسط مما يعتقد الناس:

  • لا أحد يخترق أي شيء.

  • لا أحد يقوم بتنزيل الملفات السرية.

يمكن لشركة مثل DeepSeek استخدام واجهة برمجة تطبيقات ChatGPT، وطرح العديد من الأسئلة عليها، واستخدام الإجابات لتدريب نموذج أصغر. هذا يُنشئ نموذجًا مُقلّدًا يعمل بنفس الأداء - بتكلفة زهيدة ودون أي عبء حوسبة يتطلبه التدريب من الصفر.

هذا بالضبط ما تعتقد OpenAI أن DeepSeek قد حققه. ولهذا السبب تُغلق OpenAI الآن كل شيء.

هل يمكن القيام بذلك للنماذج الصادرة؟

نعم - بل إنه أسهل من ذلك.

إذا كان الطراز مفتوح الوزن (مثل ميتا لاما ، أو ميسترال، أو فالكون)، فلن تحتاج إلى أي إضافات. يمكنك:

  • تنزيل النموذج الكامل

  • تعديله

  • قم بضبطه وفقًا لاحتياجاتك

  • أطلق نسختك الخاصة

هذا أحد أسباب عدم إصدار OpenAI لأوزان GPT-4 أو GPT-4o. فهم يعلمون أنه بمجرد إصدارها، ستُنشر.

لذا باختصار:

  • يمكن تقليد النماذج المغلقة من خلال التقطير.

  • يمكن استنساخ النماذج المفتوحة بشكل مباشر.

كلاهما يحمل مخاطر - ولكن التقطير هو الطريقة التي يمكن بها حتى للنماذج المغلقة أن تتعرض للظلال.

لماذا لا تستطيع OpenAI مقاضاة DeepSeek؟

وهنا الحقيقة الصعبة: هذا ليس غير قانوني (حتى الآن).

  • لم يتم سرقة أي كود أو أوزان

  • مخرجات النموذج ليست محمية بحقوق الطبع والنشر

  • الهندسة العكسية القائمة على واجهات برمجة التطبيقات العامة لا تنتهك أي قوانين

  • تتواجد شركة DeepSeek في الصين - مما يجعل إنفاذ القانون عبر الحدود أمرًا مستحيلًا تقريبًا

حتى لو كانت شروط خدمة OpenAI تحظر هذا النوع من السلوك، فمن المستحيل تقريبًا فرضها دوليًا، خاصةً إذا كان الوصول إلى واجهة برمجة التطبيقات يأتي من خلال وكلاء أو مصادر مجهولة المصدر.

ما لم تتمكن OpenAI من إثبات أن DeepSeek اخترقت أنظمتها أو انتهكت قوانين مراقبة الصادرات، فلن تكون هناك دعوى قضائية يمكن أن تستمر.

ولهذا السبب فإننا نشهد أمنًا في وضع القلعة، وليس معارك في المحاكم.

من هم الأشخاص الآخرون المعرضون للخطر؟

أي شخص يعرض سلوك النموذج أو الأوزان المفتوحة:

  • أنثروبيك (كلود) - تكشف واجهات برمجة التطبيقات عن سلوك النموذج، مما يجعلها عرضة للاختراق

  • ميتا (لاما) - أوزان مفتوحة، سهلة التنزيل وإعادة العلامة التجارية

  • ميسترال - نماذج مفتوحة الوزن وعالية الأداء يتم مشاركتها بشكل مفتوح

  • الحيرة - قد يتم استخراج واجهات برمجة التطبيقات والمخرجات

  • xAI (Grok) - مخرجات مرئية عبر واجهة عامة

  • الشركات الناشئة التي تستخدم نماذج مفتوحة المصدر - أسهل في التكرار، وأقل حماية قانونية

حتى عندما تكون النوايا مفتوحة وموجهة نحو المجتمع، فإن هذه الإعدادات تجعل من السهل على المنافسين تقسيم أو نسخ أو استنساخ النماذج والمخرجات.

لماذا تخضع OpenAI للإغلاق الكامل؟

لأن التقليد لم يعد أكاديميًا - بل أصبح يشكل تهديدًا للأعمال التجارية، والميزة التنافسية، وحتى القيادة التكنولوجية الوطنية.

لهذا السبب فإن OpenAI هو:

  • طلب مسح بصمات الأصابع عند نقاط الدخول الرئيسية للمختبر

  • تدريب النماذج الحساسة على الأجهزة ذات الفجوة الهوائية

  • استخدام سياسات الشبكة الرفض الافتراضي

  • الحد من وصول الموظفين إلى المشاريع من خلال جدران الحماية الصارمة التي تتطلب المعرفة

  • توظيف قادة عسكريين سابقين ومسؤولين أمنيين في Palantir

لقد انتقلوا من "منظمة بحثية" إلى "مختبر سري".

عندما يكون من الممكن استنساخ منتجك من خلال سلوكه العام وحده - فإن الدفاع الوحيد المتبقي هو إبقاء السلوك مخفيًا حتى اللحظة الأخيرة الممكنة.

خلاصة القول:

  • النماذج الصادرة = أسهل للنسخ (ولكنها مفتوحة عمدًا)

  • النماذج المغلقة = أصعب في النسخ، ولكن لا يزال من الممكن تقليدها من خلال التقطير

  • مخاوف OpenAI هي أنه حتى لو لم يصدروا النموذج، فإن السلوك نفسه قابل للنسخ

افعلها بنفسك: استخدم التقطير - على نفسك

التقطير هو ما مكّن شركة أخرى من الاقتراب من GPT-4. لقد طرحوا الأسئلة الصحيحة، على نطاق واسع.
يمكن أن تساعدك نفس الطريقة على العمل بشكل أفضل مع درجة الماجستير في القانون.

إذا لم تحصل على النتيجة التي تريدها -
لا تتخلص منه. لا تعيد كتابة كل شيء.
استخلص. اسأل. كرر.

استخدم هذا الموجه:

أحاول [أدخل السيناريو - على سبيل المثال، كتابة وصف للمنتج، أو إنشاء كود أفضل، أو تصميم مسار تعليمي، وما إلى ذلك]،

لكن النتائج التي أحصل عليها منك لا تعمل أو ليست ما كنت أتوقعه.

من فضلك ساعدني في معرفة:
- ما الذي قد يكون خطأ في الطريقة التي أسأل بها؟
- ما الذي تحتاج إلى مزيد من الوضوح بشأنه مني؟
- ما هي الأمثلة أو التفاصيل التي يجب أن أقدمها حتى نتمكن من الوصول إلى نتيجة أفضل
- هل لديك أي اقتراحات حول كيفية تعديل أسلوبي أو نهجي؟

استخدمه عندما لا يعمل موجهك.
التقطير لا يعني الاختراق - بل هو التقدم من خلال أسئلة أفضل.

منظور فريق الضوء المتجمد

عندما يتعلق الأمر بالذكاء الاصطناعي، فإننا نستمر في الحديث عن حقوق الطبع والنشر، والتزييف العميق، وبالطبع - الخصوصية.
لكن هذه المرة، نحن لا نناقش المناطق الرمادية.
OpenAI تملك الخوارزمية. لا شك في ذلك.
ومع ذلك - ما زالوا غير قادرين على مقاضاة.

لم يسرق DeepSeek الكود، ولم يخترق النظام.
لقد طرحوا أسئلة ذكية وبنوا نموذجًا يتصرف مثل GPT-4.
إنه قانوني، إنه فعال.
وهذه مشكلة.

هذا الأسبوع فقط، أوردنا تقريرًا عن قيام الدنمارك بإعادة صياغة قانون حقوق النشر الخاص بها للسماح للأشخاص برفع دعاوى قضائية بشأن التزييف العميق .
فما رأينا إذن؟
حتى لو فزت في المحكمة، فإن الضرر قد حدث بالفعل.

حسنًا، مرحبًا بك في المثال المثالي.

ما بنته DeepSeek ليس نموذجًا جديدًا - إنها خوارزمية Deepfake.
و OpenAI تعرف ذلك.
ردهم الوحيد؟ إغلاق كل شيء.
مسح بصمات الأصابع. جدران الحماية. الصمت.
لأن الشيء الوحيد الذي يمكنك مقاضاته هو اللص.
وأولا، عليك أن تثبت أن هناك سرقة.

مجنون، أليس كذلك؟

سيطلق عليه بعض الناس اسم الكارما - لكننا لسنا هؤلاء الأشخاص.
نحن هنا للإشارة إلى ما هو واضح:

القواعد تتغير - والجميع معرضون للخطر.

ومن ناحية أخرى، يأمل الأفراد أن تتمكن القوانين الجديدة من حماية وجوههم وأصواتهم وإبداعاتهم.
ومن ناحية أخرى، يراقب البائعون نماذجهم التي تبلغ قيمتها مليار دولار وهي "مستوحاة" من الاستنساخ.

يمكن لـ DeepSeek أن يقولوا أنهم استلهموا من خوارزمية GPT-4.
وقانونيًا؟ قد يصمد هذا.

ولكن إذا كان هذا هو المستقبل -
حيث يمكن أن يحل السؤال محل التملك -
ومن ثم فإن قانون حقوق النشر ليس هو السبب الوحيد.

لقد أصبح قديما.

وهذا هو الجزء من ثورة الذكاء الاصطناعي الذي لا يتحدث عنه أحد.
لكن الأمر مهم للجميع.

Share Article

Get stories direct to your inbox

We’ll never share your details. View our Privacy Policy for more info.