أصدرت شركة Anthropic منشورًا بعنوان "الآراء الأساسية حول سلامة الذكاء الاصطناعي" يوضح موقفها طويل الأمد بشأن كيفية التعامل مع الذكاء الاصطناعي الرائد.
الرسالة؟
لا يقتصر أمان الذكاء الاصطناعي على حل المشكلات فحسب، بل هو نظام علمي استباقي يجب أن يكون محوريًا في كيفية بناء الأنظمة المتقدمة.
لقد حددوا لنا متى يجب علينا أن نهتم، ولماذا هذا مهم، وماذا يجب أن يعني السلامة، وكيف يعتقدون أنه ينبغي القيام بذلك.
ما يقوله الأنثروبي
"نعتقد أن أنظمة الذكاء الاصطناعي ستصبح قريبًا قابلة للمقارنة بأداء الإنسان - وربما تتجاوزه - في معظم المهام المعرفية المفيدة."
- أنثروبي، وجهات نظر أساسية حول سلامة الذكاء الاصطناعي
مزاعمهم الأساسية:
من الممكن أن نحقق قفزات كبيرة في قدرات الذكاء الاصطناعي خلال عقد من الزمان
يجب التعامل مع السلامة كعلم حقيقي - من خلال ممارسات قابلة للقياس، وليس وعودًا غامضة
"يجب أن يكون "المفيد والصادق وغير المؤذي" هو المعيار، وليس فقط الإنتاجية أو القوة"
يجب على المختبرات دراسة واختبار كيفية تصرف النماذج فعليًا، وليس مجرد افتراض التوافق
ماذا يعني ذلك (بالكلمات البشرية)
إذا كنت تستخدم Claude من Anthropic أو تخطط للعمل مع أي من نماذج الذكاء الاصطناعي الخاصة بهم ، فإليك ما يعنيه هذا بالنسبة لك:
تم اختبار الذكاء الاصطناعي الذي تتفاعل معه بحثًا عن مخاطر السلامة قبل إصداره
إذا وصل النموذج إلى مستوى معين من الطاقة، فإنه يخضع لفحوصات أمان أكثر صرامة
قد تقوم شركة Anthropic بإيقاف إصدار نموذج مؤقتًا أو تأخيره إذا اعتبرته محفوفًا بالمخاطر
يمكنك توقع وجود توثيق (مثل بطاقات النظام) يشرح كيفية اختبار النموذج والقيود التي يفرضها.
يتأثر سلوك النموذج بالقواعد المضمنة في عملية تدريبه لتقليل الاستجابات الضارة أو المضللة
أنت تستخدم نظامًا مصممًا ليتماشى مع المبادئ العامة مثل كونك مفيدًا وصادقًا وعدم التسبب في ضرر
باختصار: تطبق Anthropic عمليات أمان منظمة قبل وأثناء النشر بحيث يكون الإصدار الذي تستخدمه مخصصًا لتلبية حد أمان واضح.
دعونا نربط النقاط
إذا كنت تريد أن تفهم ما وراء هذا الخبر، هناك بعض الأشياء التي تحتاج إلى أن تكون على علم بها.
الاستخدام والتبني: مدى وصول أنثروبيك ونموه
المستخدمون النشطون شهريًا: يُقدر عددهم بين 16 إلى 19 مليونًا اعتبارًا من أوائل عام 2025
مستخدمو تطبيقات الهاتف المحمول: حوالي 2.9 مليون شهريًا
زيارات الموقع الإلكتروني: بلغت ذروتها عند 18.8 مليون زيارة فريدة (أواخر عام 2024)؛ واستقرت عند حوالي 16 مليون زيارة (أوائل عام 2025)
التركيبة السكانية للمستخدمين:
52% تتراوح أعمارهم بين 18 و24 عامًا
25-35% تتراوح أعمارهم بين 25 و34 عامًا
أغلبية المستخدمين من الذكور (يقدر عددهم بـ 62-78%)
الدول الرائدة: الولايات المتحدة (~33-36%)، الهند (~7%)، المملكة المتحدة (~7%)
الاستخدامات الأساسية:
57% للكتابة والترميز والتخطيط والمهام الإبداعية
43% للأتمتة (على سبيل المثال، الذكاء الاصطناعي يتعامل مع المهام دون إدخال المستخدم)
الإيرادات: تقدر الإيرادات السنوية بنحو 3 مليارات دولار اعتبارًا من مايو 2025
الداعمون: 4 مليار دولار من أمازون، و2 مليار دولار من جوجل
التقييم: يقدر بين 61-62 مليار دولار
تعكس هذه الأرقام النطاق الحالي والاعتماد العام لأنظمة الذكاء الاصطناعي الخاصة بشركة Anthropic.
التمويل والتقييم
تمويل السلسلة E (مارس 2025): تم جمع 3.5 مليار دولار، بقيادة Lightspeed Venture Partners؛ وبلغت القيمة 61.5 مليار دولار.
استثمار أمازون: استثمرت ما مجموعه 8 مليار دولار (الاستثمار الأولي بالإضافة إلى سندات قابلة للتحويل المتابعة).
استثمارات جوجل: قدمت 2 مليار دولار في التمويل المبكر وأضافت لاحقًا مليار دولار آخر، ليصل المجموع إلى 3 مليار دولار.
مستثمرون آخرون: مشاركة من Bessemer، وCisco، وSalesforce Ventures، وFidelity، وGeneral Catalyst، وJane Street، وD1 Capital، وMenlo Ventures، وغيرها.
جدول الملخص
مستثمر | مبلغ الاستثمار | ملحوظات |
سرعة الضوء | 3.5 مليار دولار | تمويل السلسلة E، التقييم 61.5 مليار دولار |
أمازون | 8 مليار دولار | إجمالي الاستثمار عبر الأسهم والسندات |
جوجل | أكثر من 3 مليارات دولار | الاستثمارات في الديون الأولية والقابلة للتحويل |
شركات رأس المال الاستثماري الأخرى | لم يتم الكشف عنها | بما في ذلك Bessemer وSalesforce وCisco |
إطلاق استراتيجية السلامة: كيف تضع شركة أنثروبيك نفسها
لقد بنت شركة أنثروبيك مكانتها العامة والتجارية حول السلامة باعتبارها ميزة أساسية للمنتج، وليس مجرد سياسة داخلية.
وهنا كيفية تنفيذ هذه الاستراتيجية:
سياسة التوسع المسؤول (RSP):
إطار عمل عام يصنف النماذج حسب مستوى المخاطر (ASL‑1 إلى ASL‑3+)، مع متطلبات محددة للسلامة والنشر والمراقبة في كل مستوى.مستويات أمان الذكاء الاصطناعي (ASL):
تُقيّم النماذج بناءً على القدرة والمخاطر. تُفعّل مستويات ASL الأعلى (مثل ASL-3) بروتوكولات أمان أقوى، بما في ذلك تشكيل فرق حمراء داخلية، وتقييد شروط النشر، وإمكانية إيقاف النشر.الذكاء الاصطناعي الدستوري:
يتم تدريب كلود باستخدام مجموعة من المبادئ المكتوبة (الدستور) المصممة لتشكيل السلوك دون الاعتماد فقط على ردود الفعل البشرية.بطاقات النظام وتقارير الشفافية:
تنشر Anthropic وثائق حول قدرات كل نموذج، ونتائج الاختبار، والقيود المعروفة، واستراتيجيات التخفيف.مساءلة المبلغين عن المخالفات:
وتدعم الشركة الرقابة القانونية والعامة من خلال اقتراح عقوبات على المختبرات التي تدعي امتثالها لمعايير السلامة.التعاون مع الجهات التنظيمية:
تقترح منظمة أنثروبيك بشكل نشط أطر عمل للحكومات (على سبيل المثال دعوتها الأخيرة إلى الشفافية الإلزامية في تطوير الذكاء الاصطناعي الرائد) لتشكيل الرقابة المستقبلية.
تخدم هذه الاستراتيجية كل من الحوكمة الداخلية وتحديد موقع السوق الخارجي - مما يجعل Anthropic رائدة في مجال السلامة أولاً بين مختبرات الذكاء الاصطناعي الرائدة.
كما يعكس هذا خلفية مؤسسي Anthropic، الذين جاء العديد منهم من OpenAI وكانوا من أوائل رواد مواءمة الذكاء الاصطناعي وإدارة المخاطر طويلة المدى. فلسفتهم القائمة على مبدأ "السلامة أولاً" مُدمجة الآن بشكل مباشر في تصميم Claude وقواعد نشره ورسائله العامة.
مع أكثر من 16 مليون مستخدم شهريًا وبعض أكبر شركات التكنولوجيا التي تدعم خارطة الطريق الخاصة بها، تستخدم Anthropic السلامة ليس كمبدأ فحسب - ولكن كإستراتيجية للنمو، وإشارة ثقة، وميزة مميزة لمنصتها.
خلاصة القول
🧱 النقطة الرئيسية:
تُعرّف أنثروبيك السلامة علنًا بأنها عملية منظمة وقابلة للاختبار، مرتبطة بقوة النموذج. وتُوسّع الشركة نطاق إجراءات السلامة مع تزايد مخاطر النموذج، وتنشر تقارير الشفافية، وتتعاون بنشاط مع الجهات التنظيمية.
🎯 الوصول:
لا حاجة للتسجيل. المنشور متاح على موقعهم الإلكتروني العام. كما تجدون رابطًا مباشرًا لسياسة التوسع المسؤول ووثائق شفافية النموذج من المقالة.
💬 من الجيد أن تعرف:
هذا ليس بيانًا صحفيًا، بل وثيقة تحديد موقف - جزء منها شرح وجزء منها مخطط تفصيلي. إنها تُرسي أسس خطة أنثروبيك للقيادة في مجال السلامة مع توسيع قدرات كلود ونطاقه.
Prompt It Up: الطريقة الجديدة للتواصل مع الأخبار
استخدم هذا الموجه مع Claude أو ChatGPT أو أي طالب ماجستير متقدم لاستكشاف كيفية تعامل النظام مع السلامة في الممارسة العملية:
📋 نسخ ولصق موجه:
هل يمكنك توضيح ما هي عمليات السلامة الداخلية التي تم تطبيقها على أحدث طراز لديك قبل إصداره؟
أريد أن أفهم:
- ما هو مستوى المخاطرة الذي تم تصنيفك تحته
- كيف يتم اختبارك لسوء الاستخدام
- ما هي الحواجز التي تشكل ردود أفعالك؟
- وهل هناك أي وثائق أو بطاقة نظام يمكنني مراجعتها كمستخدم
ينطبق هذا على معظم النماذج - وهو طريقة رائعة للتحقق من مدى "معرفة" النظام حقًا بمعايير النشر الخاصة به.
منظور فريق الضوء المجمد -
لأن المنظور هو الطريقة التي يمكنك بها إيقاف الطائفة
رسالة أنثروبيك واضحة:
"لقد حددنا ما يعنيه السلامة، ونحن مستعدون للبدء به."
وهذا أمر قيم.
إن حقيقة أنهم فتحوا هذه المحادثة، وشاركوا إطارهم الداخلي، وربطوه بالفهم العام أمر مهم.
فهو يضفي هيكلاً على موضوع ما زال معظم الناس يجدونه غامضاً ــ ويمنح صناع السياسات شيئاً للعمل عليه.
ولكن لا ينبغي لنا أن نخلط بين قيادة المحادثة وامتلاك الحقيقة.
ما تحدده شركة أنثروبيك على أنه "آمن" و"عالي الخطورة" هو تفسيرها - المبني على قيمها وأهداف نموذجها وأولويات أعمالها.
هل هذا يجعله خطأ؟ لا.
هل هذا يناسب الجميع؟ أيضًا لا.
هناك فرق بين تحديد الهدف وإعلان نفسك الشخص الوحيد المسموح له بالاحتفاظ به.
وهنا تصبح الأمور صعبة.
لا يتعلق الأمر بمن يهتم أكثر.
إن الأمر يتعلق بمن يحدد القواعد - ومن يتم استبعاده عندما تصبح نسخة واحدة من "السلامة" هي النسخة الوحيدة التي تهم.
يستحق نهج أنثروبيك الاهتمام. فهو مفصل وشفاف ومفيد.
لكن هذا يُقيّد أيضًا ما سيقوله كلود أو يفعله أو يسمح به - وهذا ليس محايدًا. هذا هو التصميم.
لذا، إذا كنت مستخدمًا، فإليك ما هو الأكثر أهمية:
أنت تقرر ما يعنيه الأمان بالنسبة لك.
أنت تقرر ما هي المخاطر التي أنت على استعداد لتحملها.
وأنت تقرر ما إذا كانت أولويات النظام تتوافق مع أولوياتك.
إذا فعلوا ذلك، فهذا رائع. استخدمه.
إذا لم يفعلوا ذلك - فاختر آخر.
هذه هي الحرية التي نحتاج إلى حمايتها بينما تتكشف هذه المحادثة.
وهذا ما يجعل هذا المعرض مربحًا للجانبين، وليس معرضًا لمختبر واحد فقط.