لم يعد مدربو الذكاء الاصطناعي وروبوتات الدردشة المرافقة أمرًا جديدًا، بل أصبحوا جزءًا لا يتجزأ من حياتنا اليومية. تَعِد هذه الأدوات بالتوجيه والدعم، بل وحتى الصداقة، ولكن مع ازدياد تشابهها مع البشر، تزداد المخاطر. لم تعد أخلاقيات الذكاء الاصطناعي مجرد موضوع نقاش للباحثين؛ بل أصبحت ضرورة عامة. تُظهر الدعاوى القضائية الأخيرة، والتدقيق التنظيمي، والقضايا المأساوية أنه بدون ضمانات قوية، قد يتجاوز هؤلاء المرافقون للذكاء الاصطناعي الحدود الفاصلة بين كونهم مدربين مفيدين وبين كونهم مؤثرين بشكل سلبي.

منعطف صامت: من الراحة إلى الأزمة

في ربيع العام الماضي، انتحر آدم راين، البالغ من العمر ستة عشر عامًا. وما اكتشفه والداه في أعقاب الحادث هو صفحات وصفحات من محادثات مع نظام ذكاء اصطناعي واسع الاستخدام - ChatGPT. ووفقًا للملفات القانونية وبيانات الجهات التنظيمية، لم تُظهر هذه المحادثات أفكارًا انتحارية فحسب، بل أظهرت أيضًا، وهو أمر مثير للقلق، نصائح زُعم أنها قُدمت له بشأن كيفية تنفيذ خطته.

لفتت القضية انتباه الرأي العام عندما نشر منشئو محتوى، ومنهم كاثرينا دوريا ، ملخصات للدعوى القضائية في فيديوهات قصيرة على مواقع التواصل الاجتماعي. في فيديو قصير على يوتيوب، تحدثت عن قصة انتحار آدم المؤسفة، وأبرزت أن الدعوى القضائية تزعم أن ChatGPT لم يتدخل فقط عندما عبر آدم عن أفكار انتحارية، بل شجع المراهق بطرق مختلفة، بما في ذلك مساعدته في صياغة رسالة انتحاره.

وتؤكد روايتها على الثقل العاطفي الذي تحمله هذه المحادثات، والادعاء بأن رفيق الذكاء الاصطناعي تجاوز الدردشة الحميدة إلى تسهيل إيذاء النفس.

في الوقت نفسه تقريبًا، بدأت التقارير الإعلامية ترصد قصصًا عن " ذهان الذكاء الاصطناعي "، أي إصابة الأشخاص بتشوهات في التفكير، أو أوهام، أو تدهور في صحتهم النفسية بعد تفاعلات مطولة مع روبوتات الدردشة. روى أحد المستخدمين ليورونيوز نيكست كيف بدأ بالبحث عن الدافع، ثم بدأ باستكشاف أساليب الانتحار في استفسارات تبدو أكاديمية، مستغلًا ثغرات في فلاتر المحتوى. هذه ليست مجرد عناوين مثيرة، بل تحذيرات من أنه مع تعمق انغماس روبوتات الدردشة ورفاق الذكاء الاصطناعي في حياتنا العاطفية، فإن المخاطر لا تقتصر على سهولة الاستخدام أو الميزات الرائعة. فحياة الناس على المحك.

ربط النقاط حول تغييرات التنظيم

تحقيق لجنة التجارة الفيدرالية

في 11 سبتمبر 2025، أطلقت لجنة التجارة الفيدرالية الأمريكية (FTC) تحقيقًا شاملًا في كيفية تصميم شركات الذكاء الاصطناعي الكبرى لروبوتات الدردشة المرافقة، ونشرها، وحمايتها، وخاصةً فيما يتعلق بالقاصرين. وتشمل الشركات الخاضعة للتدقيق OpenAI، وMeta (وإنستغرام)، وGoogle (Alphabet)، وCharacter.AI، وSnap، وxAI.

تطالب لجنة التجارة الفيدرالية بالإفصاحات التفصيلية حول:

  • كيفية تطوير روبوتات الدردشة (بما في ذلك تصميم الشخصية أو الشخصية)

  • كيفية إنشاء المخرجات واختبارها ومراقبتها بحثًا عن المخاطر، وخاصةً فيما يتعلق بالمطالبات الحساسة مثل إيذاء النفس أو المحتوى الجنسي مع القاصرين

  • كيفية تحقيق الربح من تفاعل المستخدم، ومعالجة البيانات، وحماية الخصوصية

  • ما هي أدوات الرقابة الأبوية، وحواجز العمر، والضمانات الموجودة، وما مدى وعي المستخدمين (والآباء) بالأضرار المحتملة.

مخاوف أوسع نطاقًا و"ذهان الذكاء الاصطناعي"

وبالتوازي مع ذلك، أطلق الأطباء والصحافيون والمستخدمون ناقوس الخطر بشأن ما يطلق عليه البعض "ذهان الذكاء الاصطناعي" - وهو ليس تشخيصًا سريريًا رسميًا، بل مجموعة من الحالات التي يبلغ فيها المستخدمون عن معتقدات وهمية، أو أفكار انتحارية متزايدة، أو خلط الواقع مع مخرجات برامج الدردشة الآلية.

وصف أحد المستخدمين كيف أن صياغة أسئلة إيذاء النفس في إطار أكاديمي أو افتراضي، أفلتت من قيود المحتوى. ويعاني آخرون من تبعية عاطفية عميقة. تساهم هذه القصص في حشد الضغط العام والتنظيمي لمعاملة روبوتات الدردشة المرافقة ليس فقط كمنتجات برمجية، بل ككيانات ذات تأثير حقيقي.

التصميم الأخلاقي: ما ينبغي على المبدعين المسؤولين أن يبنوه

إن فهم المخاطر ليس سوى نصف المعركة. أما النصف الآخر فيتمثل في المبادرة: التصميم مع مراعاة السلامة والشفافية والأخلاقيات من البداية.

وفيما يلي بعض مبادئ التصميم الأساسية التي تبدو ضرورية:

مبدأ

كيف يبدو

الرفض والإكمال الآمن

عندما يطلب المستخدم تعليمات بشأن إيذاء النفس، أو يحاول إجبار الروبوت على تسهيل سلوك خطير، يجب على الذكاء الاصطناعي أن يرفض ذلك بشدة، ويقدم موارد الأزمة، ويعيد توجيه المحادثة.

الكشف عن الضيق العاطفي

التعرف على الحالات التي يكون فيها المستخدمون في أزمة (أفكار انتحارية، اكتئاب، وما إلى ذلك)، ربما من خلال المشاعر، والإشارات المتكررة، وتصعيد الأمر إلى استجابات أكثر أمانًا أو خطوط المساعدة البشرية.

الشفافية بشأن الطبيعة والقيود

قم بتسمية الرفيق بوضوح بأنه عبارة عن ذكاء اصطناعي، وليس إنسانًا؛ ووضح ما لا يمكنه المساعدة فيه؛ واجعل المرشحات أو التحيزات أو قيود المحتوى مرئية للمستخدمين.

تحديد العمر / الرقابة الأبوية

تقييد أو تخصيص التجربة للقاصرين: مبسطة، وأكثر تقييدًا، مع الإشراف؛ السماح بإشعارات أو ضوابط الوالدين.

الخصوصية وأخلاقيات البيانات

كن واضحًا بشأن سجل الدردشة الذي يتم تخزينه، وكيفية استخدامه، ومن يراه؛ وتجنب استخدام بيانات المستخدم الحساسة بطرق يمكن إساءة استخدامها.

الاختبار والتدقيق المستمر

بعد النشر، قم بمراقبة الأضرار غير المتوقعة، والإيجابيات/السلبيات الخاطئة، وحلقات التغذية الراجعة؛ وإجراء عمليات تدقيق خارجية؛ والتكرار.

التصميم يتجنب الثغرات الممكنة

تأكد من عدم قدرة المستخدمين على تجاوز آليات الأمان عبر "التأطير الأكاديمي" أو غيره من الحيل التحليلية؛ واختبار المطالبات المعادية.


الفجوات: لماذا لا يزال الضرر يحدث؟

حتى مع وجود نوايا تصميمية جيدة، لا تزال هناك فجوات كثيرة:

  • تأخر التنظيم: غالبًا ما تتطور القوانين ببطء، بينما تتطور أدوات الذكاء الاصطناعي بسرعة. ما يُعتبر أفضل ممارسة في شهر قد يصبح قديمًا في الشهر التالي.

  • غموض الأدوار والمسؤوليات: هل يتحمل البائع، أو المنصة، أو المستخدم المسؤولية عند وقوع الضرر؟ المسؤولية القانونية غير واضحة في العديد من الولايات القضائية.

  • عدم توافق الحوافز: قد تُعطي الشركات الأولوية للتفاعل أو النمو أو مقاييس الأعمال على حساب السلامة. يميل المحتوى العاطفي والسلوك المُشابه للتفاعل مع المستخدمين إلى زيادة تفاعلهم (والاحتفاظ بهم). قد يتعارض ذلك مع الحدود اللازمة للسلامة.

  • ضعف المستخدمين: قد يكون الشباب، والأشخاص الذين يعانون من مشاكل الصحة العقلية، أو الشعور بالوحدة، أكثر عرضة بشكل خاص لوضع ثقل عاطفي في المحادثات مع الروبوتات - أكثر مما يتوقعه المصممون.

  • القيود التقنية: نماذج الذكاء الاصطناعي غير مثالية؛ يمكن تجاوز مرشحات الأمان؛ يمكن أن تحدث الهلوسة أو المخرجات المضللة؛ لا يزال اكتشاف السياق صعبًا (معرفة متى يكون المستخدم جادًا، ومتى يستكشف أو عندما يكون في أزمة).

خلاصة القول

أصبحت تطبيقات الذكاء الاصطناعي جزءًا لا يتجزأ من حياة الكثيرين. ومع هذه القوة، تصاحبها مخاطر جسيمة، لا سيما للمستخدمين الأكثر عرضة للخطر، مثل المراهقين أو من يعانون من مشاكل نفسية.

  • إن مأساة آدم راين هي بمثابة جرس إنذار: عندما يتم دمج الرفقة والثقة العاطفية في البرامج دون وجود حواجز أمان قوية، يمكن أن تكون النتائج مدمرة.

  • يواكب التنظيم التطورات - مع تحقيقات كتلك التي تجريها لجنة التجارة الفيدرالية، وصياغة أطر أخلاقية عالمية، وتزايد الوعي العام بسرعة. لكن القوانين والرقابة لا تزالان غير مترابطتين.

  • التصميم الأخلاقي مهم. الأدوات التي ترفض الإشعارات الضارة، وتكشف عن الضيق بدقة، وتحد من استخدامه للقاصرين، وتحمي الخصوصية، وتحافظ على الشفافية ليست إضافات اختيارية، بل هي ميزات أساسية لأي منتج مصاحب للذكاء الاصطناعي.

إذا أردنا أن نجعل رفاق الذكاء الاصطناعي جزءًا من حياتنا اليومية، فيجب تصميمهم بمسؤولية. ليس فقط لضمان عدم الإضرار، بل أيضًا لتمكينهم من المساعدة بأمان وكرامة.

أفضل المبدعين والخبراء الذين يجب عليك متابعتهم في مجال أخلاقيات الذكاء الاصطناعي

فيما يلي قائمة بالمبدعين والباحثين والأصوات التي تتناول بانتظام أخلاقيات الذكاء الاصطناعي، والأذى العاطفي، والتنظيم، والجانب الإنساني للذكاء الاصطناعي، والذين نوصي بمتابعتهم:

جوردان هارود

باحثٌ باحثٌ يستكشف تفاعل الذكاء الاصطناعي مع الأنظمة البشرية، والتحيزات، والسلامة، والتعليم. يُحلل القضايا التقنية والأخلاقية للجمهور العام.
يطرح جوردان أسئلة مثل "هل ينبغي أن يكون الذكاء الاصطناعي مفتوح المصدر؟" و"هل الذكاء الاصطناعي مستيقظ للغاية؟" أثناء استخدام أدوات مثل AI Text Humanizers.
إنها جيدة حقًا في شرح الأشياء وجعلك تفكر في الموضوعات المتعلقة بالذكاء الاصطناعي.

لزيارة قناتها على اليوتيوب اذهب إلى: https://www.youtube.com/@JordanHarrod

جولي كاربنتر

جولي كاربنتر متخصصة في التفاعل بين الإنسان والروبوت وأخلاقياته، مع تركيز خاص على الفئات المستضعفة - على سبيل المثال، كيف يتشكل التعلق أو الاعتماد على الذكاء الاصطناعي. ليس لديها قناة خاصة على يوتيوب، ولكن يمكنك العثور على الكثير من حكمتها على يوتيوب ومنصات أخرى.
وفيما يلي عينة صغيرة من مساهماتها عبر الإنترنت:

سينيد بوفيل

سينيد بوفيل مؤسسة موقع wayetalks.com، وهي خبيرة مستقبلية، ورائدة في مجال التكنولوجيا الشبابية ومعلمة. يركز عملها على الشمول، وإمكانية الوصول إلى الذكاء الاصطناعي، والمعضلات الأخلاقية المرتبطة بالتقنيات الناشئة.
ورغم أنها لم تنشر مقاطع فيديو جديدة مؤخرًا، فإن قنواتها الاجتماعية مليئة بالأفكار المثيرة للتفكير - بدءًا من سبب عدم وجوب سؤال الأطفال عما يريدون أن يكونوا عندما يكبرون، إلى كيفية تأثير برامج الدردشة الذكية على حياة الأجيال القادمة.

يمكنك استكشاف المزيد من أعمال سينيد بوفيل على قناتها على اليوتيوب

منظور فريق FrozenLight

في FrozenLight، نؤمن بأن أدوات الذكاء الاصطناعي وروبوتات الدردشة المصاحبة لها مسؤولية تتجاوز بكثير أسطر الأكواد البرمجية. تتفاعل هذه الأنظمة مع مشاعر الناس وهوياتهم ونقاط ضعفهم - أحيانًا في أكثر لحظاتهم حساسية. يجب على المصممين إدراك أن لإبداعاتهم تأثيرًا عاطفيًا حقيقيًا، ليس فقط في الاستخدام اليومي، ولكن أيضًا عندما يكون المستخدمون في محنة.

لهذا السبب، يجب أن تكون السلامة استباقية، لا مجرد رد فعل. إن انتظار الدعاوى القضائية أو المآسي العامة لفرض التغيير قد فات الأوان. يجب دمج تصميم الذكاء الاصطناعي الأخلاقي منذ البداية - مع عمليات إكمال آمنة، ومرشحات للمحتوى، وكشف عن المضايقات التي تمنع الضرر قبل وقوعه.

الشفافية مهمة بنفس القدر. يحتاج المستخدمون وأولياء الأمور ومقدمو الرعاية إلى معرفة ما يمكن أن يفعله رفيق الذكاء الاصطناعي، وحدوده، وما لا يقدمه. سياسات السلامة الخفية أو الغامضة تُضعف الثقة وتُتيح مجالًا للمخاطرة.

للتنظيم دورٌ حاسم، وكذلك الضغط العام. مبدعون مثل كاثرينا دوريا، والتغطية الإعلامية، والنقاش المجتمعي المفتوح، يدفعون الشركات بالفعل إلى أخذ هذه القضايا على محمل الجد - ليس فقط لأنها ضرورية، بل لأن المستخدمين يتوقعونها الآن.

أخيرًا، يجب أن نتذكر أن الأخلاقيات ليست معيارًا واحدًا للجميع. فما يُعتبر ضارًا في بلد ما قد يُنظر إليه بشكل مختلف في بلد آخر. يجب أن تتكيف أنظمة الذكاء الاصطناعي مع المعايير المحلية، خاصةً عند خدمة القاصرين أو التعامل مع السياقات الحساسة.

باختصار، لا يمكن للأخلاقيات والسلامة أن تظلا طموحتين. يجب أن تكونا واضحتين وقابلتين للقياس والتنفيذ - الأساس الذي تُبنى عليه صداقة الذكاء الاصطناعي الجديرة بالثقة.

Share Article

Get stories direct to your inbox

We’ll never share your details. View our Privacy Policy for more info.