طلاب جامعة نورث إيسترن يتحدثون بصراحة. اكتشفوا أن أستاذهم استخدم برنامج ChatGPT لإنشاء مواد دراسية دون أن ينطق بكلمة. وجدت إيلا ستابلتون، الطالبة في السنة الأخيرة، مواضيع ذكاء اصطناعي مدمجة في شرائح محاضراتها. بالنسبة لها، الأمر لا يتعلق بالتكنولوجيا فحسب، بل بالثقة أيضًا. إنها تنفق مبالغ طائلة للحصول على شهادتها، وتتساءل الآن إن كانت تحصل على تعليم إنساني حقيقي.

أثار هذا الاكتشاف جدلاً أوسع. يستخدم الأساتذة الذكاء الاصطناعي لتبسيط عملهم وتعزيز كفاءة التدريس. في الوقت نفسه، يُطلب من الطلاب تجنب استخدام الأدوات نفسها. تُرتجل المدارس دون قواعد واضحة أو اتساق، مما يترك الجميع في حيرة من أمرهم ويتساءلون عمّا هو عادل.

حادثة جامعة نورث إيسترن ليست سوى غيض من فيض. ففي جميع المجالات، تُصارع المؤسسات التعليمية دور الذكاء الاصطناعي. فبدون إرشادات واضحة، يُترك الطلاب وأعضاء هيئة التدريس في حالة من الارتباك، كلٌّ منهم غير متأكد مما هو مسموح به وما هو غير مسموح به.

ماذا تقول الجامعة

تسعى الجامعات للاستفادة من مزايا الذكاء الاصطناعي دون سلبياته. لكن سياساتها متباينة. يمكن للأساتذة استخدام الذكاء الاصطناعي لإعداد الدروس، بينما يواجه الطلاب اتهامات بالغش لمحاولتهم ذلك. ما المنطق هنا؟ إنه غير منطقي تمامًا. إذا كان الذكاء الاصطناعي بمثابة مساعد ذكي للمعلمين، فلماذا يُعتبر تهديدًا عندما يستخدمه الطلاب؟

في الوقت الحالي، تتهرب المدارس من هذه الحوارات الهامة. وهذا الصمت؟ إنه يبني جدارًا من انعدام الثقة بين الطلاب والمؤسسات. وبدون حوار مفتوح، تستمر الفجوة في الاتساع.

على الجامعات أن تُكثّف جهودها وتُعالج هذه التناقضات بشكلٍ مباشر. فمن خلال التواصل المُنفتح مع الطلاب وأعضاء هيئة التدريس، يُمكنها وضع سياساتٍ عادلةٍ وشفافةٍ تُطبّق على الجميع.

ماذا يعني ذلك (بالكلمات البشرية)

لا يقتصر الأمر على فصل دراسي أو مدرسة واحدة، بل هو صراعٌ على مستوى النظام التعليمي لتحديد دور الذكاء الاصطناعي في التعليم . أما الطلاب؟ فهم مُهمَلون. فمع غياب الحدود الواضحة، تبدو الفصول الدراسية أشبه بألعاب التخمين منها بيئات تعليمية حقيقية.

تُكافح المؤسسات التعليمية لوضع قواعد واستراتيجيات واضحة لدمج الذكاء الاصطناعي. فبدونها، سيُترك الجميع في حيرة من أمرهم، وستكون نزاهة التعليم على المحك.

من الضروري للمدارس أن تضع نهجًا متماسكًا يتيح للجميع الاستفادة من الذكاء الاصطناعي بمسؤولية. يجب أن يكون المعلمون والطلاب على وفاق لتجنب أي سوء فهم وضمان بيئة تعليمية متوازنة.

خلاصة القول

متى؟ يحدث هذا الآن، ولا يوجد حل في الأفق.

ما الذي ينقصنا؟ قواعد واضحة ومشتركة للذكاء الاصطناعي للجميع.

منظور فريق الضوء المتجمد

لنسمِّ هذا الأمر بمسماه الحقيقي: معايير مزدوجة. الأساتذة يستخدمون الذكاء الاصطناعي سرًا، والطلاب يُعاقَبون على فعل الشيء نفسه علنًا.

لسنا هنا للتحيز، بل لطرح الأسئلة الحقيقية: إذا استخدم أستاذك ChatGPT لبناء مقررك الدراسي، فهل تتعلم منه أم من الذكاء الاصطناعي؟ لنقلب الأمر: عندما تستخدم الذكاء الاصطناعي في عملك، هل تبقى ملكًا له، أم أنك تنسخه فقط؟

الأمر لا يقتصر على القواعد فحسب، بل يتعلق بكيفية إعادة تشكيل الذكاء الاصطناعي لكيفية تعلمنا وعملنا وإبداعنا. ليس الذكاء الاصطناعي هو المشكلة، بل الارتباك. ويبدأ ذلك عندما لا يمتلك أحد الشجاعة الكافية ليقول: "لنكتشف هذا معًا".

نحن لا نصدر أحكامًا، بل نفتح بابًا للحوار. هذا هو هدف "الضوء المتجمد". 💡

Share Article

Get stories direct to your inbox

We’ll never share your details. View our Privacy Policy for more info.