Home أخبار عالمية يجب على التعليم العالي ألا يسمح للذكاء الاصطناعي بكتابة الحجة لحتميته

يجب على التعليم العالي ألا يسمح للذكاء الاصطناعي بكتابة الحجة لحتميته

4
0
يجب على التعليم العالي ألا يسمح للذكاء الاصطناعي بكتابة الحجة لحتميته

إلى المحرر،

راي شرودر “ماذا نعلم الآن؟” (1 أبريل 2026) يطرح سؤالاً عاجلاً. لكن هذا العمود يمنح الكثير من السلطة للأنظمة والشركات التي تحتاج إلى التدقيق أكثر من اللازم. إنه ينتقل من OpenAI قيمة الناتج المحلي الإجمالي معيارًا للتفسير الذي تم إنشاؤه بواسطة Gemini لـ “الواقع حتى الآن في عام 2026” قبل الرجوع مرة أخرى إلى Gemini للحصول على توصيات حول ما يجب على الكليات تدريسه. إن الانتقال من معيار البائع إلى التحليل الناتج عن الذكاء الاصطناعي ووصف المناهج الدراسية ليس استفسارًا بالغ الأهمية. إنه الاستعانة بمصادر خارجية معرفية: السماح للأنظمة الخاضعة للتدقيق برواية ضرورتها الخاصة.

لا تكمن المشكلة في أن العمود يأخذ الذكاء الاصطناعي على محمل الجد؛ يجب أن يأخذ التعليم العالي الذكاء الاصطناعي على محمل الجد. وتكمن المشكلة في أنها تخطئ في الوصفة الطبية المولدة آليًا للحكم البشري والتسريع في تحديد المصير. عندما يُطلب من جيميني وصف الظروف الحالية ووصف المنهج الدراسي، فإن العمود يفعل أكثر من مجرد الإبلاغ عن صعود الذكاء الاصطناعي؛ فهو يتيح للتكنولوجيا أن تدافع عن مركزيتها الخاصة.

يقتبس العمود أيضًا الأرقام الصادرة عن جيميني حول إعادة تصميم الوظائف في المؤسسة ومعدل البطالة دون تحديد المصادر أو الأساليب التي تقف وراءها. الخصوصية الرقمية تضفي على مثل هذه الادعاءات سلطة مستعارة. عند النقطة التي تحتاج فيها الحجة إلى نقد المصدر والشفافية المنهجية، يُطلب من القراء قبول الأرقام المولدة آليًا كما لو كانت أدلة ثابتة.

حتى وفقًا لشروط المؤشر القياسي، فإن إجمالي الناتج المحلي أضيق مما يسمح به العمود. وكما لاحظ شرودر، فإن OpenAI تقدم الناتج المحلي الإجمالي كمعيار للمهام ذات المعنى الاقتصادي، مع الاعتراف بحدوده وتكراره في المستقبل. قد يكون هناك معيار مرجعي للمناقشة؛ ولا يمكنها تحديد ما تدين به المؤسسات للطلاب، أو ما هي العمالة التي يجب أن تظل بشرية، أو ما هي الخسائر المقبولة باسم الكفاءة – خاصة عندما يشير العمود إلى أن أضرار الأتمتة لن يتم تحملها بالتساوي.

إن مهمة التعليم العالي لا تقتصر ببساطة على تخريج خريجين “مقاومين للذكاء الاصطناعي” وقادرين على تنسيق الأدوات والتحقق من المخرجات. ويجب عليها أيضًا أن تطرح أسئلة إنسانية أصعب: ما الذي يجب أن يبقى إنسانيًا؟ ما هي أشكال الحكم والرعاية والتفسير والثقة التي لا ينبغي تحسينها بعيدًا؟ التدريس ليس مجرد توصيل المحتوى. الكتابة ليست مجرد إنتاج نص. النصح ليس التوجيه. علم المكتبات ليس استرجاعا. هذه ليست إضافات هامشية؛ إنها ممارسات يتعلم الطلاب من خلالها الحكم والمساءلة والمسؤولية تجاه الآخرين.

يجب على الكليات تعليم الطلاب كيفية استجواب الذكاء الاصطناعي والتحقق من ادعاءاته وفهم حدوده. ولكن يجب عليهم أيضًا الاحتفاظ بالحق في تقييد أو رفض استخدام الذكاء الاصطناعي عندما يكون الحكم البشري جزءًا من العمل نفسه: تقديم المشورة، والتعليقات على كتابات الطلاب، والاستشارات البحثية وغيرها من أشكال العمل التعليمي العلائقية. السؤال ليس فقط ما نعلمه الآن ولكن أيضًا ما نختار عدم تشغيله تلقائيًا. ويجب على التعليم العالي ألا يسمح للذكاء الاصطناعي بكتابة الحجة التي تؤكد حتميته.

ويت سالي هو عضو هيئة تدريس مساعد في نظام جامعة ميريلاند، وأمين مكتبة في المكتبات العامة في مقاطعة مونتغومري، ورئيس سابق لمسؤولي التعلم عبر الإنترنت.

Source

LEAVE A REPLY

Please enter your comment!
Please enter your name here