لم تعد أدوات الذكاء الاصطناعي مجرد محرك بحث بسيط نسبيًا مدفوعًا بمقاييس التسويق لمساعدتنا في إجراء أبحاثنا. بدلاً من ذلك، باستخدام الذكاء الاصطناعي، نستخدم أدوات أكثر تطوراً لإجراء الأبحاث والبحث عن إجابات لمطالبنا أثناء اتخاذ قرارات اختيار المصدر والإعدادات السياقية والدقة الدلالية التي تؤثر على القيم المعبر عنها في النتائج.
وكما ذكرت سابقًا في هذه الأعمدة، فإنني في أغلب الأحيان أطلب مدخلات من الإصدار الحالي لكل نموذج من النماذج الحدودية الثلاثة عند إجراء الأبحاث. يسمح لي نهج وجهات النظر الثلاث بمسح مجموعة متنوعة من المصادر ووجهات النظر وموازنة المخرجات لمعالجة وجهات النظر الأخلاقية والاجتماعية. في حالة هذه المقالة، قمت بالارتباط التشعبي مباشرة أسفل استجابات البحث الأساسي التي حصلت عليها من المطالبات في 19 أبريل.
نموذج التفكير ChatGPT 5.4 “في التعليم العالي، نموذج الذكاء الاصطناعي المفضل أخلاقيا ليس بالضرورة هو النموذج الأقوى؛ بل هو النموذج الذي يؤدي أداء جيدا بما فيه الكفاية لحالة الاستخدام في حين يقدم أقوى دليل على التصميم الذي يركز على الإنسان، والشفافية، واختبار السلامة، والقدرة على التحكم المؤسسي.”
كلود سونيت 4.6 النموذج التكيفي اقترح أن “اختيار نموذج الذكاء الاصطناعي أصبح الآن عملاً أخلاقياً، وليس مجرد عمل تقني. لقد تحول المجال من “هل ينجح هذا؟” إلى “هل هذا يخدم؟” يمكن أن يساعد عمودك العمداء ورؤساء الأقسام على أن يصبحوا مستهلكين أخلاقيين مطلعين، وليس مهندسي الذكاء الاصطناعي، بل مشرفين مهمين.
الجوزاء 3 نموذج التفكير “بالنظر إلى عملك الأخير بشأن تعظيم العائدات في إدارة الذكاء الاصطناعي، فإن تحويل التركيز نحو “قيم R” (العائد على القيم) يعد تطورًا ضروريًا وفي الوقت المناسب لمحادثة التعليم العالي.”
قبل أن ننظر إلى القيم والتوجهات الافتراضية المتأصلة في بعض نماذج الذكاء الاصطناعي الرائدة، اسمحوا لي أن أذكركم أنه عند صياغة مطالبتك، يمكنك تشجيع الأداة على التركيز على توليد استجابات تتضمن توجهات ووجهات نظر تتناول الاعتبارات الأخلاقية. يمكن للموجه الخاص بك توجيه النموذج لتقديم نتائج تستكشف الحلول والأمثلة المؤيدة للمجتمع أو التي تركز على الإنسان أو تسلط الضوء عليها أو تؤكد عليها. وبمرور الوقت، إذا قمت بتضمين مثل هذه التوجيهات في مطالباتك، فإن النماذج الأكثر تعقيدًا التي تحتفظ بذاكرة مطالباتك السابقة سوف تعلم أنك مهتم بهذه القيم. إذا لم يتم تضمين وجهات نظرك المفضلة، فيمكنك تحسين الاستجابات من خلال تضمين طلب في مطالبة متابعة متكررة.
كورنيليا سي فالتر هو باحث زائر في كلية وارتون بجامعة بنسلفانيا وممارس في المجال الإنساني قضى أكثر من 20 عامًا في الأمم المتحدة. تركز أبحاثها على الاستفادة من الذكاء الاصطناعي لتحقيق الصالح الاجتماعي. يلاحظ فالتر في طبعة حديثة من المعرفة في وارتون أن معظم الأبحاث حول نماذج الذكاء الاصطناعي تتم “حصريًا من خلال عدسة مكاسب الكفاءة، وخفض التكاليف، وزيادة الإيرادات”. ومع ذلك، يقول فالتر: “إن لوحات المعلومات الحالية لا توضح ما إذا كان نظام الذكاء الاصطناعي عادلاً، وما إذا كان يؤدي إلى تآكل الثقة أو بناءها، وما إذا كان يزيد من قدرة الأشخاص الذين يستخدمونه أو يقلل من مهاراتهم بهدوء، وما إذا كان يتم أخذ بصمته البيئية في الاعتبار أم يتم تجاهلها ببساطة”.
في أواخر الصيف الماضي، نشر فالتر مقالاً في مجلة فوربس بعنوان “لماذا يعتبر الذكاء الاصطناعي ProSocial AI ProPlanetary. وعد للوئام الكوكبي“حيث أوضحت مجموعة من عناصر تقييم الذكاء الاصطناعي التي يمكن استخدامها لتحديد مدى الحساسية للصالح الاجتماعي. وتشير فالتر إلى أن الذكاء الاصطناعي المؤيد للمجتمع “لا يقتصر فقط على جعل الذكاء الاصطناعي أكثر فائدة أو أخلاقية. يتعلق الأمر بإنشاء تكنولوجيا تكون في نفس الوقت مؤيدة للناس، ومؤيدة للكوكب، ومؤيدة للإمكانات.”
وهي تشير إلى مؤشر سلامة الذكاء الاصطناعي لعام 2025 من معهد مستقبل الحياة كمثال مبكر لمثل هذا التقييم. في هذا المؤشر، ومن بين سبعة من أكبر النماذج، حصلت شركة Anthropic على درجة C-plus مع 2.64، وOpenAI a C مع 2.10، وGoogle DeepMind على C-minus مع 1.76. والجدير بالذكر أن DeepSeek سجل درجة F بـ 0.37.
إذا كنت تسعى إلى إلقاء نظرة فاحصة على أدوات الذكاء الاصطناعي التي تستخدمها، بما في ذلك الأدوات المخصصة التي قد تستخدمها جامعتك لأغراض محددة، يقترح فالتر استخدام العناصر الرئيسية المؤيدة للمجتمع لإنشاء شبكة رباعية في أربعة. وتفصيل هذه العناصر في المعرفة في وارتون شرط:
ال 4 تي
- مصمم خصيصًا: هل نظام الذكاء الاصطناعي مصمم للسياق المحدد وثقافة وقيود مستخدميه – وليس نسخًا ولصقًا من قالب عام؟
- المدرب: هل النظام مبني على بيانات وأهداف تمثيلية وشاملة ترمز القيم التي تريد المنظمة بالفعل تعزيزها، وليس مقاييس بديلة ملائمة فقط؟
- تم اختباره: هل تم تقييمه بدقة من حيث التحيز والقوة والعواقب غير المقصودة – قبل النشر وبشكل مستمر بعد ذلك؟
- المستهدف: هل يتم تطبيقه عندما يضيف الذكاء الاصطناعي قيمة حقيقية ويتم حجبه – عمدًا – عندما يكون الحكم البشري غير قابل للاستبدال؟
الـ 4 ف
- الغرض: هل يعمل النظام على تعزيز المهمة التي يمكن لجميع أصحاب المصلحة أن يفخروا بها، بعد الدورة ربع السنوية القادمة؟
- الناس: هل يعمل على تحسين تجربة وفعالية ورفاهية كل من يبنيه ويستخدمه ويتأثر به؟
- الربح: هل يولد قيمة مالية دائمة، ليس عن طريق تحميل التكاليف على المجتمع، ولكن عن طريق خلق قيمة حقيقية؟
- الكوكب: هل يتم احتساب استهلاكه للطاقة، وبصمة المواد، وتأثيره البيئي النظامي، أم تقليله بشكل فعال؟
يقترح فالتر تجميع فريق قيادة جاهز للعمل الآن. نقطة الدخول هي الاحتكاك المنخفض عمدا. اختر أحد أنظمة الذكاء الاصطناعي قيد الإنتاج حاليًا، مثل برنامج الدردشة الآلي الذي يتعامل مع العملاء، أو أداة فحص التوظيف أو نموذج التنبؤ بالطلب، واعقد ورشة عمل متعددة الوظائف مدتها 90 دقيقة مع ممثلين من التكنولوجيا والموارد البشرية والمالية والشؤون القانونية والاستدامة. من خلال العمل من خلال شبكة رباعية في أربعة مكونة من 16 خلية من المصفوفة معًا، قم بتسجيل كل واحدة على نظام إشارة مرور بسيط: أخضر (قوي)، أو كهرماني (في طور النمو)، أو أحمر (غير متوافق).
لا تحتاج إلى مستشار أو منصة برمجية جديدة للقيام بذلك. أنت بحاجة إلى الصدق الفكري، والرغبة في التصرف بناءً على ما تجده، والاقتناع بأن المؤسسات التي تزدهر في عصر الخوارزميات ستكون تلك التي تتمتع بالحكمة اللازمة لاتخاذ القرار، أولاً، ما الذي يستحق إدارته، ثم بناء الأدوات المناسبة لمطابقته. تلك المحادثة التي تستغرق 90 دقيقة هي المكان الذي يبدأ فيه التحول من “تقدير ما يمكنك قياسه” إلى “قياس ما يجب أن تعتز به”.
إذا كانت مهمتك أو أهدافك على مستوى المؤسسة تتضمن قيمًا أخلاقية أو تتمحور حول الإنسان أو مؤيدة للمجتمع، فيجب عليك تقييم أدوات الذكاء الاصطناعي التي لا ترقى إلى مستوى القيم الجماعية، ومعالجتها عند الضرورة. هل أنت مستعد لقيادة المبادرة للبدء في معالجة التوجه الاجتماعي لأدوات الذكاء الاصطناعي التي تستخدمها في جامعتك أو قسمك أو كليتك أو مدرستك أو قسمك؟













