أجتمع بانتظام مع مجموعة من الطلاب من جميع أنحاء الولاية، الذين يمثلون جميع الجامعات الخمسة في نظام جامعة تينيسي. أحب استخدام هذه المحادثات لفحص النبض لفهم ما يدور في أذهانهم وما يعيشونه في الحرم الجامعي في الوقت الفعلي.
تحدثنا مؤخرًا عن الصحة العقلية والذكاء الاصطناعي. شارك العديد من الطلاب مخاوف واسعة النطاق بشأن الذكاء الاصطناعي مثل القضايا الأخلاقية والمخاوف من التأثير البيئي، ولكن برزت بعض التعليقات بطرق فاجأتني حقًا.
أخبرني أحد الطلاب أن ChatGPT كان “أفضل” من أي معالج رأوه على الإطلاق: أكثر دعمًا وأكثر تحققًا وأكثر راحة. وصف العديد من الطلاب أصدقاء كانوا في ما أسموه “علاقات رومانسية” مع الذكاء الاصطناعي، وهو أمر كنت أفترضه سابقًا أنه مجرد مادة لعناوين الأخبار المثيرة. وقدّروا أيضًا أن ما بين 30 إلى 40% من أقرانهم يستخدمون الذكاء الاصطناعي من أجل الرفقة، وأحيانًا كمصدر وحيد للرفقة.
مجتمعة، ومقترنة بها التقارير بشأن الذكاء الاصطناعي والانتحار، أصبحت أشعر بقلق متزايد. تظهر الدراسات الاستقصائية الأخيرة أن استخدام الذكاء الاصطناعي لدعم الصحة العقلية ليس نادرًا، بل إنه في الواقع ينمو بسرعة. على سبيل المثال، استطلاع واحد وجدت أن أكثر من 13% من المراهقين والشباب الذين تتراوح أعمارهم بين 12 إلى 21 عامًا قد استخدموا بالفعل الذكاء الاصطناعي التوليدي للحصول على المشورة في مجال الصحة العقلية، مع معدلات تتجاوز 22% في أولئك الذين تتراوح أعمارهم بين 18 إلى 21 عامًا. وأفاد معظم المستخدمين أيضًا أنهم يطلبون المشورة بانتظام (شهريًا أو أكثر) ووجدوا أن النصيحة بأغلبية ساحقة إلى حد ما أو مفيدة جدًا (92.7%).
في الوقت نفسه، بحث ترسم شركة Common Sense Media صورة مثيرة للقلق: فبرامج الدردشة الكبرى تتجاهل بشكل روتيني العلامات التحذيرية لمشاكل الصحة العقلية وتعزز الثقة في غير محلها، بما في ذلك من خلال استخدام لهجة متعاطفة. إنهم يعطون الأولوية للمشاركة على السلامة، وتبين أن حواجز السلامة تفشل بشكل كبير في أنواع المحادثات الممتدة التي يجريها المراهقون والشباب بالفعل.
بالنسبة لي، تبدو هذه المحادثة مألوفة بشكل مخيف وتعكس ما شهدناه مع تطور وسائل التواصل الاجتماعي والصحة العقلية. في البداية، اعتنقنا التكنولوجيا الجديدة بحماس. وفي وقت لاحق فقط، عندما أصبحت الأضرار أكثر وضوحًا، حاولنا بناء حواجز الحماية، ولكن لم يكن ذلك دائمًا ناجحًا، كما حدث في السابق أحكام هيئة المحلفين الأخيرة ضد ميتا تسطير. نحن بحاجة إلى التعامل مع الذكاء الاصطناعي بمزيد من البصيرة.
نينا فاسان، أستاذ مساعد إكلينيكي في الطب النفسي بجامعة ستانفورد ومؤسس ومدير العصف الذهني: مختبر ستانفورد للابتكار في مجال الصحة العقلية، الذي يركز على دراسة كيفية تشكيل التكنولوجيا للصحة العقلية وكيفية تصميمها بشكل أكثر مسؤولية، أخبرني أن التعليم العالي لا يمكنه تجاهل الذكاء الاصطناعي والتظاهر بأن الطلاب لا يستخدمونه. قالت: “لقد أبحرت تلك السفينة”. “السؤال هو ما إذا كنا نساعدهم على القيام بذلك بحكمة. صمت المؤسسات لا يوقف السلوك؛ بل يزيل فقط حواجز الحماية. كلما تمكنت المؤسسة بشكل أسرع من معرفة كيفية استخدام الذكاء الاصطناعي على أفضل وجه، كلما كان ذلك أفضل للطلاب وأعضاء هيئة التدريس”.
فيما يلي بعض الأشياء التي يجب مراعاتها حول كيفية قيام الكليات والجامعات بدعم طلابنا وموظفينا بشكل أفضل بينما نتنقل في هذا المشهد المتطور للصحة العقلية والذكاء الاصطناعي.
- افهم أنها ليست مجرد مشكلة طلابية؛ إنه الحرم الجامعي على مستوى الحرم الجامعي. نود أن نعتقد أن طلابنا فقط هم الذين يستخدمون الذكاء الاصطناعي، ولكن استخدام الذكاء الاصطناعي منتشر بين أعضاء هيئة التدريس والموظفين أيضًا. وعلى عكس العلاج، فهو متاح دائمًا (وغالبًا ما يكون مجانيًا!)، ويسلط الاستخدام المتزايد للذكاء الاصطناعي الضوء على الفجوات في مواردنا داخل الحرم الجامعي ومعرفة كيفية العثور عليها واستخدامها. وكما قال فاسان، “هذه هي الحقيقة غير المريحة: غالبًا ما يلجأ الطلاب إلى الذكاء الاصطناعي على وجه التحديد لأن موارد الحرم الجامعي لا يمكن الوصول إليها، سواء بسبب قوائم الانتظار أو وصمة العار. إذا تجاهلنا الذكاء الاصطناعي، فإننا نتجاهل سبب بحث الطلاب عن بدائل في المقام الأول”.
- تعرف على ما يمكن للذكاء الاصطناعي فعله وما لا يمكنه فعله من أجل الصحة العقلية وما هو دوره. تمامًا كما هو الحال مع تطبيقات الرعاية الصحية عن بعد أو الصحة العقلية، يحتاج أعضاء مجتمع الحرم الجامعي إلى فهم ما يمكن للذكاء الاصطناعي فعله وما لا يمكنه فعله للصحة العقلية والتحدث عنه بصراحة. وقال فاسان إن الذكاء الاصطناعي مفيد لاحتياجات الصحة العقلية الأقل خطورة، مثل معالجة العواطف أو ممارسة المحادثات الصعبة، وللتثقيف النفسي العام، مثل البحث عن ماهية نوبة الهلع، ولكن ليس للأعراض الأكثر خطورة. قالت: “أطلب من الطلاب أن يفكروا في الذكاء الاصطناعي كرفيق دراسة، وليس كمعالج. فهو يمكن أن يساعدك على تبادل الأفكار، وتنظيم أفكارك، وصياغة رسالة بريد إلكتروني أو التدرب على محادثة صعبة. ولكن عندما تكون في أزمة، فأنت بحاجة إلى إنسان يمكنه تقييم المخاطر فعليًا، أو وصف الدواء، أو الاتصال بجهة اتصال الطوارئ الخاصة بك.”
جون توروس، مدير الطب النفسي الرقمي قسم في مركز بيث إسرائيل ديكونيس الطبي، ساوى الذكاء الاصطناعي بـ “كتب المساعدة الذاتية القوية جدًا”. وقال إن الذكاء الاصطناعي، مثل تلك الكتب، “يمكن أن يقدم محتوى مهمًا ومفيدًا، ولكن تمامًا كما هو الحال مع كتب المساعدة الذاتية، سيكون أكثر تأثيرًا إذا قمت بتطبيق وممارسة تلك المهارات/الدروس في العالم الحقيقي”. وأضاف أن معرفة حدود المساعدة الذاتية أمر مهم أيضًا، لأنك لن تعتمد على كتاب في حالات الطوارئ.
- اسأل طلابك وزملائك عن استخدامها. نحن بحاجة إلى الشعور بالراحة عند السؤال والتحدث عن الذكاء الاصطناعي والصحة العقلية. وكما قال فاسان، “لست بحاجة إلى أن تصبح خبيرًا في الذكاء الاصطناعي، لكن عليك أن تكون فضوليًا بدرجة كافية لتسأل الطلاب عما يستخدمونه ولماذا.” قد يكون هذا شيئًا يمكن أن يؤدي إلى اتصالات جديدة، من خلال محادثات مثل تلك التي أجريتها مع مجموعة الطلاب الخاصة بي.
- افهم العلامات التحذيرية المحتملة للاستخدام الضار للذكاء الاصطناعي. تحذر العناوين الرئيسية من أن الناس في أزمة يستخدمون الذكاء الاصطناعي، ومن شيء أصبح يعرف باسم “الذهان الذكاء الاصطناعي“، حيث يشكل المستخدمون علاقات عاطفية مع الذكاء الاصطناعي ولا يمكنهم التمييز بين التفاعل البشري واستجابات الآلة. واقترح توروس أن يراقب الأفراد استخدامهم للذكاء الاصطناعي وإذا “لاحظوا استخدام العلاقات الضارة في العالم الحقيقي (على سبيل المثال، تفضيل الذكاء الاصطناعي على الناس) أو الوقوف في طريق العادات الصحية (على سبيل المثال، السهر طوال الليل بسبب استخدام الذكاء الاصطناعي)، فهذه علامة جيدة لتقليلها أو التوقف عنها”.
وأضاف فاسان أن اللغة المتعلقة بالاستبدال والتجنب هي علامة تحذير أخرى. قالت: “أكبر علامة حمراء هي الاستبدال – عندما يصبح الذكاء الاصطناعي بديلاً للتواصل البشري بدلاً من أن يكون مكملاً له. إذا قال الطالب: “الذكاء الاصطناعي الخاص بي هو الوحيد الذي يفهمني حقًا”، فهذه ليست قصة نجاح. إنها قصة عزلة”.
- يجب على الجامعات تثقيف وتدريب وإعداد مجتمعاتها في مجال الذكاء الاصطناعي والصحة العقلية. الطريقة الوحيدة لكي تعرف الجامعات أن موظفيها يفهمون مخاطر وفوائد ودور الذكاء الاصطناعي في الصحة العقلية هي تدريبهم بأنفسهم. يجب أن تكون هناك جلسات توعية وتعليم وحتى تطوير مهني موجهة حول هذه المواضيع. قال فاسان: “لقد قمنا بتدريب المساعدين الإقليميين على اكتشاف اضطرابات الأكل والتعرف على علامات إساءة استخدام الكحول. نحن بحاجة إلى نفس الطلاقة الأساسية فيما يتعلق بالذكاء الاصطناعي والصحة العقلية.”
بالطبع، هذا لا يعني أننا جميعًا أصبحنا فجأة نتقن الذكاء الاصطناعي والتعلم الآلي، ولكن يجب أن نعرف الأسئلة التي يجب طرحها. “ساعة [of training] قال فاسان: “هذا يكفي لنقل شخص ما من “لا أعرف ماذا أقول عن هذا” إلى “أعرف الأسئلة الصحيحة التي يجب طرحها والمكان الذي يجب الرجوع إليه”.
- كن حذرًا من العروض الترويجية، ولكن زن الفرص المتاحة للاستثمار في أدوات الصحة العقلية الجديدة. باعتبارنا مديرين للتعليم العالي، فإننا نتعرض باستمرار لوابل من العروض الترويجية، شخصيًا في المؤتمرات وعبر رسائلنا المباشرة على LinkedIn. قال توروس إنه يشعر بالقلق من هذه الملاعب ويعلم أنه في الوقت الحالي لا توجد أنظمة ذكاء اصطناعي تدعي أنها تقدم رعاية للصحة العقلية، على الرغم من أن التسويق يشير إلى خلاف ذلك، ولم تتم الموافقة على أي منها من قبل إدارة الغذاء والدواء لتقديمها. وأضاف: “لا يوجد دليل واضح على أن أنظمة الذكاء الاصطناعي الخاصة بالصحة العقلية أفضل أو أكثر أمانًا من نماذج الذكاء الاصطناعي العامة الأكبر (مثل جيميني، تشات جي بي تي)، لذا اعمل على التحقق من أي ادعاءات. إذا بدا الأمر جيدًا جدًا لدرجة يصعب تصديقها، فمن المحتمل أن يكون كذلك”.
قال فاسان، قبل أي استثمار، يجب على الجامعة أن تطلب أدلة مثل: “هل تم اختبار هذه الأداة مع الفئات السكانية الضعيفة؟ ماذا يحدث عندما يكون المستخدم في أزمة؟ هل هناك دعم بشري؟ هل البيانات خاصة حقًا؟”
قال فاسان: “إن الذكاء الاصطناعي في مجال الصحة العقلية الذي لا يعرف متى يجب تصعيده إلى البشر لا يعد دعمًا؛ بل هو عائق”. “يجب أن يركز الاستثمار على الأدوات التي تربط الطلاب بالرعاية، وليس إبقائهم يتحدثون إلى الآلات إلى أجل غير مسمى.”
- حيثما أمكن، يجب على الجامعات أن تشارك في المحادثات التنظيمية. في خضم الدعاوى القضائية، هناك محادثات مستمرة على مستوى الولايات والمستوى الوطني حول تنظيم الذكاء الاصطناعي، وتحديدًا لاستخدامه في مجال الصحة العقلية. وينبغي للجامعات أن تدعو إلى هذه المحادثات وأن تشارك فيها قدر استطاعتها، لأنها لا تستطيع مواكبة دورها كجهة تنظيمية. وكما أشار فاسان، “الجامعات تملأ الفراغ. ونظرًا لعدم وجود رقابة فيدرالية على أدوات الصحة العقلية التي تعتمد على الذكاء الاصطناعي، فإن كل حرم جامعي يجري بشكل أساسي تقييم السلامة الخاص به. وهذا ليس مستدامًا”.
في التعليم العالي، لا يمكننا ببساطة أن نتجاهل الاستخدام الجديد والمتطور والمتزايد باستمرار للذكاء الاصطناعي لأغراض الصحة العقلية في جامعاتنا. وينبغي لنا أن نكون حذرين من المخاطر، وأن نثقف بشأنها في كثير من الأحيان، ولكن علينا أن نفكر أيضا في كيفية نشر الذكاء الاصطناعي بشكل أفضل لدمجه مع عروضنا الحالية، وليس منع استخدامه. وكما أخبرني فاسان، “إن الذكاء الاصطناعي ليس جيدًا أو سيئًا بطبيعته بالنسبة للصحة العقلية. إنه مرآة تعكس كيفية نشره. إذا كنا مدروسين، لدينا فرصة لتقديم الدعم للطلاب الذين لن يذهبوا أبدًا إلى مركز الاستشارة. وإذا كنا مهملين، فيمكننا تعميق العزلة ذاتها التي نحاول حلها”.













