تعمل كارلا ويل، مديرة مكتبة غالاغر القانونية في كلية الحقوق بجامعة واشنطن، على تطوير تدريب اختياري على أخلاقيات الذكاء الاصطناعي لطلاب كليات الحقوق.
إخفاء التسمية التوضيحية
تبديل التسمية التوضيحية
عندما يتعلق الأمر باستخدام الذكاء الاصطناعي، يبدو أن بعض المحامين لا يستطيعون مساعدة أنفسهم.
شهد العام الماضي زيادة سريعة في عقوبات المحكمة ضد المحامين لتقديمهم مذكرات تحتوي على أخطاء ناتجة عن أدوات الذكاء الاصطناعي. ال القضية الأبرز كان هذا هو محامو مايك ليندل، الرئيس التنفيذي لشركة MyPillow، الذين تم تغريمهم بمبلغ 3000 دولار لكل منهم بسبب تقديم ملخصات تحتوي على استشهادات وهمية تم إنشاؤها بواسطة الذكاء الاصطناعي.
لكن كقصة تحذيرية، لا يبدو أن لها تأثيرًا كبيرًا.
يقول داميان شارلوتين، الباحث في كلية إدارة الأعمال HEC Paris الذي يحتفظ بسجل: “في الآونة الأخيرة، كانت لدينا 10 قضايا من 10 محاكم مختلفة في يوم واحد”. حصيلة في جميع أنحاء العالم من الحالات التي فرضت فيها المحاكم عقوبات على الأشخاص لاستخدام معلومات خاطئة تم إنشاؤها بواسطة الذكاء الاصطناعي.
يقول: “لدينا هذه المشكلة لأن الذكاء الاصطناعي جيد جدًا، لكنه ليس مثاليًا”.
بدأت الأرقام في الارتفاع العام الماضي، ويقول شارلوتين إن المعدل لا يزال في ازدياد. ويبلغ إجمالي عددهم أكثر من 1200 حتى الآن، منهم حوالي 800 من المحاكم الأمريكية.
ويقول إن العقوبات آخذة في الارتفاع أيضًا. ربما تكون محكمة فيدرالية قد سجلت رقماً قياسياً جديداً الشهر الماضي بـ أمر لمحامي في ولاية أوريغون بدفع 109.700 دولار كعقوبات وتكاليف لتقديم الأخطاء الناتجة عن الذكاء الاصطناعي.
حتى أن الإحراجات المهنية تحدث على مستوى المحاكم العليا في الولاية.
استجوبت المحكمة العليا في نبراسكا المحامي جريج ليك، ومقره أوماها، في فبراير/شباط الماضي، بشأن ملخص يحتوي على استشهادات بقضايا وهمية. وقال للقضاة لقد قام عن طريق الخطأ بتحميل مسودة عمل من جهاز كمبيوتر تعطل لاحقًا، ونفى أنه استخدم الذكاء الاصطناعي. لم يقتنعوا و أحاله للتأديب. في شهر مارس، حدث مشهد محرج مماثل في المحكمة العليا في جورجيا.
تقول كارلا ويل، العميد المساعد للمعلومات والتكنولوجيا ومديرة مكتبة القانون في كلية الحقوق بجامعة واشنطن: “أنا مندهش من أن الناس ما زالوا يفعلون ذلك عندما كان ذلك في الأخبار”. إنها تصمم تدريبًا خاصًا في أخلاقيات الذكاء الاصطناعي للطلاب المهتمين. لكنها تقول أيضًا إن القواعد الأخلاقية لم يتم تسويتها بالكامل.
“لا أعتقد أن هناك إجماعًا أبعد من ذلك، عليك التأكد من صحته”. وتقول: “وبالنسبة لنا، هذا هو خط الأساس”.
عندما يواجه المحامون مشكلة في استخدام الذكاء الاصطناعي، فذلك لأنهم انتهكوا القاعدة طويلة الأمد التي تحملهم المسؤولية عن دقة ملفاتهم، بغض النظر عن كيفية إنشائها.
“مهما كانت أداة الذكاء الاصطناعي التوليدية التي تقدمها لك – كما في “انظر إلى هذه الحالات” – فإنك، بموجب قواعد السلوك المهني، أنت يجب أن تقرأ تلك الحالات. عليك أن تقرأ الحالات للتأكد من دقة ما تستشهد به،” تقول ويل، وهي تنقر على مكتبها للتأكيد.
وقد ذهبت بعض المحاكم إلى أبعد من ذلك، حيث وضعت قواعد أخلاقية أكثر اتساعًا تتطلب من المحامين القيام بذلك قم بتسمية أي شيء قاموا بإنتاجه باستخدام الذكاء الاصطناعي، مع التفاصيل. الهدف هو تسهيل معرفة الملخصات التي يجب التحقق منها بحثًا عن الهلوسة والحفاظ على خط واضح بين ما ينتج عن البشر وما لا ينتج.
“أظن [labeling rules] يقول المحامي الذي تحول إلى صحفي جو باتريس: “إنهم يتمتعون بحسن النية وسيتم إغراقهم باعتبارهم عديمي الفائدة بسرعة كبيرة”. وهو كبير محرري الموقع. فوق القانون، حيث يكتب عن كيفية “إجبار” أدوات الذكاء الاصطناعي، كما يراها، على جميع البرامج التي يستخدمها المحامون تقريبًا.
“سيصبح الأمر مندمجًا جدًا في كيفية عمل كل شيء، بحيث تمتثل بجدية للقاعدة، سيتعين عليك وضع كل ما تضعه، “مرحبًا، هذا مدعوم بالذكاء الاصطناعي”، وعند هذه النقطة يصبح الأمر مسعى عديم الفائدة نوعًا ما،” كما يقول.
يقول باتريس إن الذكاء الاصطناعي مفيد بلا شك في تمشيط كميات هائلة من الأدلة أو السوابق القضائية أو التعامل مع العقود. لكنه يشعر بالقلق من الجيل القادم من المنتجات التي يتم تسويقها للمحامين – الأنظمة “الوكيلة” التي تعرض القيام بالمهام القانونية من البداية إلى النهاية.
ويقول: “أعتقد أنه بمجرد حجب تلك الخطوات الوسطى، فهذا هو المكان الذي تحدث فيه الأخطاء. وحتى الأشخاص ذوي النوايا الحسنة وغير الكسالى سيخسرون الأشياء لأنهم لم يشاركوا في هذه العملية”.
وعلى نطاق أوسع، يقول إنه مع قيام أدوات الذكاء الاصطناعي بتسريع بعض المهام التي تستغرق وقتًا طويلاً، فإنها تهدد نموذج أعمال شركات المحاماة التقليدية المتمثل في ساعات العمل القابلة للفوترة.
يقول باتريس: “هناك خياران. يمكن للمحامين الاتفاق على أخذ مبلغ أقل – التوقف للضحك – أو يمكنهم البدء في إيجاد طريقة جديدة للفوترة. وأعتقد أنهم سيبدأون على الأرجح عملية إعداد فواتير لهذا البند”.
إذا حدث ذلك، فقد يزيد من ضغط الوقت على المحامين ويزيد من إغراءهم لقبول المسودة الأولى لما يصدره الذكاء الاصطناعي.
“ثم إنه سؤال حقيقي: هل تبطئ نفسك للحصول على وقت التفكير الطبيعي؟” يسأل باتريس. “الأجيال القادمة التي ستنشأ في عالم حيث يكون هذا دائمًا حقيقة واقعة، هل تعرف كيف تتوقف وتفكر في المشكلة؟ وهذا أمر مثير للقلق.”
يشارك وايل قلق باتريس بشأن التآكل المحتمل للمهارات التحليلية للمحامين في المستقبل. لكنها ترفض أيضًا أسوأ التوقعات، التي تتنبأ بوجود نظام قانوني آلي يحل فيه الذكاء الاصطناعي محل المحامين البشريين.
وتقول: “أعتقد أن المحامين الذين يفهمون كيفية استخدام الذكاء الاصطناعي التوليدي بشكل فعال وأخلاقي يحلون محل المحامين الذين لا يفعلون ذلك”. “هذا ما أعتقد أن المستقبل.”
وفي هذه الأثناء، ضل الذكاء الاصطناعي نفسه في مرمى مهنة المحاماة. في شهر مارس، تم رفع دعوى قضائية ضد شركة OpenAI، الشركة المصنعة لـ ChatGPT، من قبل شركة Nippon Life Insurance Company of America في المحكمة الفيدرالية في إلينوي. تقول شركة التأمين إنها كانت هدفًا لإجراءات قانونية تافهة من قبل امرأة كانت تحصل على مشورة قانونية سيئة من ChatGPT.
ومن بين أمور أخرى، تتهم الدعوى شركة OpenAI بممارسة القانون دون ترخيص. وفي بيان مكتوب إلى NPR، ردت OpenAI قائلة: “هذه الشكوى تفتقر إلى أي أساس على الإطلاق”.








