أقر قاضيان اتحاديان أمريكيان بأن الموظفين في مكاتبهما لجأوا إلى الذكاء الاصطناعي للمساعدة في صياغة أحكام المحكمة، وأن التجربة سارت بشكل خاطئ للغاية.
في رسالتين صريحتين نُشرتا يوم الخميس من قِبل السيناتور تشاك غراسلي، رئيس اللجنة القضائية بمجلس الشيوخ، قال القاضيان هنري تي. وينجيت من ولاية ميسيسيبي وجوليان كزافييه نيلز من ولاية نيوجيرسي إن أدوات الذكاء الاصطناعي استُخدمت في إعداد أوامر قضائية تبيّن لاحقًا أنها مليئة بالأخطاء الواقعية والهفوات القانونية. وقد تمtrac.
قال غراسلي، الذي طالب بتفسيرات: "يقع على عاتق كل قاضٍ اتحادي، وعلى السلطة القضائية كمؤسسة، واجب ضمان عدم انتهاك استخدام الذكاء الاصطناعي التوليدي لحقوق المتقاضين أو منع المعاملة العادلة بموجب القانون"
أخطاء الموظفين تكشف عن حدود الذكاء الاصطناعي في قاعة المحكمة
في رسالته، ذكر القاضي نيلز، من محكمة مقاطعة نيوجيرسي، أن مسودة حكم في دعوى قضائية تتعلق بالأوراق المالية قد نُشرت "عن طريق الخطأ - خطأ بشري" بعد أن استخدم متدرب في كلية الحقوق برنامج ChatGPT التابع لشركة OpenAI لأغراض بحثية دون إذن أو إفصاح. وقد سُحب القرار فور اكتشاف الخطأ.
وقال نيلز إنه لمنع تكرار ذلك، قامت غرفته منذ ذلك الحين بوضع سياسة مكتوبة للذكاء الاصطناعي وعززت عملية المراجعة الخاصة بها.
قال القاضي وينجيت، الذي يعمل في المنطقة الجنوبية من ولاية ميسيسيبي، إن كاتبًا قانونيًا استخدم أداة الذكاء الاصطناعي "بيربلكسيتي" "كمساعد أساسي في الصياغة لتجميع المعلومات المتاحة للجمهور في جدول الأعمال"
تم استبدال مسودة الأمر، الصادرة في قضية تتعلق بالحقوق المدنية، لاحقاً بعد أنdentأخطاءً فيها. وصرح وينجيت بأن الحادثة "كانت نتيجة إهمال بشري"، مضيفاً أنه قام منذ ذلك الحين بتشديد إجراءات المراجعة داخل مكتبه.
انتقادات استخدام الذكاء الاصطناعي في العمل القانوني
تُضاف هذه الحادثة إلى قائمة متزايدة من الجدالات المتعلقة بالمواد القانونية المُولّدة بواسطة الذكاء الاصطناعي. فقد واجه محامون في العديد من الولايات القضائية الأمريكية عقوبات في السنوات الأخيرة لتقديمهم ملفات قانونية صاغتها برامج الدردشة الآلية، تضمنت استشهادات مزيفة بقضايا سابقة وتطبيقاً خاطئاًdentقضائية سابقة.
في وقت سابق من هذا الشهر، نظام المحاكم في ولاية نيويورك سياسة جديدة تقيد القضاة والموظفين من إدخال معلومات القضايا السريةdentذات الامتيازات أو غير العامة في أدوات الذكاء الاصطناعي التوليدية العامة.
رغم أن مهنة المحاماة سارعت إلى استكشاف إمكانات الذكاء الاصطناعي لتحسين الكفاءة، إلا أن الحوادثdentعن قصور هذه التقنية، ولا سيما ميلها إلى التضليل، أو توليد معلومات تبدو معقولة ولكنها خاطئة. بالنسبة للمحاكم، حيث تُعدّ النزاهة ودقة الأحكام وعبء الإثبات أمورًا بالغة الأهمية، فإن مثل هذه الثغرات تُهدد بتقويض ثقة الجمهور في النظام القضائي.
كما حث غراسلي، الذي أشاد بوينغيت ونيلز لاعترافهما بالأخطاء، السلطة القضائية على وضع مبادئ توجيهيةtronللذكاء الاصطناعي.
لم يصدر المكتب الإداري للمحاكم الأمريكية توجيهات شاملة بشأن استخدام الذكاء الاصطناعي، مع أن العديد من محاكم الاستئناف تدرس، بحسب التقارير، أطرًا لتطبيق محدود وخاضع للإشراف. في المقابل، يقترح فقهاء القانون، وفقًا للتقارير، قاعدة إفصاح تلزم القضاة بالإشارة علنًا إلى أي استخدام للذكاء الاصطناعي في آرائهم أو قراراتهم، على غرار متطلبات الاستشهاد بالبحوث الخارجية.
تأتي هذهdentفي الوقت الذي لا تزال فيه الوكالات الفيدرالية والهيئات المهنية تتصارع مع أسئلة حول مساءلة الذكاء الاصطناعي.

