حثت المحكمة العليا في إنجلترا وويلز المحامين على بذل جهود أكبر لضمان دقة الأبحاث القانونية التي تعتمد على أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT.
وفي قرار يتناول قضيتين حديثتين، أوضحت القاضية فيكتوريا شارب أن هذه الأدوات “غير قادرة على إجراء أبحاث قانونية موثوقة”، مشيرة إلى أنها قد تُنتج استجابات تبدو متماسكة ومعقولة لكنها غير صحيحة تماماً، على الرغم من تقديمها بثقة، وذلك وفق موقع “techcrunch”.
وأكدت القاضية شارب أن المحامين ليسوا ممنوعين من استخدام الذكاء الاصطناعي في أبحاثهم القانونية، لكنهم ملزمون مهنياً بالتحقق من دقة هذه الأبحاث من مصادر موثوقة قبل استخدامها في عملهم.
وأشارت إلى تزايد الحالات التي استشهد فيها المحامون، بما في ذلك من يمثلون منصات ذكاء اصطناعي رئيسية في الولايات المتحدة، بمعلومات غير دقيقة يُعتقد أنها مُولدة بالذكاء الاصطناعي.
وشددت على ضرورة التزام المحامين بواجباتهم تجاه المحكمة، معلنة أن حكمها سيُحال إلى الهيئات المهنية مثل مجلس المحامين ونقابة المحامين.
في إحدى القضايا المعنية، قدم محام يمثل رجلاً يسعى للحصول على تعويضات من بنكين ملفاً يحتوي على 45 استشهاداً، 18 من هذه القضايا لم تكن موجودة، في حين أن العديد من القضايا الأخرى “لم تتضمن الاقتباسات المنسوبة إليها، ولم تدعم المقترحات التي استشهدت بها، ولم تكن لها أي صلة بموضوع الطلب”، كما قالت القاضية شارب.
وفي القضية الأخرى، قدمت محامية تمثل رجلاً طُرد من منزله في لندن ملفاً للمحكمة تستشهد فيه بخمس قضايا لا يبدو أنها موجودة.
ونفت المحامية استخدام الذكاء الاصطناعي، مع أنها قالت إن الاستشهادات ربما جاءت من ملخصات مُولّدة بالذكاء الاصطناعي ظهرت في محركات بحث “جوجل أو سفاري”.
وأوضحت القاضية شارب أن المحكمة لم تتخذ إجراءات ازدراء المحكمة في هاتين القضيتين، لكنها حذرت من أن ذلك “ليس سابقة”، مشيرة إلى أن المحامين الذين يتجاهلون التزاماتهم المهنية يعرضون أنفسهم لعقوبات صارمة، وكشفت عن إحالة المحاميان إلى جهات تنظيمية مهنية.
وأضافت أن صلاحيات المحكمة في مثل هذه الحالات تشمل التنبيه العلني، وفرض التكاليف، وتطبيق إجراءات ازدراء المحكمة، أو حتى الإحالة إلى الشرطة.