الرياض: قد يصبح الذكاء الاصطناعي قريبًا أداة مفيدة في المحاكم ، لكن العالم لا يزال بعيدًا عن الخوارزميات التي تصدر أحكامًا على البشر ، كما قال الخبراء خلال حدث في الرياض.
ناقش الخبراء في المؤتمر الدولي للعدالة ، في فندق ريتز كارلتون ، كيف يمكن تطبيق التكنولوجيا بأمان خلال مناقشة بعنوان “البعد القانوني للذكاء الاصطناعي”.
أخبر أندريا إيسوني ، مدير شركة استشارات AI Technologies ، عرب نيوز أن هناك العديد من الطرق التي يمكن أن تكون مفيدة ، ولكن هناك مزالق يجب مراعاتها.
“تجهيز المستندات ، وقراءة المعلومات من المستندات لأنها تتطلب الكثير من القراءة ، واستخراج المعلومات من المستندات. كل هذه العمليات هي قضايا أمنية منخفضة المستوى (يمكن) أن تستخدم كفاءة الذكاء الاصطناعي “.
“مجموعة القوانين ليست جاهزة بعد للسماح للذكاء الاصطناعي بالحكم على الناس. حتى في الامتحانات ، إذا حصلك الذكاء الاصطناعي على درجاتك ، فمن المسؤول؟ هو نفسه مع القانون والحكم في المحكمة.
“حتى لو كانت التكنولوجيا جاهزة ، فإن القانون يحتاج إلى تغيير جوهري لتحديد المسؤول. يجب أن يكون شخص ما مسؤولاً إذا حدث خطأ في الذكاء الاصطناعي “.
قال إيسوني ، وهو أيضًا كبير مسؤولي الذكاء الاصطناعي في شركته الاستشارية ، إن الأنظمة القضائية في العديد من البلدان يجب أن تنظر في الذكاء الاصطناعي لتسريع إجراءات المحاكم.
ناقش المتحدثون في الجلسة فوائد وتحديات استخدام الذكاء الاصطناعي في القانون.
أشار لورنس ليسيج ، أستاذ القانون والقيادة في كلية الحقوق بجامعة هارفارد ، إلى الذكاء الاصطناعي في كاليفورنيا الذي جمع ما يكفي من المعرفة القانونية لاجتياز امتحان نقابة المحامين بالولاية.
“في غضون 10 سنوات ، ستتيح هذه التكنولوجيا أتمتة ما أعتقد ، 75 بالمائة مما يفعله المحامون. وقال إن أهم شيء علينا فعله الآن هو التأكد من أن البشر يحتفظون بالسيطرة.
“على الرغم من أن النظام سيؤتمتة الغالبية العظمى مما يفعله المحامون ، (يجب) أن يحافظ على دور للحكم والعدالة وفرصة لأولئك الذين أخطأتهم التكنولوجيا لتصحيح هذه الأخطاء.”
يعتقد كريستوفر ماركو ، طالب الدكتوراة في كلية الحقوق بجامعة كامبريدج ، أن الذكاء الاصطناعي قد يعرف نص القانون ولكن لا يمكنه التعبير عن “روحه”.
“روح القانون في الحقيقة شيء طري وفي منطقة رمادية. الجزء الذي يتطلب التفسير ، والذي يتطلب من الفرد المثقف أن يكون قادرًا على المساعدة في فهم ما لم تقله هذه القاعدة فحسب ، بل ما هو المقصود حقًا القيام به أو تحقيقه في المجتمع ، “قال ماركو للجمهور.
قال البروفيسور رايان أبوت من جامعة ساري إنه يجب على الحكومات النظر في التنظيم المناسب للذكاء الاصطناعي.
قال أبوت: “قد يكون لديك ذكاء اصطناعي يمكن أن يقدم إجابة جيدة على نفس القدر من الجودة لسؤال كإنسان ، وسوف يتعين علينا معالجة كيفية تعامل النظام التنظيمي مع ذلك”.
“عندما يعامل القانون الأشخاص والآلات بشكل مختلف من حيث سلوكهم ، يكون له أحيانًا نتائج سلبية على البشر والرفاهية الاجتماعية.”
حذر أنوبام تشاندر ، أستاذ القانون في سكوت ك. جينسبيرغ في مركز القانون بجامعة جورج تاون ، من أنه قد ثبت أن الذكاء الاصطناعي للتعلم الآلي عرضة لتفاقم التحيزات السائدة بالفعل في المجتمع بسبب المواد التي يتعلم منها.
واستشهد بمثال نظام التوظيف بالذكاء الاصطناعي من أمازون ، والذي ألغته الشركة لاحقًا لأنها تعلمت تفضيل المتقدمين الذكور بسبب المواد التي تم تغذيتها بها.
“كانت منظمة العفو الدولية تفضل الرجال على النساء ، والسبب هو أنه تم تغذيتها بعشر سنوات من البيانات عن السكان السابقين الذين كانوا ذكورًا بشكل كبير ، وبالتالي لا يمثلون الخصائص التي قد تجلبها النساء إلى الطاولة بشكل صحيح.”
قال أبوت إن الذكاء الاصطناعي قد تقدم في العديد من المجالات ، مثل اللغة وصناعة الموسيقى والفن ، لكن القانون انزلق إلى منطقة رمادية إذا ابتكر الذكاء الاصطناعي تقنية جديدة دون تفاعل بشري.
قال أبوت: “إذا لم يكن للاختراع جرد بشري ، فلا يمكن تسجيله ببراءة اختراع”. وقال: “لذلك ، إذا تمكنت شركة أدوية من استخدام ذكاء اصطناعي متطور للغاية لإيجاد علاج جديد لـ COVID ، فلن يتمكنوا من الحصول على براءة اختراع لهذا الدواء ، ولن يكون لديهم الحوافز المناسبة للتسويق”.
حتى الآن ، تم قبول طلبات براءات الاختراع في المملكة العربية السعودية وجنوب إفريقيا وفي حالة معلقة في بعض البلدان.
“وزارة العدل هنا والمنظمون في جميع أنحاء العالم سوف يتعين عليهم النظر. ماذا نفعل عندما تتصرف الآلات مثل الناس وكيف نشجع الآلات على التصرف بطرق مفيدة اجتماعيًا؟ ” وأضاف أبوت.
اكتشاف المزيد من صحيفة صوت حائل
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.