من المسؤول في حالة فشل الذكاء الاصطناعي؟

محمد صالح

قفز الذكاء الاصطناعي قفزات هائلة في السنوات الأخيرة مبشراً بفجر الثورة التطورية التالية، وقد بدأ بالفعل بجلب الكثير من المنافع، وبعيداً عن الصورة الوردية التي يروج لها المهوسون بالتقنية ومنظري التكنولوجيا، يجب علينا التنبه للمشاكل التي جلبها معه هذا القادم الجديد، ليذكرنا بأن كل شيء يأتي بثمن، وإن كنا مؤيدين أو متخوفين من هذه التقنية علينا البدء فوراً بالتفكير بحلول واستجابات شاملة إن أردنا التنعم بمزايا ومنافع الذكاء الاصطناعي، ومن ضمن هذه القضايا المسؤولية، والمحاسبة، والحوكمة، والشفافية، والخصوصية، والحريات وغيرها.اضافة اعلان
ففي السنوات الأخيرة صاحبت أخبار الفتوحات في مجال هذه التقنية الصاعدة أنباء إخفاقات كبيرة مما أثار العديد من الأسئلة حول المسؤولية والتبعات القانونية والتعويضات في حال تسببت هذه التقنية بأخطاء جسيمة وهذا ليس أمراً مستبعداً. ففي 2018، حددت تقنية أمازون للتعرف على الوجوه بشكل خاطئ 28 عضواً من الكونجرس الأميركي على أنهم مجرمون سابقون!. وفي 2019، تسببت سيارة أوبر ذاتية القيادة في حادث أدى لمقتل امرأة في أريزونا. كما أظهرت خوارزمية استخدمت على نطاق واسع في المستشفيات الأميركية لتخصيص الرعاية الصحية للمرضى تحيزاً منهجياً ضد السود، حرم الكثير منهم من الوصول للخدمات الصحية. وفي 2015، أظهرت تقنيات جوجل تحيزاً عنصرياً أثناء التعرف على الصور حيث حددت صور لأشخاص سود على أنهم «غوريلات». ولم تتخلف مايكروسوفت عن مسلسل اخفاقات الكبار، فقام رواد تويتر بتعليم روبوت الدردشة للذكاء الاصطناعي من مايكروسوفت «Tay» العنصرية في أقل من يوم واحد. كما تعرض نظام (COMPAS) في مجال العدالة التنبؤية لانتقادات لإدامته التحيز العنصري المنهجي الموجود أصلاً في نظام العدالة الجنائية الأميركية، ولم يكن نظام (HART) البريطاني بأحسن حال منه.
ونستطيع سرد المزيد من قصص فشل الذكاء الاصطناعي، وهو شيء متوقع من تقنية جديدة نسبياً، وبالتأكيد لا أرمي هنا الى التخويف من أو مهاجمة هذه التقنيات بقدر ما أحاول تسليط الضوء على مشاكل جوهرية يجب العمل على حلها إن رغبنا بالاستمتاع بمزايا هذه التقنيات. فعند الحديث عن المساءلة، ما زال العديد من الاسئلة قيد النقاش، فمن يتحمل مسؤولية الأضرار الناتجة عن فشل الذكاء الاصطناعي؟ المطورون أم المشغلون أم المستخدمون أم الحكومة التي أجازت الاستخدام؟ كيف نحدد المسؤولية إن اشتركت أطراف متعددة في تطوير وتطبيق التقنية؟ ما هو شكل هذه المسؤولية وما هو تكيفها القانوني؟ كيف نعرف فشل الذكاء الاصطناعي هل هو أي خطأ بغض النظر أنتجت عنه أم لم تنتج عواقب غير مرغوبة؟ كيف نقيس أثر الفشل؟ وما آلية تقدير التعويضات وكيف يتم تعويض المتضررين؟ كيف تستجيب التشريعات ومنظومات العدالة الحالية لهذه المشاكل؟ وما هي الأطر التشريعية والرقابية الواجب تواجدها لضمان حوكمة هذا المجال؟ والكثير من الأسئلة المعقدة التي تتطلب دراسة متأنية وتعاونًا بين جميع المعنيين لتوفير استجابات شاملة.
بشكل عام، تشكل المساءلة حجر زاوية في إدارة الذكاء الاصطناعي، وعلى الرغم من محاولات الإجابة عن بعض هذه الأسئلة عبر نصوص ومواد التشريعات الأردنية الحالية قد تغطي بعض الحالات، فإنها بالتأكيد لا تغطي كل شيء، ولا يكفي وضع ميثاق أخلاقي فضفاض وغير ملزم، وبات لزاماً على المشرع العمل على تطوير منظومة تشريعية متخصصة تواكب التغييرات التي أحدثها الذكاء الاصطناعي. كما يجب على الجهات التنفيذية تطوير هياكل رقابية وتنظيمية تضمن حوكمة وشفافية هذا القطاع، بالإضافة الى إنشاء منظومات ضامنة لتعويض المتضررين في حال فشل الذكاء الاصطناعي، وعدم الاندفاع بتهور نحو تطوير التقنيات واستخدامها دون التأكد من وجود الضوابط الضرورية لضمان سلامة المعنيين والمجتمع ككل.