نحن نبني الروبوتات الفائقة.. فهل ستكون أبطالاً أم أشراراً؟

تم نشره في الاثنين 9 تشرين الثاني / نوفمبر 2015. 12:00 صباحاً
  • الروبوتات لا تمتلك إمكانية اختيار القرار الأخلاقي - (أرشيفية)

باتريك لين* – (الواشنطن بوست) 2/11/2015

ترجمة: علاء الدين أبو زينة

انسَ أمر فقدانكَ عملك لروبوت ذكي. ولا تقلق من حاسوب فائق الذكاء، لكنه شرير بشكل أو بآخر. فلدينا قضايا أخلاقية أكثر إلحاحاً ينبغي أن نتعامل معها الآن.
يحل الذكاء الاصطناعي محل الإنسان ويأخذ أدواره، ويفترض في هذه الأنظمة الذكية أن تحاكي السلوك الإنساني -أو أن تطبق نسخة مثالية من هذا السلوك على الأقل. وربما يكون ذلك منطقياً في مهمات محدودة مثل تجميع المنتج. لكن هذا الهدف يصبح معقداً عندما يتعلق الأمر بأنظمة أكثر استقلالاً -الروبوتات وأنظمة الذكاء الاصطناعي التي يمكن أن "تتخذ قرارات" بنفسها.
هناك نوعان من المشكلات في افتراض أن أنظمة الذكاء الاصطناعي يمكن أن تتصرف كما نفعل نحن البشر. أولاً، ليس من الواضح تماماً دائماً كيف يجب أن نتصرف نحن أنفسنا، وبذلك تصبح برمجة الروبوتات تمريناً في البحث في أعماق النفس عن معنى الأخلاق، وطرحاً للأسئلة التي ليست لدينا إجابات عنها حتى الآن. ثانياً، إذا كان الأمر سينتهي بالذكاء الاصطناعي وقد أصبح أكثر يمتلك من القدرة أكثر مما نمتلك، فإن هذا قد يعني أن تكون لديه واجبات أخلاقية مختلفة؛ واجبات تتطلب منه التصرف بشكل مختلف عما نفعل نحن.
دعونا ننظر في السيارات الروبوتية لتوضيح المشكلة الأولى. كيف تجب برمجتها؟ هذا الأمر مهم، لأنها تقود نفسها في الشوارع، جنباً إلى جنب مع عائلاتنا في الوقت الحالي. هل يجب أن تطيع القانون دائماً؟ هل تحمي ركابها دائماً؟ هل تعمد إلى تقليل الضرر إلى الحد الأدنى في حادث ما إذا كان ذلك في وسعها؟ أم يجب عليها أن تضغط على الكوابح فقط عندما تكون هناك مشكلة؟
هذه وغيرها من أساسيات التصميم تبدو معقولة بما يكفي، ولكنها تتعارض في بعض الأحيان. فعلى سبيل المثال، قد يكون على سيارة آلية أن تنتهك القانون أو تخاطر بسلامة ركابها لتجنب وقوع أكبر عدد من الخسائر في الأرواح في الخارج. والقرار الصحيح، أياً يكن، هو في الأساس دعوة أخلاقية قائمة على أساس القيم الإنسانية، وواحدة لا تمكن الإجابة عنها بالعلوم والهندسة وحدهما.
يقودنا هذا إلى مشكلة ثانية ذات صلة. مع أجهزة استشعارها التي لا ترمش أو تغفل، ووعيها المرتبط بشبكة الإنترنت، تستطيع السيارات الروبوتات الكشف عن المخاطر والتفاعل بشكل أسرع بكثير مما نستطيع نحن -وهذا هو المقصود من الذكاء الاصطناعي أن يفعله. وبالإضافة إلى ذلك، فإن سلوكها مبرمج، وهو ما يعني أن قرارات الاصطدام تكون مدونّة مسبقاً. وهنا تكمن معضلة. إذا اتخذ سائق بشري قراراً سيئاً في اصطدام مفاجئ، فإنه حادث يمكن التسامح معه، ولكن عندما يتخذ الذكاء الاصطناعي أي قرار، فإنه لا يكون رد فعل انعكاسيا، وإنما مقرراً سلفاً مع سبق الإصرار.
ليس هذا مجرد شأن فلسفي، وإنما مسألة لها تداعيات وآثار حقيقية. فباعتبار أن القرار الروبوتي حول حادث ما يكون مدروساً -أي أنه يضع في اعتباره عوامل عديدة لا يمكن أن يعالجها الدماغ البشري في جزء من الثانية- فإنه يكون من المفترض أن يؤدي هذا القرار إلى نتائج أفضل بشكل عام، لكن هذا هو المكان الذي تنشأ فيه مشكلة جديدة؛ حيث يمكن أن تكون لحادث "عرضي" تسبب به إنسان، وحادث "متعمد" يتضمن نظاماً حاسوبياً وآثارا قانونية مختلفة إلى حد كبير.
لماذا نرفع من شأن الذكاء الاصطناعي ونضعه في مستوى أعلى؟ لأنه، كما يستطيع أي معجب بكتب الرسوم الهزلية أن يقول لك، "مع القوة الكبيرة تأتي المسؤولية الكبيرة". إن قدرات الذكاء الاصطناعي والروبوتات تجعل منها قوى عظمى فعلياً. وفي حين أنه قد لا يكون من واجبنا الأخلاقي أن نرمي قنبلة موقوتة إلى الفضاء الخارجي لإنقاذ الناس على الأرض، فإنه يمكن القول إن القيام بذلك هو واجب بالنسبة لسوبرمان، لأنه يستطيع أن يفعل ذلك. وحيث قد نهرب للخروج من طريق الأذى، فإنه قد يكون من المتوقع من الروبوت أن يضحي بنفسه من أجل الآخرين، بما أنها ليست لديه حياة ليحميها.
ولكن، حتى الأبطال الخارقون في حاجة إلى مجلس للعدل أو إلى الأستاذ (س) من أجل الضبط والتعقل؛ أو نشطاء يظهرون لملء هذا الفراغ حول قضايا تمتد من الحب إلى الحرب. وتدرك بعض الشركات، مثل "غوغل ديب مايند" DeepMind، قيمة وجود "مجلس أخلاق" للمساعدة في توجيه أبحاث الذكاء الاصطناعى ونتائجه الناشئة في منطقة مجهولة. ويدعم بيركلي ستيوارت راسل، أستاذ علوم الحاسوب، فكرة جلب المناقشات الأخلاقية إلى الحقل: "في المستقبل، ستكون الفلسفة الأخلاقية قطاعاً رئيسياً في الصناعة". وثمة خبير آخر في أنظمة الذكاء الاصطناعي، جيري كابلان من ستانفورد، والذي يتوقع أن يصبح اجتياز مساق في "البرمجة الأخلاقية" متطباً للحصول على درجة في علوم الحاسوب في غضون 10 سنوات من الآن.
يصبح مجتمعنا على نحو متزايد صندوقاً أسود. ولم نعد نعرف كيفية عمل الأشياء بعد الآن، لأنه من الصعب تفقد وفحص الخوارزميات التي تعمل وفقها الكثير من منتجاتنا. ويتم في الغالب إخفاء هذه الصيغ وحجبها باعتبارها أسراراً تجارية للشركات، سواء كانت متصفحات للتداول المالي، أو أنظمة تشغيل للسيارات، أو برمجيات خاصة بالفحص الأمني. وحتى في داخل الشركة نفسها، يمكن أن تكون خوارزمياتها الخاصة معقدة للغاية على الفهم: حيث يتم وضع رمز شفري جديد فوق الرمز القديم كل الوقت، مما يؤدي في بعض الأحيان إلى ما يدعى "رمز سباغيتي" الذي يمكن أن يقتل حرفياً. وربما يكون التسارع غير المقصود في بعض السيارات الذكية، والناجم عن النظام الشفري المنشأ بشكل سيئ، متورطاً في مقتل 89 شخصاً على الأقل في الولايات المتحدة وحدها منذ العام 2000.
لكن المخاوف إزاء الذكاء الاصطناعي ربما تعكس مخاوفنا إزاء أنفسنا مرة أخرى. إننا نعرف أي نوع من الحيوانات نحن، ونحن قلقون من أن تعيث أنظمة الذكاء الاصطناعي النوع نفسه من الفساد الذي تعيثه الكائنات البشرية (تم اتهام بعض الخوارزميات مسبقاً بممارسة التمييز). ولكن، وبالطريقة نفسها التي يمكننا بها أن ننشئ أولادنا على فعل الشيء الصحيح، فإننا نستطيع تخفيف مخاوفنا حول أنظمة الذكاء الاصطناعي غير المبدئية من خلال بناء الأخلاق في التصميم نفسه. إن الأخلاق تخلق الشفافية، والتي تبني الثقة بدورها. وسوف نحتاج إلى الثقة حتى نتمكن من التعايش مع الأبطال الخارقين التكنولوجيين الذين خلقناهم، من أجل إنقاذنا جميعاً.

*أستاذ الفلسفة المساعد في بوليتيكنيك جامعة كاليفورنيا، والباحث في مركز كلية ستانفورد في قانون الإنترنت والمجتمع. يعمل مع الحكومة وقطاعات الصناعة في مجال أخلاقيات التكنولوجيا، نشر كتابه "أخلاقيات الروبوت" في العام 2014.

*نشر هذا المقال تحت عنوان:We’re building superhuman robots. Will they be heroes, or villains؟

ala.zeineh@alghad.jo

 

التعليق