الفلسفة وعلم الاجتماع > الفلسفة

أخلاقيّةُ الروبوتات

استمع على ساوندكلاود 🎧

وصل التطوّرُ الهائل والمتنامي في مجال صناعة الروبوتات حدودًا تكاد لا تصدَّق، حتى بات ما كان من المستحيل القيامُ به فيما مضى أمرًا عاديًّا مع التنوّع والتطوّر الذي شهده هذا المجال. فمثلًا، هل ينبغي أن تكون المركبات من دون سائق التي وضعتها شركاتٌ مثلُ أبل، وغوغل، وديملر؛ مبرمجةً لتسير على الرصيف لتفادي الاصطدام؟ أم هل ينبغي أن تكون مبرمجةً للانحراف لضرب شخص واحد من أجل تجنُّب ضرب اثنين آخرين؟ أم اثنين بدلًا من أربعة؟ أم أربعةٍ بدلًا من شاحنة مليئة بالموادّ الكيميائيّة الخطرة؟

السيارات من دون سائق المبرمجةُ للاختيار من بين هذه الخيارات؛ ستكون مثالًا لما أصبح يُدعى (الروبوتاتِ الأخلاقيّة). والجيلُ القادم من الأسلحة يعدّ مثالًا آخرَ لهذه الروبوتات. علاوةً على ذلك، إذا لم تكن الطائراتُ من دون طيار سيّئةً بما يكفي، فستعكُف وزارة الدفاع الأمريكية على تطوير نظم الأسلحة الفتّاكة المتمتّعة بالتحكّم الذاتيّ. ستكون هذه الأنواعُ من الأسلحة قادرةً على تحديد قائمة القتل الخاصة بها؛ باستخدام مجموعة من الخوارزميّات، ولن تحتاج إلى أيّ تدخّل بشريّ، مهما كانت المسافةُ بعيدة. تشمل الطائراتُ من دون طيّار ذاتيّةُ التحكّم قيدَ التطوير؛ مروحيّةً صغيرةً بحجم كرة تنس الطاولة، التي ستكون قادرةً على الطيران عبرَ المنازل والمحلّاتِ التجارية ومكاتبِ الأعمال.

في تموز/يوليو عام 2015، نشرت مجلة Nature (الطبيعة) مقالًا بعنوان (معضلةُ الروبوت)، الذي ادّعى أنّ علماء الكمبيوتر قد كتبوا برنامجًا منطقيًّا يمكنه اتخاذُ قرار بنجاح، والذي يأخذ في الاعتبار هل الضررُ المسبَّبُ هو النتيجةُ المقصودة من العمل، أم هو -ببساطة- ضرورةٌ له. ويقول أحد العلماء وراء البرنامج (الناجح): «إنّ الخياراتِ الأخلاقيّةَ البشريّةَ مصنوعةٌ بطريقة مشابهة، وإنّ المنطقَ هو كيف أنّنا نأتي بخياراتنا الأخلاقيّة». ولكن نادرًا ما يمكن أن يكون هذا صحيحًا. والقول بأن اعتبارَ المنطق يكونُ بالطريقة التي نتّخذُ بها قراراتِنا الأخلاقيّةَ؛ يذكّر الأذهان بكلام الفيلسوف الأميركيِّ هيلاري بوتنام؛ إذ قال إنّ الافتراضَ الذي ظهر في القرن الثامنَ عشر، الذي يقول بأنّ الأشخاصَ الأذكياء، والمتعلّمين بشكل جيّد، والذين أتقنوا فنَّ التفكير في أعمال الناس ومشاكلِهم؛ سيشعرون بالرضا والرفض في آنٍ واحد، ما لم يكن هنالك خطأٌ في قانونهم الشخصيّ.

ومع ذلك، غالبًا ما تكون الخياراتُ الأخلاقيّةُ في مواجهة المنطق؛ فهي قد تأتي من العاطفة أو العنادِ الطبيعيّ، أو من إيماءةٍ غامضة، أو من الخيال كذلك. وفي هذا السياق، يقولُ روبرت نيومان: «أنا أسيرٌ في ولاية كارولينا الشمالية مع (جيش الاتّحاد)، وعلى اقتناعٍ تامٍّ منطقيًّا بأنّه ليس سوى الانتصارِ العسكريِّ على الكونفدراليّة سيُلغي مؤسّسةَ الرِّقِّ البغيضة، ولكن عندما أرى وجه العدو -الهزيلِ، الحافي، ذي السبعةَ عشرَ عامًا- أرمي مسدّسي بعيدًا، وأبكي هاربًا من ميدان المعركة. هذا قرارٌ أخلاقيّ، أدّى إلى اتّخاذ إجراءات حاسمة، لا بدمٍ بارد، وإنما يتعارضُ مع منطقِ موقفي».

كونَه غيرَ قادر على فعل الأعمال الإنسانيّة الصعبة؛ يَستبعد برنامجُ الروبوتِ الأخلاقيّ الأفكارَ غيرَ المتوافقةِ مع بعضها. إذن، على سبيل المثال، تريد (وزارةُ الدفاعِ الأمريكيّةُ) تطويرَ نظامِ أسلحةٍ فتّاكةٍ متمتّعةٍ بالتحكّم الذاتيّ ليكون نظام أسلحة (ناجحًا)، وقد تَستبعِد بياناتُه الأخلاقيّةُ (العهدَ الدَّوْليَّ الخاصَّ بالحقوق المدنيّة والسياسيّة - 1966)، وأحكامَه المتعلّقةَ بأمن الأشخاص، وعدالةِ الإجراءات، وحقوقِ المتّهم.

يقودنا الحديثُ عن العدالة الإجرائيّة إلى فيلسوف يقدّم عملُه -باعتقادنا- أفكارًا قيّمةً حول المشاكل المرتبطة بـ(الروبوتاتِ الأخلاقيّةِ) بصفته ضابطَ استخباراتٍ في الحرب العالميّةِ الثانية. أدّى استجوابُ ستيوارت هامبشير لأحد كبار النازيّين إلى القول بأن سيادةَ العدالة الإجرائيّة فوق جميع المفاهيم الأخرى للعدالة، وقال إنه لا يمكن أن تكون هناك عدالةٌ بمعناها الواسع دون العدالة بالمعنى الضيّق، أي الإجرائيّةِ منها. ولو كانت نتيجةُ المحاكمة أمام هيئة محلّفين مطابقةً لنتائج (محكمةِ الكنغر)، فإنّ إهمالَ إجراء مُلزِمٍ واحدٍ يجعلُ أحدَ الحكمين ظالمًا والآخرَ عادلًا.

والأمر نفسُه ينطبق على القانون الآليّ؛ فلن تجعلُّ كل الجيجابايتات الموجودةِ في العالم مجموعةً من الخوارزميّات محاكمةً عادلة. بدلًا من ذلك، تقتضي العدالةُ إجراءَ محاكمة عادلة من قبل مواطنين من لحم ودم، ضمن إطار عمليّة عادلة؛ لأن الضحايا عادةً يطلبون من المحكمة أن تنظر في معاناتهم النفسيّةِ والعاطفيّة، وبالطبع، لا يمكن أن تكون العدالةُ موضوعيّةً وعادلةً في الوقت ذاتِه.

تفويضُ الأخلاقيّات للروبوتات عملٌ غيرُ أخلاقيّ؛ لا لمجرد أنّ الروبوتاتِ تتبع كودًا ثنائيًّا وليس الأخلاق، بل لأنه لا يمكنُ لأيِّ برنامج أن يحلِّلَ الاحتمالاتِ التي لا تحصى، أو بسرعة البديهة، وأن يتعاملَ مع التعقيدات التي تنطوي عليها أبسطُ الحالات أمام قاضٍ أو هيئةِ المحلّفين. ويعدّ القانونُ مرشحًا آخرَ للاستعانة بروبوتات محامين أخلاقيّين. في العام الماضي، قال أحدُ كبار المسؤولين التنفيذيّين في شركة IBM، خلال بثٍّ إذاعيّ لراديو BBC عن عجائب الروبوتات؛ أنه بينما لا تؤدّي الروبوتاتُ الوظائفَ اليدويّة الدقيقة؛ كأعمال البستانيّ أو البوّاب؛ سيمكنها بسهولة فعلُ كلِّ ما يفعلُه المحامون، وقريبًا ستجعلُ الحاجةَ للمحامين البشريّين أمرًا غيرَ مرغوب فيه. وبالرغم من قول ذلك المسؤول في IBM هذا، كان موفات بوب، نائبُ رئيس IBM، يحاكَمُ في محكمة (مانهاتن الاتحاديّة)، بتهمة أكبر عملية تحايل على صندوق التحصيل للتجارة الداخليّة في التاريخ؛ لأنه لسبب غيرِ مفهوم وضع كلَّ آمالِه في أحد أقدم محامي الدفاع البشريّين. لَربما كان أنقذه محامٍ روبوتٌ من ثبوت تهمتَي التآمر والاحتيال، ولكن عندما جاء وقتُ الحسم، عرفْنا وعرف بوب أنّ عبارة (أخلاقيّةُ الروبوتات) تنطوي على كثير من التناقضات.

المصدر:

هنا