منوعات علمية > ما بين العلم والخيال

القوانين الثلاثة للروبوتات

إن لم تكن من قُرَّاءِ كاتب قصص الخيال العلمي الشهير إسحاق أزيموف "Isaac Asimov"، فلا بُدَّ أنَّك شاهدت فيلم أنا روبوت "I, Robot"، ففي المستقبل البعيد حيث الحياة الإلكترونية وتطور التكنولوجيا؛ سيُصنَعُ روبوتات فائقة القدرات والمهارات لمساعدة البشر على إنجاز مهامهم اليومية، ولكن يخترقُ روبوتٌ قانونَ حماية الإنسان ويتورط في قتل أحدهم؛ مما يُسيء الأمر والعلاقة بينهم وبين البشر.

غالباً ما تتحول قصصُ الخيال العلمي إلى واقع؛ فهل من الممكن أن يُخلقَ مستقبلاً  روبوتاً يخدم فيه البشر، ويساعدهم في أعمالهم اليومية، إضافةً لحمايتهم دون إلحاق الضرر والأذى بهم، لنرى إن كانت القوانين عملية على أرض الواقع أم هي مُجرَّدُ خيال.

قوانين الروبوتات الثلاثة في قصص أزيموف

قبل وضع القوانين الثلاثة؛ كانت الروبوتات في قصص أزيموف تعمل كما يأمرها مبتكرها أو أي شخص آخر، ويقودنا هذا لذكر عقدةُ فرانكشتاين "Frankenshtien Complex" التي أشار لها أزيموف في أكثر من قصة؛ وهو مصطلح يعني الخوف من الإنسان الآلي.

ولتجنب الأمر وضعَ أزيموف مفهوماً جديداً للروبوت ليُصبح شيئاً يمكن التحكم به وتحليله ودراسته والسيطرة عليه من قِبل الإنسان؛ وذلك من خلال القوانين الثلاثة الآتية(تُعرض في أول فيلم أنا روبوت):

- القانون الأول: لا يمكن لروبوت إيذاء أي إنسان أو إلحاق الضرر به أثناء تقاعُسهِ عن العمل وتركه دون حماية.

- القانون الثاني: يُنفِّذُ الروبوت الأوامر التي يتلقاها من الإنسان ما لم تتعارض تلك الأوامر مع القانون الأول.

- القانون الثالث: يحمي الروبوت نفسه للحفاظ على وجوده ما لم يتعارض ذلك مع القانون الأول والثاني.

تبدو القوانين سليمة وجيدة إلى حدٍ ما "لا تؤذي الناس، افعلْ ما تُؤمر به من قبل السلطة، ولا تتأذى" وإذا نظرت للقوانين من زاوية أُخرى سترى أنَّها مبادئ توجيهية أساسية لكثير من الأنظمة الأخلاقية في العالم، فكل إنسان جيد يملك شعوراً بالمسؤولية تجاه نفسه، والمجتمع سيلجأ إلى السلطة المناسبة عند الحاجة، وسيحترم أي شخص ويقدم له المساعدة وسيحميه عند التعرض للخطر ويحمي نفسه.

ومع ذلك هناك مشكلة في القانون الأول "لا يمكن لروبوت أن يؤذي إنساناً"، لكنه لم يحدد نوع الأذى؛ فالإنسان قد يتأذى جسدياً أو عاطفياً؛ وأنواع الضرر التي كانت تُذكر في القصص كانت أشياء مثل السقوط من على منحدر أو حوادث مرورية أو محاولات انتحار...الخ. 

ولكن هناك درجات أقل من الأضرار يمكن للإنسان التعايش معها؛ وأشار أزيموف إلى تلك المعضلة لأول مرة في قصة الروبوت الصغير الضائع "Little Lost Robot"، فالباحثون الذين يحاولون العمل في مختبرات الأشعة في كل مرة يقتربون من معداتهم التجرّيبية تأتي الروبوتات وتخرجهم بعيداً عن المخبر بالرغم من وجود عمليات مراقبة لمدى الإشعاع الذي يتعرض له العاملين بالداخل لمنع حدوث أضرار، ولكن الروبوت- حسب القانون الأول- يظن أنَّ الإنسان قد لا يخرج في الوقت المناسب لذلك يجب أن ينقذه. 

أدرك أزيموف ضعف قانونه الأول، وحاول توضيح ذلك في روايته الروبوتات والإمبراطورية "Robots and Empire"،  فمع بدايات وجود الإنسان وانتشاره عبر المجرة، يضع الروبوت دانيل أوليفاو "Daneel Olivaw" (بطل الرواية)؛ قانون الصفر وهو القانون الذي يتصدر جميع القوانين السابقة "لا يُؤذي روبوت  أي إنسان ولا يسمح له بإيذاء نفسه". 

ولكن ظل السؤال يثير حيرة أزيموف، كيف يمكن للمرء أن يحدد ما هو جيد أو سيء للبشرية؟ وبقيت القوانين كما هي في قصصه، ولم يصل لحل لتلك المشكلة.

قوانين الروبوتات في عالمنا الحقيقي

لا بدَّ من مراعاة الفترة الزمنية التي مضت على وضع القوانين؛ فقد مرَّ أكثر من 75 عاماً عندما نُشِرت القصة الأولى التي شملت في أحداثها القيم الأخلاقية للروبوت، ومنذ ذلك الحين إلى الآن حدثت تطورات تكنولوجية كثيرة، وأصبح لدينا تصور مختلف تماماً عن شكل الروبوتات وأنواعها وآلية تفاعلها معنا. 

فتبدو الروبوتات اليوم أكثر تنوعاً من تلك الموجودة في قصص أزيموف، ويجبُ علينا النظر فيما إذا كنا نحتاج لدرجة التعقيد هذه التي قد لا تكون فيها القوانين المطلوبة مطلوبةً أساساً، فمن الصعب تخيل مكنسة كهربائية روبوتية لديها مهام محددة تؤديها؛ بأن يكون لها القدرة على إيذاء البشر أو إطاعة أوامرهم وتنفيذها، فهو روبوت محدد ذو مهمة واحدة ويمكن تحديدها مسبقاً قبل تشغيلها. 

المشكلة هي أنَّ هذه القوانين خيالية، فقد ابتكرها أزيموف لمساعدته على كتابة قصصه التي عادة ما كان محورها الرئيس اختراق إحدى القوانين، ونشوب الأحداث فيما بعد بين البشر والآلات، فهو تصوَّرَ عالماً تتصرفُ فيه الروبوتات الشبيهة بالإنسان مثل الخدم؛ وستحتاج إلى عدة قواعد برمجية لمنعها من التسبب في أذية البشرية.

ولكنَّ الأمر أكثر تعقيداً؛ فقد ناقش البروفيسور توم سوريل "Tom Sorell" من جامعة وارويك "Warwick" موضوع هذه القوانين وأقرَّ بأنَّها تبدو منطقيةً واستجابةً طبيعيةً لفكرة أنَّ الروبوتات ستكون يوماً ما منتشرة بيننا بكثرة وتحتاج لبرمجة داخلية لمنعها من إيذاء الناس، ومع ذلك فهي ليست سهلة التأويل. 

مجالات استخدام الروبوت على أرض الواقع

المجالات الإنسانية: قد  تبدو قوانين أزيموف سليمة في هذا المجال؛ إذ طُوِر مؤخراً روبوت آليٌّ؛ لمساعدة كبار السن في احتياجاتهم اليومية للقدرة على عيش حياة مستقلة عن مراكز الرعاية الصحية، من قبل البروفيسور سوريل (خبير في أخلاقيات الروبوتات) في مشروع  "ACCOMPANY" الذي يُموِّله الاتحاد الأوروبي بدوره.

لكن تظهر المفارقات في مختلف المجالات الأخرى:

المجالات الطبية: يمكن استخدام الروبوتات المصنوعة من الحمض النووي والبروتينات في الجراحة لمعالجة الاضطرابات الجينية، وإن كانت هذه الروبوتات تتبع قوانين أزيموف فمن الصعب تحديد ما إذا كان الروبوت مستقلاً بما فيه الكفاية ليخضع للقوانين؛ إذ إنَّ هذه الأجهزة تأخذ الإشارات عبر الدنا "DNA" فالروبوت جزء لا يتجزأ من الإنسان الخاضع للعملية، وسيكون من المستحيل تحديد ما إذا كانت الأوامر التي تتلقاها ستسبب ضرراً للإنسان أم لا.

المجالات العسكرية: عند تطوير طائرات حربية دون طيار، موجهة من البشر لقتل مجموعة ما بهدف حماية بشر آخرين، فإنَّ الروبوت يُنقذ أرواح مواطنين عن طريق قتل البشر الذين يهاجمونهم، وهكذا يتبع ويخالف قانون أزيموف الأول في المهمة الواحدة نفسها.

عملياً لا يُمكن لأيَّة تقنيةٍ تكرارَ قوانين أزيموف داخل الآلة؛ فقد أثرت قوانين أزيموف على مطوري أنظمة الذكاء الصناعي لعقود لكن حان الوقت لإعادة تقييم فعاليتها، والبدء في مناقشات حول وضع مجموعة جديدة من القوانين، والسبب الرئيس لذلك هو كيفية استخدامنا للروبوت في عالمنا الحقيقي، فالكثير من تمويل الأبحاث الروبوتية يأتي من الجيش العسكري الذي بدوره يحتاج إلى روبوتات تتبع عكس قوانين أزيموف؛ تماماً كما سَنُبين هنا (مع أمثلة): 

- إمكانية قيام الروبوت بالقتل: أنت لا تقوم بتسليح طائرة من طراز "ريبر" بدون طيار باستخدام صاروخ "هيل فاير" أو تضع مدفع رشاش على مارس (نظام آلي متقدم) دون أن تُسبب الأذى للإنسان (حسب القانون الأول)؛ وإنَّما هذا هو الهدف!

- تلقي وتنفيذ الأوامر من أشخاص معينين: هل أنا حقاً أريدُ أن يتمكن أيًّا من كان بطلب روبوتي الخاص وإملاء الأوامر عليه؛ ليقوم بتنفيذها بدوره؟ قد يكون هذا الشخص من أعدائي!

- عدم اكتراثها لوجودها: تُرسَل الروبوتاتُ في مهماتٍ خطيرةٍ للغاية، واحتماليةُ تعرُّضِها للأذى كبيرةٌ نسبياً، لكن إن منحتهم شعوراً بالوجود وغريزة البقاء على قيد الحياة سيتعارضُ مع الهدف المطلوب من المهمة.

تهدف أبحاث الذكاء الصناعي في بعض الأحيان إلى تطوير آلات بطريقة يمكنها التفكير والتصرف بعقلانية على نحوٍ مشابه للإنسان؛ ولكن ما يزالون يجدون صعوبة في دراسة السلوك البشري ليكون مُحاكياً دقيقاً لتطوير الذكاء الصناعي، وطُوِّر السلوك العقلاني للروبوتات ولكن بمجالاتٍ محدودةٍ للغاية. 

وبذلك لا يمكن للروبوت العمل إلا ضمن نطاق معين، وأي تطبيق للقوانين عليه قد لا يكون ممكناً مع التكنولوجيا الحالية، فالنظام الذي  يتخذ القرارات بناءً على القوانين يحتاج إلى قوة حسابية كبيرة. 

وأخيراً فعندما يتعلق الأمر بالروبوتات وسلوكها الأخلاقي فليس بالضروري الاعتماد على قوانين معينة لإنتاج روبوتات أخلاقية، وإنَّما نحتاج للبدء في إصلاح أخلاقيات الناس التي تقوم بإنتاج أو استخدام تلك الآلات وهذا يكون على عاتق الجهات المعنية، ما الغاية من بناء هذا الروبوت؟ ومن سيقوم باستخدام هذه النظام الآلي المتطور؟ وهل الطائرة بدون طيار هي نظام تكنولوجي استخدامه مقتصر على المجال العسكري فقط؟ 

إذاً يجب الانتباه إلى كل ذلك لتخفيف أضرار هذه التقنية قدر الإمكان، ولتكون الغاية منها سامية وهدفها حماية ومساعدة الإنسانية، فالروبوتات لم تعد مجرد خيال علمي، وإنَّما هي جزء كبير من عالمنا الحقيقي.

بعض ما قاله مهندسو الذكاء الصناعي عن قوانين أزيموف:

- "قوانين أزيموف مذهلة؛ لكنها أيضاً هراء، على سبيل المثال؛ "هم" باللغة الإنجليزية كيف نبرمج ذلك بحق السماء"، هذا ما قاله دانيال ويلسون "Daniel Wilson".

- "إنَّ الناس يسألونني عما إذا كانت روبوتاتنا تتبع قوانين أزيموف؟ كلا، لأنَّ الروبوتات لا تريد ذلك فلا أستطيع بناء قوانين أزيموف بداخلهم"، رودني بروكس "Rodney Brooks" من شركة أنا روبوت (سُميت الشركة بذلك الاسم نسبة لكتاب أزيموف؛ وهي الشركة التي قامت بابتكار روبوتات للمهمات العسكرية).

- "إنَّ قوانين أزيموف لا تزال تبدو معقولة ظاهرياً فهناك مخاوف كثيرة من الضرر الذي يمكن للروبوت فعله مع البشر مستقبلاً، ولكننا نعيش في عصر يتزايد فيه استخدامنا للروبوتات المتطوِّرة باستمرار؛ لتنفيذ مهام معقدة جداً تهدف بصفةٍ أساسية إلى حماية البشر ورعايتهم"، وهذا ما ذكره سوريل. 

المصادر:

1- هنا

2- هنا

3- هنا

4- هنا