الفلسفة وعلم الاجتماع > علم الأخلاق وعلم الجمال

هل تتوقع أن يكون صديقك المفضل في المستقبل روبوتاً؟

يمكنكم الاستماع إلى العمل عبر الرابط:

نحن -البشر- مرتبطون عاطفيّاً بالحيوانات الأليفة ومرتبطون أيضاً بكثيرٍ من الأشياء المادية حولنا، ولكننا قد نميل لتشكيل علاقات أشبه بالعلاقات البشرية مع روبوتات متفاعلةٍ اجتماعيّاً، وقد يعود سبب ذلك إلى أنَّ الروبوتات تتصرّفُ من تلقاءِ ذاتها؛ مما يعطينا شعوراً بأنها شبيهة بالبشر، ولكن إذا علمنا أنّ المجتمع سيشهد انتشار الروبوتات المساعدة للبشر في حياتهم اليومية (في البيوت والمدارس ودور الرعاية..)، وسوف تتشكّل مجتمعاتٌ مشتركةٌ بين البشر والروبوتات بحلول عام 2030؛، فهل سيحكم المجتمعات البشرية والروبوتات قوانين عظيموف الثلاثة الشهيرة؟ وما هي الأبعاد الأخلاقية والاجتماعية للعلاقات بين البشر والروبوتات (1,2)؟

يمكننا تعريفُ الروبوت المتفاعل اجتماعياً بأنه الروبوت القادر على تحفيز ردّاتِ فعْلٍ اجتماعيّة من مستخدميه البشر نتيجةً لاتّباعِه قواعدَ سلوكٍ بشريّةً متوقعةً من مستخدميه، وهي التي يحتاجها للعمل في بيئة الحياة اليومية للبشر، مما يجعلنا قادرين على فهم سلوك الروبوتات والتفاعل والارتباط والتعاطف معها كأنّها بشر مثلنا، وهذا الميل نحو تشكيلِ علاقاتٍ عاطفيّةٍ مع الروبوتات يعود لغريزةِ البشر في الانتماء مما يدفعهم لتشكيل علاقات مع الكائنات الاجتماعية الأخرى. وتشير الدراسات إلى العديد من الحالات التي يتواصل البشر فيها مع الآلات وكأنها كائنات حية، كأن يشتموا الحواسيب عندما تصبح بطيئة، على الرغم من أنها لا تمتلك أية عواطف (1,3)!

ولكي نفهم طبيعة العلاقات بين البشر والروبوتات يهمنا التطرق لمصطلح الحياة الخيّرة الذي أتى به أرسطو وما يعنيه من الصحة النفسية والجسدية للبشر من خلال تجارب حياتية إيجابية وعلاقات اجتماعية جيدة كالصداقة التي بدورها تؤدي إلى السعادة إذ إنَّ الصّداقة المتوقَّعة تعني العلاقة المتبادلة على أساس العاطفة القائمة بين الأفراد الذين يتبادلون مصلحةً على أساس الفضيلة أو المنفعة أو المتعة، ومن ثم فإنَّ السَّعادةَ الفرديَّةَ تزدهر عبر الصداقات -بحسب أرسطو- التي يكون فيها النّاسُ مستعدين للعطاء دون أن يطلب منهم وبذلك ينقلون مفاهيمهم الذاتية ويكتسبون غيرها ولكن ذلك ليس محدوداً تجاه الأشخاص بل تجاه الأشياء والأماكن التي يشعرون أنهم مرتبطون بها أيضاً. وبناءً على ذلك لكي نعرف كيف يمكن للروبوتات أن تتلاءم مع هذه الحياة الخيّرة التي تعتمد على الصداقة ينبغي أن نفهم دور التكنولوجيا في المجتمع (1).

كيف تؤثر التكنولوجيا في حياتنا؟

تؤدي التكنولوجيا حاليّاً دوراً في مساعدتنا لتحقيق الحياة الخيّرة، وفي الوقت نفسه تؤثر في خياراتنا الأخلاقية، فمثلاً مطبات السرعة تدفعنا لتخفيف السرعة، وقد يؤدي ذلك إلى إيجادِ معاييرَ اجتماعيّةٍ جديدة؛ إذ تتشابك الأعراف والأخلاق الاجتماعية ضمنيّاً أو صراحةً مع التكنولوجيا؛ مما يعزز أو يغير من ممارساتنا ومعتقداتنا؛ وبذلك فهي تشكِّل سياق استخدامها وتتشكَّل من خلاله؛ أي بمجرّد دخول روبوت إلى بيئةٍ اجتماعيّةٍ فإنه سيعيد توزيع الأدوار وكذلك كيفية تصرّف الأشخاص في سياق الاستخدام وهو ما يميّز التكنولوجيا بأنها تتعدى كونَها أدواتٍ وظيفيّةً إلى تأديتها دوراً اجتماعياً وأخلاقياً مؤثراً في حياة الأفراد وتعاملهم مع بعضهم (1).

ولكن ما الذي يجعل البشر يتفاعلون مع الروبوتات بطريقة مختلفة عن باقي التكنولوجيات؟ 

تتميز الروبوتات بدورها عن باقي التكنولوجيات الأخرى بأنها مجسَّمة وقادرة على الحركة وذات تحكم ذاتي، والأهم أنها قادرة على الإحساس بالبيئة الاجتماعية والتفاعل معها، ونشهد حالياً تطوّر أدوات هذا التفاعل بالصور والأصوات والتواصل الشفهي والحركي مثل مسك الأيدي، والتواصل من خلال العيون (1).

وتشير الدراسات إلى أن شكل الروبوتات أيضاً يؤدي دوراً مهماً في علاقة البشر بهم؛ إذ يختلف تعامل البشر مع الروبوتات باختلاف المظهر  الجندري والشكل البشري أو الشكل الحيواني للروبوتات، ويشبه ذلك علاقاتنا مع الحيوانات؛ إذ  نحب الحيوانات ذات المظهر اللطيف، في حين أنَّنَا قد نعاملُ الأخرى بسوء (3).

وفي إحدى التجارب؛ لم يستطع الأطفال أن يصنفِّوا الروبوتات على أنها حيّة أو غير حية، مع أنهم قادرون على تصنيف باقي الكائنات وفقاً لصفاتها النفسية والبيولوجية (1)، ووفقاً للباحث الياباني شوجي هاشيموتو (Shuji Hashimoto) تصنَّفُ الروبوتات تصنيفاً ثالثاً؛ فهي حية من حيث المظهر والسلوك، وغير حية من حيث الوعي الذاتي (2).

بناءً على المكانة الاجتماعية التي ستحتلها الروبوتات في حياتنا؛ فإنها من ثم ستحتلُّ مكانةً أخلاقيّةً، تتحدد من خلالها سلوكياتها الأخلاقية وبالمقابل سلوكياتنا تجاهها، ويرى البعض أنَّ سلوكنا مع الروبوتات يجب أن يكون مشابهاً لسلوكنا مع البشر باعتبار الروبوتات مصممة لتحاكي سلوكنا، إلا أنَّ وصف هذه العلاقة يجب أن يندرج تحت وصف المُرافقة باعتبارها علاقةً غير متكافئة أخلاقياً، خلافاً للصداقة المثالية التي تكون وفقاً لأرسطو بين شخصين متكافئين يسعى كل منهما لتحقيق الخير  للآخر.

فالمُرافقة بين البشر والروبوتات تعني علاقةً عاطفية من جهة البشر لأنهم يميلون لرؤية الروبوتات على أنها كائنات اجتماعية وليست فقط مفيدة وظيفيّاً في حين أنَّ الروبوتات لا تملك عواطفاً، إلا إذا عَدَّ الإنسانُ الروبوت صديقه بناءً على سعي الأخير لتحقيق مصلحة الإنسان وبذلك مساعدته للوصول للحياة الخيِّرة (1). إلا أنَّ وجهةَ النظر هذه تختلفُ من ثقافة إلى أخرى ومن مجتمع لآخر (3).

وتركز أبحاث تصميم الروبوتات حاليّاً على قدرتها على إبداء المشاعر والتعبير عنها وقد نجحت في ذلك من خلال تعبيرات الوجه، ولكن بقيت قدرات التواصل والتفاعل الحقيقية عندها محدودة، وهذا يعني أن البشر يُخدَعون للارتباط عاطفياً مع الروبوتات، مما يجعلنا نتساءل عن أخلاقيّة هذه العلاقة. ويأتي الجواب بأننا نحن البشر في علاقاتنا نمارس الخداع في مشاعرنا وعواطفنا لغايات مختلفة، كحماية مشاعر أحدهم أو الحفاظ على علاقة ما أو تحقيق مصلحة مادية حتى، وبذلك يمكننا اعتبار الخداع في علاقاتنا مع الروبوتات أخلاقيّاً ما دام أنّه يحقق الخير في حياة الإنسان، ولكن عندها ستختفي الثقة في هذه العلاقات (1).

من جهةٍ أخرى، تشير الدراسات إلى أن التواصل الاجتماعي ضروري للتكوين الطبيعي للشخصية لكونه جزءاً أساسياً من السلوك البشري، وحالياً بانتشار الأدوات الرقمية واستخدامنا لها في مناحي الحياة المختلفة، لوحظت تغييرات واضحة في سلوكنا تمثّلت في ضعف القدرات الاجتماعية والعاطفية، مما يثير المخاوف من تدهورها أكثر عند التعامل مع الروبوتات، وخصوصاً بالنسبة للأطفال وللمسنين في دور الرعاية الذين يعانون من الانعزال الاجتماعي (1).

كان ذلك موقفنا من الروبوتات. فما موقف الروبوتات منا؟

تُصمم الروبوتات الصناعية حاليّاً وفقاً لشروط المنظمة العالمية للمعايير (ISO)، أما الروبوتات المستقبلية المتفاعلة اجتماعياً فيجب أن تلتزم معايير المنظمة لتجنب التسبب بالحوادث، إضافةً إلى تعليمها كيفية التصرف في أثناء الحوادث الطارئة، الذي يستلزم امتلاكها للقدرة على حرية التحكم الذاتي، ولحماية أمان البشر عندها؛ يجب أن تتبع الروبوتات نظاماً وقواعدَ محددةً، وأشهرها قوانين إسحق عظيموف (Isaac Asimov 1920-1992) كاتب الخيال العلميِّ؛ التي تنص على أنه:

- لا يجوز لآلي إيذاء بشريّ أو السكوت عما قد يسبب أذى له.

- يجب على الآلي إطاعة أوامر البشر إلا إذا تعارضت مع القانون الأول.

- يجب على الآلي المحافظة على بقائه طالما خلا ذلك من التعارض مع القانونين الأول والثاني (2).

وأُصدِرَت العديد من الأنظمة التي تحدد أخلاقيات الروبوتات، ولكن تكمن المشكلة فيها بأنها ذات مركزية بشرية إذ تعاملُ الرّوبوتات خادمةً للبشر، أمّا في حال تزويدها بقدرات التحكم الذاتي فإنها قد تكتسب صفاتٍ شخصيّةً نابعةً عن وعي ذاتي، وعندها ستكتسب حقوقاً قد تشبه حقوق الحيوان أو أقرب لحقوق البشر. وهنا تبرز مشكلة أخرى؛ وهي أنه في حال ارتكابها خطأ ما، فهل ستتتحمّل مسؤوليَّةَ أفعالها وسنعاقبُها كما نعاقب البشر! مما يستدعي أن تمتلكَ أخلاقاً بشريَّةً وأنْ تُحِسَّ بالألم مثلنا، أم سنحمل البشر الذين صنعوها المسؤولية الكاملة (2)؟

في النهاية نجد أنّ البشر يميلون للارتباط العاطفيِّ بالروبوتات مما يحقِّقُ لهم فوائدَ كثيرةً على أصعدة مختلفة؛ كالعمل والأعمال المنزلية والنقل، وبذلك تكون علاقتنا بالروبوتات مبنيّةً على الأداءِ والتعامل، وعندها هل سنتخذ الروبوتات أصدقاءً أم سنتعامل معهم كحيوانات أليفة؟

وفي ظل الثقافات المختلفة والقواعد الأخلاقيّة المتباينة للمجتمعات؛ هل ستختلف المعايير الاجتماعية والأخلاقية والقانونية التي ستنظم مجتمعات البشر والروبوتات؟

وهل سيبقى فهم الروبوتات مشاعرَنا فهماً حقيقيّاً إسقاطاً وهمياً من صنع خيالنا (1)؟

نترك الإجابة للأبحاث العلمية المستقبلية.

المصادر:

1. de Graaf M. An Ethical Evaluation of Human–Robot Relationships. International Journal of Social Robotics [Internet]. 2016 [cited 26 August 2021];8(4):589-598. Available from: هنا

2. Weng Y, Chen C, Sun C. Toward the Human–Robot Co-Existence Society: On Safety Intelligence for Next Generation Robots. International Journal of Social Robotics [Internet]. 2009 [cited 26 August 2021];1(4):267-282. Available from: هنا

3. Coeckelbergh M. Humans, Animals, and Robots: A Phenomenological Approach to Human-Robot Relations. International Journal of Social Robotics [Internet]. 2010 [cited 26 August 2021];3(2):197-204. Available from: هنا