الهندسة والآليات > التكنولوجيا

حواسيبٌ جديدة تتعلمُ من تجاربها كالبشر، وتحلُ المعضلاتِ الأخلاقية

استمع على ساوندكلاود 🎧

تمثِّلُ المعضلاتُ الأخلاقيةُ أمراً غايةً في التعقيدِ بالنسبة للبشرِ فكيف الأمرُ بالنسبةِ للحواسيب؟ يعودُ السببُ في صعوبةِ وتعقيدِ هذه المعضلاتِ إلى أنها تحتاجُ إلى تفكيرٍ عميقٍ ومقارنةِ كلِّ الحلولِ واختيارِ أمثلِها، وغالباً ما يجبُ لحلها تفضيلُ المنطقِ على العاطفةِ أو العكس، وهو أمرٌ يفعله البشرُ باستخدامِ معارفِهم المتراكمةِ وخبراتِهم السابقةِ، وهذه مَلَكَةٌ لا تمتلكُها الحواسيب. وبالإضافةِ إلى المعضلاتِ الأخلاقيةِ، تعجزُ الحواسيبُ كذلك أمامَ الكثيرِ من المسائلِ التي تتطلبُ القياسَ على مسائلَ مشابهةٍ في الوقتِ الذي يتعاملُ معها البشرُ بكلِّ سهولةٍ ويُسْر.

و لِردمِ هذه الهوةِ بين البشرِ والحواسيبِ فيما يتعلق بالتفكيرِ والذكاء؛ قامَ بروفيسورُ الهندسةِ الكهربائيةِ وعلومِ الحاسب Ken Forbus من جامعةِ نورث ويسترن وبمساعدةِ بعضٍ من زملائِه بتطويرِ نموذجٍ يقدّمُ للحواسيبِ القدرةَ على التفكيرِ كالبشرِ وحلِّ المعضلاتِ الأخلاقية، وأطلقوا على هذا النموذجِ اسمَ (structure-mapping engine (SME أو محركُ تخطيطِ البنيةِ. يمكنُ لهذا النموذجِ استخدامُ طريقةِ القياسِ على مسائلٍ مشابهةٍ أخرى لحلِّ المسألةِ التي يواجِهُهَا، تماماً كما يفعلُ البشر.[1]

يقول Ken: " يمتلكُ البشرُ مهارةَ القياسِ، فهم يستخدمونَ العباراتِ العلائقيةِ سبيلاً لِوصفِ الأشياءِ وحلِّ المشاكلِ وإيجادِ الأسبابِ والبتِّ في المعضلاتِ الأخلاقية".

وقد استفاد Ken من نظرياتِ علمِ المعرفةِ أو علم الإدراكِ (cognitive science) في أثناءِ القيامِ ببناءِ النموذجِ الذي ذكرناه مُسبقاً. وعلمُ المعرفةِ أو الإدراكِ: هو العلمُ الذي يُعنى بدراسةِ العقلِ والذكاءِ بالاعتمادِ على مجالاتٍ متنوعةٍ كالفلسفةِ وعلمِ النفسِ والذكاءِ الصنعي وعلمِ الأعصابِ وعلمِ اللغوياتِ وعلمِ الإنسانِ -الأنثروبولوجيا-. [2]

يُعتَبرُ عالمُ النفسِ Dedre Gentner هو صاحبُ نظريةِ تخطيطِ البنيةِ (structure-mapping theory) والتي تقومُ على اعتبارِ أنَّ القياسَ هو عبارةٌ عن تخطيطٍ أو ترسيمٍ للمعرفةِ، حيث يتمُّ تقييمُ العلاقاتِ ورسمُ الروابطِ بين مجالٍ أولٍ يُدعى القاعدةَ ومجالٍ آخرٍ يدعى الهدفَ. لذلك فإنَّ القياسَ وِفقاً لهذه النظريةِ هو طريقةٌ لملاحظةِ الأشياءِ المشتركةِ بشكلٍ مستقلٍّ عن توصيفِ المواضيعِ وتفصيلاتِها. [3]

يمكنُ للقياسِ أنْ يكونَ بسيطاً كقولِنا "هاتفُه الجديدُ يشبه كثيراً هاتفُه القديم"، ويمكنُ أنْ يكونَ أكثرَ تعقيداً كأن نقولَ "تتدفقُ الكهرباءُ كما يتدفقُ الماء". ومن هنا انطلقَ Ken، فالجديد الذي قدّمَهُ هو زيادةُ قدرةِ نموذجِSME على التعاملِ مع مسائلَ قياسٍ أكثرَ تعقيداً؛ بحيث تستطيعُ معها الحواسيبُ القيامَ بالاستدلالِ البصري والتعاملَ مع النصوصِ المكتوبةِ وكذلك حلُّ المعضلاتِ الأخلاقيةِ. [1]

إنَّ العديدَ من أنماطِ الذكاءِ الصنعيّ، مثلَ نظامِ AlphaGo التابعِ لشركةِ غوغل، تعتمدُ على نظرياتِ التعليمِ العميقِ، وهي عمليةُ تدريبِ الحواسيبِ من خلالِ كميةٍ هائلةٍ جداً من البيانات. في حين أنَّ البشرَ والأنظمةَ المعتمدةَ على نموذجِ SME، لهم القدرةُ على التعلمِ بنجاحٍ وذلك بالاعتمادِ على كميةِ بياناتٍ أقلَّ بكثيرٍ من البياناتِ اللازمةِ في نظريةِ التعليمِ العميقِ. فعلى سبيلِ المثال وفي سياقِ تعليمِ الحاسبِ المعتمد على نموذجِ SME كيفيةَ صناعةِ القراراتِ الأخلاقية، فإنَّهُ تكفي بعضَ القصصِ لتعليمِ هذا الحاسبِ كيف يمكنُ أن يأخذَ قراراً أخلاقياً وذلك كما يفعلُ البشرُ مع تجاربِهم النفسيةِ. فبعدَ القيامِ بعمليةِ التعليمِ وعندَ حلِّ قضيةٍ جديدةٍ يقوم الحاسبُ بالعودةِ إلى القضايا السابقةِ ومحاولةِ القياسِ وإيجادِ القيمِ المقدسةِ ومن ثمَّ اتخاذِ القرارِ بناءً على ذلك. [1]

وقد تمَّ تعليمُ النموذجِ SME حلَّ المسائلِ الفيزيائيةِ أيضاً، وذلك من خلالِ اختبارِ مستوًى متقدمٍ باستخدامِ برنامجٍ تمَّ تطويرُه من قِبَلِ مؤسسةِ Educational Testing Service . ولمزيدٍ من التأكيدِ على مدى مرونةِ نموذجِ SME فقد تمَّ استخدامه أيضاً في حلِّ بعضِ المسائلِ البصريةِ التي تتضمنُ تعدُّدًا في المهامِ.

ولِتشجيعِ البحثِ في القياسِ ونظرياتِه، قام Ken وفريقُهُ بِنشرِ الكودِ البرمجيّ لخمسِ مئةِ مثالٍ تتضمنُ التعاملَ مع المسائلِ البصريةِ والنصوصِ المكتوبةِ واتخاذَ القراراتِ الأخلاقية.

إنَّ مستوى التعقيدِ الذي وصلَ إليه النموذجُ SME يقترحُ أنَّ نظريةَ القياسِ يمكنُ أنْ تؤدي إلى تقنيةٍ جديدةٍ في أنظمةِ الذكاءِ الصنعي، مما قد يزيدُ من ذكاءِ الحواسيبِ لدرجةٍ تجعلُها قادرةً على حلِّ تلك المشكلاتِ والمسائلِ التي بقيتْ حكراً على البشرِ لفترةٍ طويلة.

هل تتوقع أن يحدث ذلك عزيزي القارئ؟ نتمنى أن تشاركنا برأيك في قسم التعليقات.

المصادر:

1- هنا

2- هنا

3- هنا