المعلوماتية > الذكاء الصنعي

الجانب المظلم من الذّكاء الصنعيّ (الجزء الثّاني)

استمع على ساوندكلاود 🎧

بناء نظم ذكاء اصطناعي قابلة للفهم

هل سنستطيعُ قريبًا الوصول لتطبيقاتِ ذكاءٍ اصطناعيٍّ تتحاورُ وتتفاعلُ معنا بوضوحٍ وشفافيّةٍ، أم أنَّ الذّكاءَ الاصطناعيَّ سيظلُّ صندوقًا أسودَ لا نعلمُ شيئًا عمَّا يحدثُ بداخله؟ استعرضَ مقالنا في جزئه الأوّل المشكلةَ وحجمَها (هنا)، وسنحاولُ في الجزءِ الثَّاني أن نعرضَ بعضَ الجهودِ المبذولةِ الّتي يتوقَّفُ عليها مستقبلُ الذّكاءِ الاصطناعيِّ وعلاقتُه بنا.

في عامِ 2015 استخدمت مجموعةٌ بحثيّةٌ تكنولوجيا التَّعلُّمِ العميقِ والسّجلّاتِ المرضيّةِ لحوالي 700 ألف مريضٍ في مستشفى مونت سيناء في نيويورك لتطويرِ برنامجٍ ذكيٍّ تمّت تسميتُه Deep Patient. يستطيعُ البرنامجُ التَّعلُّمَ من سجّلاتِ المرضى وبياناتهم المختلفة حتّى يتمكَّنَ من التَّنبُّؤ بالمشاكلِ المرضيّةِ لإحدى السِّجلّاتِ المرضيّةِ الجديدةِ الّتي يجري عرضُها على البرنامجِ. لقد حقّق البرنامجُ نتائجَ مبهرةً في اكتشافِ العديدِ من الأنماطِ المتكرِّرةِ في بياناتِ المستشفى، ونجحَ في التَّنبُّؤ بالمرضى الّذين من الممكن أن تسوءَ حالَتُهم المرضيّةُ، كالمرضى المهدّدين بالإصابةِ بسرطانِ الكبدِ.

لقد أظهرَ Deep Patient نتائجَ مبهرةً في التَّنبُّؤِ بالاضطراباتِ النّفسيّةِ مثلَ الشِّيزوفرينيا، وبشكلٍ فاجأ جويل دودلي Joel Dudley الّذي قادَ الفريقُ الّذي طوَّرَ البرنامج، نظرًا الصعوبِة التَّنبُّؤ بالشيزوفرينيا حتّى على الأطبّاءِ المتخصِّصين. لكنَّ البرنامجَ الجديدَ لا يقدِّمُ أيَّ فكرةٍ عن كيفيَّةِ توصُّله لهذه النّتائج ويُعلِّق دودلي على هذا الأمرِ قائلًا: "نحن نستطيعُ بناءَ هذهِ النُّظمِ، ولكنَّنا لا نعرفُ كيفَ تعملُ داخليًا!"

كانَ هناكَ دائمًا مدرستانِ في التّفكيرِ حولَ ما يجبُ أن يكونَ عليه الذَّكاءُ الاصطناعيُّ وتطبيقاتُه، وخاصّةً فيما يتعلَّقُ بإمكانيّةِ فهمِ واستيعابِ طريقةِ عملِه ووصولِه للنّتائج. المدرسةُ الأولى سعت لبناءِ تطبيقاتٍ ونظمٍ باستخدامِ مجموعةٍ من القواعدِ والأوامرِ، الّتي جرى كتابةُ كلِّ تفاصيلها سلفًا بواسطةِ مجموعةٍ من المبرمجين، وبالتّالي فإنَّ منطقَ عملِها سهلُ الفهمِ وكلُّ قرارتِه متوقَّعة. المدرسةُ الثّانيةُ تؤمن بأنَّ مستقبلَ الذّكاءِ الاصطناعيِّ للآلاتِ مرهونٌ بتعلُّمه من الذّكاءِ البشريِّ، وكيفيّةِ تطوُّره من خلالِ الملاحظةِ والتّجربةِ، ما يعني أنَّنا لن نكونَ من أمام مجموعةٍ من الأوامرِ المحدَّدةِ سلفًا، وإنّما مجموعةُ برامجَ وخوارزميّاتٍ تقومُ ببرمجةِ نفسِها بنفسِها من خلالِ التَّعلُّم من البياناتِ المتعلِّقةِ بالمشكلةِ الّتي تتصدَّرُ هذه البرامج لحلِّها.

في البدايةِ كانت التّطبيقاتُ العمليّةُ للذّكاءِ الاصطناعيِّ محدودةً جدًّا، وهو ما لم يساعد على انتشاره، إلّا أنّه ومع زيادةِ أحجامِ البياناتِ المتبادلَةِ ودخولِ الحواسيبِ لصناعاتٍ عديدةٍ، فقد أُعيدَ اكتشافُه من جديدٍ. ساعدَ هذه الميلادُ الجديدُ للذّكاءِ الاصطناعيِّ على تطويرِ طرقٍ جديدةٍ لتعليمِ الآلاتِ، وخاصَّةً النُّسخُ الحديثةُ من الشَّبكاتِ العصبيّةِ الاصطناعيّةِ artificial neural network الّتي تُحاكي عملَ الشَّبكاتِ العصبيّةِ في أدمغتنا.

بحلولِ عام 1990 استطاعت الشّبكاتُ العصبيّةُ الاصطناعيّةُ التَّعرُّفَ على الوثائقِ المكتوبةِ بخطِّ اليدِ وتحويلِها لصورةٍ رقميّةٍ، إلّا أنّ بدايةَ هذا العِقدِ مثَّلت تطوّرًا ثوريًّا مثَّلته الشّبكاتُ العصبيّةُ العميقةُ، الّتي أصبحت كبيرةً جدًّا، وتحتوي مئاتِ الطّبقاتِ الّتي يوجدُ في كلِّ طبقةٍ منها آلافُ الخلايا العصبيّةِ الاصطناعيّةِ.

يُعتَبَرُ التَّعلُّم العميقُ إحدى الطُّرقِ أو الخوارزميّاتِ في مجالِ تعلُّم الآلةِ، ويرجعُ له الفضلُ في الانطلاقةِ الحاليّةِ للذّكاءِ الاصطناعيِّ وتطبيقاتِه، وهو ما مكّنَ الآلاتِ من مُحاكاةِ الذّكاءِ البشريِّ لتسمعَ وترى وتُحلِّلَ وتُفكِّرَ مثلَ البشرِ.

الطَّبقاتُ العديدةُ الّتي تتكوَّنُ منها الشَّبكاتُ العصبيّةُ العميقةُ ساعدَتها على القيامِ بمهامَ أكثرُ تعقيدًا لم تكن الآلاتُ أو الحواسيبُ تستطيعُ القيامَ بها حتّى وقتٍ قريبٍ، إلّا أنَّ طبيعةَ هذه الشَّبكاتِ وطبقاتِها العديدة وآلافَ الخلايا العصبيّةِ الّتي تتكوَّنُ منها لم يجعل مهمّة فهمِ عملِ هذه الشّبكاتِ من الدّاخلِ أمرًا سهلًا، وهو ما جعلَ التَّعلُّمَ العميقَ وكأنَّهُ صندوقٌ أسودُ مظلمٌ.

حتّى الآنَ تُعتبر الطّريقةُ الّتي تعملُ بها تكنولوجيا تعلُّمِ الآلةِ غامضةً إلى حدٍّ كبيرٍ، حتّى بالنّسبةِ لمطوِّري التّطبيقاتِ المُعتمِدَةِ عليها، وقد لا ينطبقُ هذا بالتّساوي على جميعِ طرقِ الذّكاءِ الاصطناعيِّ الأخرى الّتي يُعتبَرُ تعلُّمُ الآلةِ إحداها.

تعملُ الدّكتورة ريجينا بارزيلاي Regina Barzilay أستاذًا في معهدِ ماساشوستس للتّقنيّة MIT، وتحاولُ تطبيقَ تعلُّمِ الآلةِ في المجالِ الطُّبِّيَّ. جرى تشخيصُ ريجينا بسرطانِ الثّدي في الثّالثةِ والأربعينَ، ولم يكن الأمرُ سهلًا عليها، وما صعَّبَ الأمرَ عليها أنَّ الطُّرقَ الحاليّةَ لكلٍّ من الإحصاءِ وتعلُّمِ الآلةِ لا تُستخدَمُ للمساعدةِ في أبحاثِ علمِ الأورامِ أو في وضعِ البرامجِ العلاجيّةِ المناسبةِ للمرضى. لقد كانت ريجينا على ثقةٍ من القدراتِ الكامنةِ للذّكاءِ الاصطناعيِّ في تفجيرِ ثورةٍ طبيَّةٍ، ولكنَّ الأمرَ يجبُ أن يتجاوز مجردَ استخدامِ السِّجلَّاتِ الطُّبيَّةِ للمرضى ويتوسعَ لاستخدامِ نتائجَ وصورِ الفحوصاتِ الطَُّّبِّيَّةِ وكلِّ البياناتِ المتعلِّقةِ بالمرضى وأمراضِهم.

بعد أن انتهت الدّكتورة ريجينا من آخرِ مراحلِ عِلاجِها بدأت مع مجموعةٍ من طُلَّابها وبالاشتراكِ مع مجموعةِ أطباءٍ من مستشفى ماساشوستس العام في تطوير نظامٍ يُنقِّبُ في تقاريرِ تشخيصِ المرضى وطبيعةِ مرضهم لتحديدِ المرضى الّذين يعانون من أعراضٍ مرضيّةٍ محدَّدةٍ من الممكنِ أن تثيرَ اهتمامَ الباحثين.

كانت ريجينا مهتمّةً بأن يمتلكَ النّظامُ القدرةَ على شرحِ أسبابِه وطريقةِ توصُّلِه للنّتائج، ولهذا فقد تمَّ إضافةُ خطوةٍ يقومُ فيها النّظامُ باستخلاصِ مختَصَرٍ يوضِّحُ ويشرحُ النَّمطَ أو النَّتيجةَ الّتي توصَّلَ إليها. وصفت الدّكتورة ريجينا هذه الخطوةَ بأنَّ من سبيلها أن تدعمَ التَّعاونَ بينَ قُدراتِ الآلةِ والقدراتِ البشريّةِ.

لابدَّ من الحذر

تستثمرُ الحكومةُ الأمريكيّةُ ملياراتِ الدّولاراتِ لتوظيفِ تكنولوجيا تعلُّمِ الآلةِ في الأغراضِ العسكريّةِ، مثلَ قيادةِ المركباتِ والطّائراتِ وتحديدِ الأهدافِ. حدَّدت وزارةُ الدّفاعِ قابليَّةَ الفهمِ لعملِ هذه التّكنولوجيا من الدّاخلِ والكيفيّةِ الّتي تتوصَّلُ بها للنّتائجِ بأنّهما من أهمِّ التّحدياتِ أمامَ مثل هذه المشروعات. إحدى هذه المشروعاتِ تمّت تحتَ رعايةِ وكالةِ أبحاثِ الدّفاعِ المُتقدِّمة DARPA وتحتَ قيادةِ الدّكتور كارلوس جويسترين Carlos Guestrin -الأستاذُ بجامعة واشنطن-. طوّرَ الدّكتور كارلوس ورفاقُه طريقةً تُمكِّنُ النُّظُمَ المُعتمِدَةَ على تعلُّمِ الآلةِ من تقديم المنطقِ والأسبابِ الّتي تمَّ من خلالِها التَّوصُّلُ للنّتائجِ الّتي خرجت بها.

إحدى أوجُه قصورِ الطّريقةِ الّتي استخدمها الدّكتور كارلوس والطّرقِ المشابهةِ الّتي استخدمتها الدّكتورة ريجينا أنّ الشّرحَ المُقَدَّمَ من هذه الطُّرقِ يكونُ بدائيًّا جدًّا، ما يعني أنَّ بعضَ المعلوماتِ الأساسيّةِ غائبةً. يُعلِّقُ الدّكتور كارلوس على هذا الأمرِ قائلًا: "لم نحقّق ما حلُمنا به بشكلٍ مُكتملٍ، فهدفُنا أن نُطوّرَ نظامًا يتحاورُ فيه الذّكاءُ الاصطناعيُّ وتطبيقاتُه معنا، على أن يستطيعَ شرحَ منطقَ عملِه لنا بطريقةٍ مفهومةٍ. وحتّى الآن نحن على مسافةٍ بعيدةٍ من الوصول لذكاءٍ اصطناعيٍّ يستطيعُ أن يشرحَ طريقةَ عملِهِ ومنطقِهِ لمُطوِّريهِ ومُستخدمِيه"

قابليّةُ النُّظمِ للفهمِ ووضوحِ منطقِها لا يقتصرُ على تطبيقاتٍ بعينِها، ولكنَّه أمرٌ أساسيٌّ لمستقبلِ الذّكاءِ الاصطناعيِّ لو أرادَ أن يجدَ لنفسِهِ مكانًا في حياتِنا اليوميّةِ. يقودُ توم جروبر Tom Gruber الفريقَ الّذي يعملُ على المُساعدِ الذّكيِّ سيري Siri من شركةِ آبل Apple، ويؤكِّدُ بأنَّ قابليّةَ منطقِ العملِ للشَّرحِ أمرٌ هامٌ جدًّا يضعه فريقُه على قائمةِ أولويّاتهم لمستقبلِ سيري. لو استقبل أحدُ المستخدمينَ اقتراحًا من سيري يختارُ له أحدُ المطاعمِ لتناولِ غذائه، فإنَّ المستخدمَ يحتاجُ أن يعرفَ منطقَ الاختيارِ وأسبابَه. يؤكِّدُ أيضًا مديرُ قسمِ أبحاثِ الذَّكاءِ الاصطناعيِّ في آبل أنَّ قابليَّةَ النُّظمِ ومنطقَها للفهم أمرٌ أساسيٌّ في تطوّرِ العلاقةِ بين البشرِ والآلاتِ الذّكيّةِ، وقاعدةٌ أساسيّةٌ لبناءِ الثّقةِ في مثلِ هذهِ النُّظم.

قد يكون الحلُّ ببساطةٍ لهذا الجدالِ الدّائرِ أن نقدِّمَ ثقتَنا فيما يقرِّرَه لنا الذّكاءُ الاصطناعيُّ وتطبيقاتُه أو نتقدَّم في طريقنا من دونه، لكن هناكَ أمرٌّ لا يقلُّ أهميَّةً يتعلَّقُ بالطّريقةِ الّتي يعملُ بها الذَّكاءُ الاصطناعيُّ والّتي يجبُ أن تتفق مع قيمنا الاجتماعيّةِ. مثلًا لو أنّنا قمنا بتطويرِ روبوتٍ يُستخدَمُ في الأغراضِ العسكريّةِ، فمنَ المُهمِّ أن تتوافَقَ طريقتُه في العملِ واتّخاذِ القراراتِ مع قيمنا الأخلاقيّةِ.

إذا كنّا سنستخدمُ الذَّكاءَ الاصطناعيَّ ونعتمدُ عليه في حياتِنا، فعلينا أن نمُسكَ بمقبضِه بين أيدينا بحزمٍ، ومفتاحُ الأمرِ معرفةُ كيفَ ولماذا حصلنا منه على إجابةٍ ما في موقفٍ ما، وذلكَ ما كانَ الأمرُ ممكنًا. بما أنَّه من الممكن أن لا نحصلَ على إجابةٍ مثاليّةٍ، فيجب أن نتحلّى بالحذرِ تجاهَ ما يقرِّره لنا الذّكاءُ الاصطناعيُّ وتطبيقاته، ولا يجبُ أن يخدعنا مستوى ذكاءِ الآلاتِ الّذي تتقدَّمُ يومًا عن يوم. يقدِّمُ الفيلسوفُ الشّهيرُ دانيال دينيت Daniel Dennett نصيحةً نختتمُ بها حديثنا "لا تقدّم ثقةً مجّانيّةً للآلاتِ وذكائها، ما لم تجد لديها تفوّقًا في شرحِ ما تقومُ به، وتفصيلًا لمنطِقها في القراراتِ الّتي تتّخذها."

----------------------------------------------------------

المصدر:

هنا