المعلوماتية > الذكاء الصنعي

الذكاء الصنعي يتقن لعبة صينية تعود إلى 2500 سنة!

استمع على ساوندكلاود 🎧

تفوّق الحاسوب على أفضل اللاعبين من البشر بلعبة الشطرنج، وكذلك لعبة الداما وطاولة الزهر، ولكن كان هنالك عائق ضخم أمامه للفوز في لعبة Go -وهي لعبة لوحية قديمة طالما عُدّت واحدة من أكبر التحديات التي تواجه الذكاء الصنعي. اليوم تزعم شركة «غوغل» DeepMind المتخصصة بالذكاء الصنعي أن آلتها قد أتقنت هذه اللعبة.

كشفت شركة DeepMind في دراسة نشرت في مجلة Nature في 27 كانون الثاني/يناير، أن برنامجها المدعو AlphaGo تغلب على البطل الأوروبي Fan Hui بلعبة Go خمس مرات من أصل خمس -هنا- وهزم أيضاً منافسيه من أفضل برامج الحاسوب الأخرى في 99.8٪ من المباريات. AlphaGo المطوّر من قبل الباحثين "David Silver" و"Demis Hassabis" لم يلعب في بطولة العالم أو ما يعادلها بعد، ولكن من المقرر في آذار/مارس القادم أن يلعب مباراة ضد المحترف "Lee Sedol" من كوريا الجنوبية البالغ من العمر 32 عاماً، والذي يعتبره الكثيرون أقوى لاعب في العالم، حيث سيمثّل Sedol البشرية أمام AlphaGo، وبخسارته ستكون Go لعبة أخرى تخلى فيها البشر عن السيادة للحواسيب، ويبدو أن مؤسسي DeepMind واثقون من الفوز.

في الماضي، قامت شركة IBM ببناء الحاسوب Deep Blue- الذي تغلب على بطل الشطرنج الشهير «غاري كاسباروف» عام 1997- خصيصاً للفوز بهذه اللعبة. أما AlphaGo فهو ليس مبرمج للعب GO وحسب، إنما تم تعليمه باستخدام خوارزمية للأغراض العامة تسمح له بتفسير نماذج اللعبة، بطريقة مماثلة لكيفية تعلم برامج DeepMind للعب 49 لعبة مختلفة. وهذا يعني أن تقنيات مشابهة يمكن تطبيقها على مجالات الذكاء الصنعي الأخرى التي تتطلب التعرف على أنماط معقدة والتخطيط على المدى الطويل وصنع القرار، ويقول Hassabis أن هناك الكثير من الأشياء التي يمكن القيام بها في العالم والتي تندرج تحت هذا العنوان، مثل استخدام الصور الطبية لتقديم التشخيص أو خطط العلاج وتحسين نماذج تغير المناخ.

تحظى لعبة GO في الصين واليابان وكوريا الجنوبية بشعبية كبيرة، وقد اهتم باحثو الذكاء الصنعي باللعبة لفترة طويلة بسبب تعقيد حلِّها. هي لعبة يلعبها لاعبان اثنان، نشأت في الصين منذ أكثر من 2500 سنة، وقواعدها بسيطة نسبياً: الهدف هو السيطرة على معظم المناطق من رقعة اللعب عن طريق وضع والتقاط الحجارة السوداء والبيضاء على شبكة أبعادها 19 × 19، لكن متوسط عدد الحركات الممكنة في كل خطوة هو 150حركة، وتحتوي العديد من الترتيبات الممكنة حيث يوجد 10170 احتمال، فالحجم الهائل من السيناريوهات المحتملة في كل خطوة يجعل حلها عن طريق الخوارزميات التي تبحث بشكل شامل عن أفضل خطوة غير ممكن.

على الرغم من كون الشطرنج أقل تعقيداً من Go، إلا أن فيها الكثير من التشكيلات الممكنة لحلها عن طريق تجريب كل الاحتمالات الممكنة. فبدلاً من ذلك، خفضت البرامج تعقيد عمليات البحث من خلال النظر إلى الأمام قليلاً وتوقع لأي لاعب ستكون الغلبة. في لعبة Go، معرفة أماكن الفوز والخسارة أصعب بكثير، فالحجارة لها قيم متساوية ويمكن أن يكون لها آثار خفية بعيدة في جميع أنحاء اللوحة.

لتفسير لوحات Go ومعرفة أفضل التحركات المحتملة، يطبق برنامج AlphaGo التعلم العميق في الشبكات العصبونية، وهي برامج مستوحاة من الدماغ؛ حيث يتم تعزيز الاتصالات من خلال الأمثلة والخبرة بين طبقات من خلايا تحاكي مثيلاتها العصبية عند الإنسان، وبالتالي تسمح لأجهزة الكومبيوتر بتحديد أنماط ضمن كميات كبيرة من البيانات بسرعة لا يمكن للبشر تحقيقها.

أولاً بدأ "Hassabis" و"Silver" بتغذية AlphaGo بمجموعة من 30 مليون حركة من المباريات التي لعبت من قبل لاعبي Go المهرة، ملتقطاً المعلومات المجردة عن حالة اللعب من بيانات اللوحة، حتى أصبح بإمكانه التنبؤ بشكل صحيح بالخطوة التالية للاعب في 57 % من المرات، ثم لعب ضد نفسه عبر 50 جهاز كومبيوتر، وتحسّن مع كل تكرار، وهذه تقنية تعرف باسم تعزيز التعلم.

جمعت DeepMind بين هذا النهج في البحث مع القدرة على اختيار التحركات وتفسير لوحات Go لإعطاء AlphaGo فكرة أفضل عن ماهية الاستراتيجيات التي يرجح أن تكون ناجحة، عن طريق خفض كمية المعلومات التي يحتاج AlphaGo إلى التعامل معها، وتعدُّ هذه التقنية «ظاهرة»؛ فبدلاً من اتباع نهج السنوات الثلاثين الماضية نفسه في محاولة الفوز بالألعاب باستخدام القدرة الحاسوبية، انعطفت DeepMind نحو محاكاة معرفة الإنسان، وذلك عن طريق التدريب بدلاً من البرمجة. وهذا الإنجاز يدل على قوة التعلم العميق.

يلعب AlphaGo بطريقة بشرية، ويقول Fan :" لو لم يخبرني أحد، ربما اعتقدت أن أمامي لاعب غريب بعض الشيء، ولكنه قوي جداً، ولابد أن يكون شخص حقيقي." ولكن يقول "Hassabis" أنه لا تزال هناك العديد من التحديات أمام هدف DeepMind من تطوير نظام ذكاء صنعي معمم. على وجه الخصوص، لا يمكن لبرامجها حتى الآن نقل ما تعلمته عن نظام واحد - مثل Go - إلى مهام جديدة، وهو شيء ينجزه البشر بسلاسة.

ولكن تبقى هناك جائزة واحدة ستجد أجهزة الكومبيوتر صعوبة في أخذها من البشر - لبعض الوقت على الأقل- وهي سوار بطولة العالم للبوكر. يتم لعب الألعاب مثل الشطرنج والداما وGo ضمن إطار من القواعد واضحة المعالم، فلدى اللاعبين «معلومات كاملة» عن وضع اللعبة في كل خطوة، حيث يمكن رؤية لوحة اللعب كاملة، وحالة الخصم واضحة، وتزدهر خوارزميات الكمبيوتر في هذه البيئة. أما في لعبة مثل لعبة البوكر، فالمعلومات لدى اللاعبين غير كاملة، وعدم اليقين في تلك الألعاب يجعلها أكثر تحدياً بالنسبة للحواسيب، فهي ألعاب تعتمد على الحظ ومعلوماتها غير كاملة. يقول "Toby Walsh"، أستاذ الذكاء الصنعي في جامعة New South Wales بأستراليا :" بصرف النظر عن المتغيرات الأخرى للعبة البوكر - كالغموض والعشوائية - هناك ميزة ثالثة وهي: علم النفس"، فعلم النفس والتواصل والتعاون لا تزال تشكل تحديات للآلات، وفهم هذه المعلومات يتطلب معرفة عظيمة بالنسبة لها، بينما يمكن للإنسان القيام بذلك بشكل فطري.

إن الخطوة الكبيرة التالية في مجال الذكاء الصنعي هي خوارزمية قادرة على تجاوز القواعد الواضحة لتقييم بيئتها، وهذا هو ما يدعوه "Bart Selman"، أستاذ علوم الكمبيوتر في جامعة Cornell، فهم المنطق السليم، أو أجهزة الكمبيوتر التي ترى العالم كما نراه نحن. فدمج الخوارزمية مع «المنطق السليم» يمكن أن تكون قفزة عملاقة تربط التقنيات المختلفة معاً. وأضاف أننا ننفق القسم الأكبر من حياتنا بالتفاعل مع أجهزة الحاسوب، وسيكون من المهم بالنسبة لها فهم الحالات العاطفية لدينا، فلتكون ذكية حقاً، يجب أن تملك عواطف منطق فطري سليم.

لم تقرر DeepMind بعد ما إذا كانت ستقدم نسخة تجارية. علماً أن «فيس بوك»، الشركة المنافسة لـ«غوغل»، عملت على برنامج يستخدم تعلّم الآلة للعب Go، ولا يزال برنامجها الذي يدعى "darkforest" في مرحلة الدراسة المرجعية لأنظمة الذكاء الصنعي التجارية الخاصة بـGo.

المصدر:

هنا