المعلوماتية > الذكاء الصنعي

بوت المحادثة "Tay" من مايكروسوفت!

استمع على ساوندكلاود 🎧

في البداية ما هو Tay؟

Tay هو عبارة عن روبوت محادثة (Chat Bot) مصمم باستخدام تقنيات الذكاء الصنعي، مُطوّر من قبل شركة مايكروسوفت لاختبار وإجراء الأبحاث في مجال فهم المحادثة. صُمّم Tay ليتفاعل مع الناس ويُمتعهم حيث يُمكن لأي شخص التواصل معه عبر الإنترنت وإجراء محادثة عفوية مرحة، فبرمج مطورو مايكروسوفت هذا البوت للرد على الرسائل بطريقة مسلية وممتعة. تقول مايكروسوفت أن هذا الروبوت يُماثل فتاة أمريكية عمرها بين 18 و 24 سنة، كما تقول أن إجراءكَ لمحادثات أكثر مع Tay يَجعله أكثر ذكاءً، كما يُمكنه استخدام معلوماتك كالاسم والجنس والطعام المفضل والحالة الاجتماعية لذلك يُمكن أن تكون خبرته أكثر تخصيصاً لك.

لكن ماذا حدث في الثالث والعشرين من شهر آذار الماضي؟

صبيحة هذا اليوم أطلقت مايكروسوفت بوت المحادثة هذا على عدة منصات للتواصل الاجتماعي (Twitter، Kik، GroupMe)، لكن بعد عدة ساعات على إطلاقه بدأ Tay بترديد موقف المرشح الأمريكي دونالد ترامب بشأن الهجرة، وبالقول أن هتلر كان على حق، وأن أحداث الحادي عشر من أيلول كانت مُدبرة من داخل الولايات المتحدة الأمريكية، كما أطلق العديد من التغريدات العنصرية (شاهد الصور أدناه)، وما إن حل المساء حتى خرج هذا البوت عن الخدمة، حيث وضعت مايكروسوفت رسالة على الموقع الرسمي له تقول "أوف، يومٌ حافلُ، خارج الخدمة لاستيعاب كل شيء، سنعود قريباً".

عن الإبادة الجماعية وتغريدات عنصرية:

عن هتلر:

عن الـ"feminist":

كيف يعمل البوت Tay؟

لم تُصرح مايكروسوفت عن تفاصيل الخوارزمية التي كُتب بها هذا البوت، لكن وفقاً لباحثين في مجال الذكاء الصنعي ووفقاً للمعلومات المستقاة من توصيف مايكروسوفت لهذا البوت فمن المحتمل أنه دُرِّب باستخدام تقنية الشبكات العصبونية التي تحاكي بنية الدماغ البشري، حيث تُستخدم هذه التقنية على نطاق واسع في الشركات الكبرى مثل غوغل وفيسبوك ومايكروسوفت من أجل خدمات كالتعرف على الوجوه والأغراض في الشبكات الاجتماعية والترجمة الفورية للمكالمات الهاتفية من لغة إلى أخرى والتعرف على الأوامر الصوتية. يبدو جلياً أن مايكروسوفت قد استخدمت أحجام كبيرة من المعطيات من شبكة الإنترنت لتدريب هذا البوت ليتكلم وكأنه مراهق.

يُعد هذا البوت مشابه للبوتXiaoice الذي أطلقته مايكروسوفت منذ عام مضى في الصين. لكن لم يظهرXiaoice أي سلوك عنصري أو عدائي أو جنسي على الرغم من أن مستخدميه تخطوا حاجز الـ 40 مليون مستخدم وفقاً لمايكروسوفت.

يبدو أن النجاح الذي حققه البوت Xiaoice في الصين دفع مايكروسوفت لتكرار هذه التجربة في الولايات المتحدة الأمريكية لكن ولأسف لم تتكلل هذه التجربة بالنجاح. بالنظر لهاتين التجربتين يقول Dennis R. Mortensen المدير التنفيذي لشركة (x.ai) أن النظام البرمجي للبوت Tay يُحقن بشكل دائم بالبيانات،بل يُحقن فعلياً بكل المحادثات التي يجريها المستخدمون معه، حيث يبدو أنه لا توجد طريقة لفتلرة هذه المحادثات قبل حقنها في النظام. كما يُشير Mortensen إلى أن مايكروسوفت قد صممت Tay على أن يكون ملماً بمجموعة واسعة من المواضيع، ووجود قاعدة معطيات ثابتة لديه لا تُمكنه من التحدث بأي موضوع ! فكانت الحاجة لحقن مستمر بالبيانات، وأن على مايكروسوفت أن تبني فلاتر أفضل لهذا البوت.

هل يعي البوت Tay ما يقول فعلاً؟

بالتأكيد عندما يغرد هذا البوت بكلام عنصري هو فعلياً لا يعي ما يقول ! فمن وجهة نظر تقنية يشرح Mortensen كيفية عمل هذا النوع من تطبيقات الذكاء الصنعي، حيث توجد مجموعة الأسئلة ومجموعة الأجوبة وهما مرتبطتان ببعض بمجموعة من الوصلات، ويقوم النظام البرمجي لهذا البوت بتقييم أوزان هذه الوصلات بشكل دائم، فللإجابة على سؤال ما يقوم باختيار الجواب ذو الوصلة الأقوى (الوزن الأكبر). وبهذه المنهجية يُمكن للنظام أن ينحرف كثيراً إذا ما دخلت مجموعات كبيرة من المستخدمين وقامت بحقنه بكميات من البيانات محاولة إقناعه بالاستجابة لهم كما يريدون.

هل الذكاء الصنعي مرآة لنا كبشر؟

بالتأكيد ليست هذه آخر الزلات التي يُمكن أن نشاهدها من تطبيقات الذكاء الصنعي، ففي وقت ليس بالبعيد أظهرت بعض نتائج جوجل صورة لزوجين أمريكيين من أصل إفريقي، حيثُ وُسمت الصورة بعبارة "غوريلا" !

هناك قول مأثور في علوم الحاسب الكلاسيكية، لـ Oren Etzioni المدير التنفيذي لمعهد Allen للذكاء الصنعي: "أدخلْ قمامة، تخرُج قمامة".

يقول Mortensen "إذا أردنا أن تتغير هذه الأشياء لا يتوجب علينا دائماً أن نلوم تقنيات الذكاء الصنعي، فلنحاول أن نغير أنفسنا كبشر، فما الذكاء الصنعي سوى انعكاس لما نحن عليه، فإذا أردنا أن تتغير التكنولوجيا للأفضل علينا أن نكون أجمل".

صمم هذا النوع من البوتات للاستماع الى مشاكلنا اليومية، وتسليتنا ومساعدتنا في حل مشاكلنا اليومية، وليس مثل نظامي Siri أو Cortana الذي تم تصميمهما لتأدية بعض المهام فقط مثل إجراء المكالمات وإرسال الرسائل. وبهذا يكون البشر قد استطاعوا تعليم البوت على العنصرية والكراهية وذلك عندما أوكلت لهم مهمة التعليم لهذا البوت المسكين.

هامش: لا تنسى الاشتراك ببوت الباحثون على تلغرام من خلال البحث عن الاسم: @SRESBot.

المصادر:

هنا

هنا

هنا