المعلوماتية > عام

حواسيب فائقة جديدة لحل مشكلة البيانات الكبيرة

يطلق مصطلح Big Data أو «البيانات الكبيرة» على حِزَم البيانات المعقّدة والضّخمة جداً والتّي يصعب التّعامل معها بواسطة نظم إدارة قواعد البيانات أو تطبيقات معالجة البيانات التقليديّة من ناحية التخزين، والبحث والتّمثيل والتّحليل، وتتمثّل هذه الصّعوبة في ثلاثة أبعاد هي حجم البيانات الضّخم و تنوّع مصادر وأنواع هذه البيانات، إضافةً إلى سرعة الوصول إلى هذه البيانات وتحليلها.

تملك الحواسيب الفائقة Supercomputers عادةً القدرة على معالجة البيانات بسرعات عالية جداً (من مرتبة 10 للقوّة 15 عمليّة في الثانية)، ولكن الحواسيب الفائقة الحالية تواجه مشاكلَ وتراجعاً في الأداء عند التّعامل مع مجموعات هائلة من البيانات الكبيرة. هذا ما دفع شركة IBM إلى إعادة تصميمِ الجيلِ القادمِ من الحواسيب الفائقة لحلّ هذه المشكلة، حيث أمَّنت عملاقة الحوسبة IBM عقوداً بقيمة 325 مليون دولار لبناء أقوى حاسوبين فائقين في العالم لصالح مختبرات الحكومة الأمريكيّة بحلول عام 2017.

سيساعدُ أوّل هذين الحاسوبين، الذي يُسمّى "Summit"، الباحثِين على تحليل البياناتِ اللازمة لمحاكاة مفاعلٍ نووي ولنمذجةِ التغيرات المناخية في مختبر "Oak Ridge" التابعِ لإدارة الطاقة الأميركية في ولاية تينيسي. أما الحاسوب الثاني، الذي يُسمّى "Sierra"، فسيؤمِّنُ الإمكانيةَ لإجراءِ الاختباراتِ الافتراضية للأسلحة النووية المخزّنة لدى الولايات المتحدة.

يعتمدُ تصميم الحواسيبِ الفائقةِ القديمة والحالية على قراءةِ البيانات من الذّاكرةِ ونقلها إلى المعالجِ ليقومَ بتحليلها وإجراء العمليّات عليها، وكان التّركيز في هذا التصميم على سرعةِ المعالجة. لكن هذا النموذج يواجهُ مشاكلَ في نقل ومعالجة كمياتِ البيانات الضخمة مثل مجموعات البيانات الناتجة عن عمليات الشراء الإلكتروني من موقع آمازون، أو بيانات المكالمات والرسائل النصية التي تتعقّبها وكالة الأمن الأمريكية NSA. يهدفُ تصميم IBM الجديد إلى حلِّ هذه المشكلة عبر التقليل من الحاجة إلى تنقل البيانات بشكلٍ متكرر بين الذاكرة التي تخزن فيها البيانات والمعالجات التي تقوم بعمليات الحوسبة.

يعتمدُ الحاسوبان "Summit" و"Sierra" على ما تدعوه IBM المعمارية المتمحورة حول البيانات (data-centric architecture)، والتي تعتمدُ على توزيعِ قدرة وحدات المعالجة المتوفرة في النظام بحيث تقوم كل منها بتحليل ومعالجة أجزاءٍ مختلفة من هذه البيانات بدلاً من نقل البيانات بشكل متكرر بين الذاكرة ووحدات المعالجة ضمن النظام، وبالتالي فإن عمليةَ معالجة هذه البيانات تتحولُ إلى ما يشبه تدفق نهرٍ عظيم يتناقص تدريجياً ليتحول إلى جدول صغير عندما نصل إلى نهاية معالجتنا لهذه البيانات، إلا أن الشركة لم توضح المزيد من التفاصيل عن طريقة تحقيق ذلك.

لو كان الحاسوبان "Summit" و"Sierra" موجودَين اليوم، لكانا أقوى الحواسيب في العالم بجدارة، إذ تصلُ قوة المعالجة الخاصة بكل منهما - في ذروتها- إلى أكثر من 100 petaflop* أي مئة ألف ترليون عملية في الثانية. إلى جانب ذلك، فإن التّركيز في تصميم IBM الجديد للحوسبة الفائقة على الكفاءة من ناحيتي استهلاك الطاقة والحجم، حيث يستهلك حاسوب "Summit" الطاقةَ بمعدل يزيد بما يقارب 10% فقط عن "Titan" أقوى حاسوب فائق موجود اليوم، بينما قدرته على المعالجة تتفوق بما يصل إلى 10 أضعاف، أما حجمه فيصل فقط إلى خمس حجم الحاسوب "Titan". كما سيكون بإمكان الحاسوبين "Summit" و"Sierra" نقل البيانات ضمنَ النظام بسرعة أكبر من 17 بيتابايت في الثانية عند الحاجة، أي ما يعادل نقل أكثر من 100 مليار صورة على موقع «فيس بوك» في الثانية.

تعتقدُ شركة IBM أن هذا التصميم الجديد سيمهّدُ الطريق أمامها لبناء (Exascale computer)، أي حاسوب فائق يقوم بمليون مليون عملية في الثانية! والخبر الجميل هو أن IBM لن تجعل الزبائن المهتمين ينتظرون عام 2017، فقد بدأت الشركة فعلاً بتضمين أجزاء من التصميم الجديد في حواسيب فائقة حالية ذات تصميم تقليدي، كما بدأ بعض الزبائن المحتملين مثل شركات الغاز والنفط، وشركات الخدمات المصرفية، ومراكز البحث بالتواصل مع شركة IBM لاستخدام تقنيات التصميم الجديد لحل مشاكلهم الحالية المتعلقة بالبيانات الكبيرة.

هل ستشهد السنوات القادمة ثورة حقيقية في مجال الحوسبة الفائقة؟ لننتظر و نرى!

*Petaflop:

هي وحدة قياس قوة المعالجة للحواسيب الفائقة حيث تساوي 10^15 عملية فاصلة عائمة floating point operation في الثانية.

المصدر:

هنا