الهندسة والآليات > التكنولوجيا

المعالمُ الأساسيَّة في تاريخ تطوّر الشَّبكات العصبونيَّة

من المؤكد أنَّك تسمع بين الحين والآخر عن الشَّبكات العصبونيَّة والتَّعلم العميق، ودورها الأساسي في الثَّورة البرمجيَّة والمعلوماتيَّة الّتي نعيشها، وهناك العديد من الدَّورات التَّعليميَّة المجانيَّة على الإنترنت الّتي ستجعلك تعيش تمامًا ضمن هذه الثَّورة؛ ولكننا هنا سنعطي ملخصًا بسيطًا للخط الزمني لتطوّر هذه الشَّبكات.

في البرمجة التَّقليديَّة نخبر الحاسوب ماذا يفعل، أمَّا في الشَّبكات العصبونيَّة يتعلم الحاسوب من البيانات الّتي يُلاحظها، ثمَّ يجد حلوله الخاصة لكل مشكلة(1).

كانت البداية في 1943 مع ورقة نُشرت بعنوان "الحسابات المنطقيَّة للأفكار الأساسية في النشاط العصبي"، بهدف فهم كيفيَّة قيام المخ بالأعمال المعقدة بواسطة العصبونات المكونة له(2).

قدّمت نموذجًا مبسطًا للعصبون، بهدف تشكيل عصبون صنعي محاكٍ له، ولذلك النموذج دور أساسي في علوم الحاسوب؛ إذ يُسمى ارتباط آلاف من هذه العصبونات بالشبكة العصبونيَّة الصنعيَّة Artificial Neural Network(3).

وبرهنت أنَّ شبكة العصبونات الصنعيَّة التي طُوّرت، يمكنها التعبير عن أية صيغة أو (معادلة) منطقيَّة، أي؛ العمليات التي تتم على النظام الثنائي في العد(3).

ثمَّ في عام 1949 وضع باحث قاعدة تقول إنَّ العصبونات التي تعمل مع بعضها في الوقت نفسه تزداد قوة الروابط بينها، واستُخدمت هذه القاعدة بصورةٍ واسعةٍ في الشَّبكات العصبونيَّة الصنعيَّة(4).  

عام 1958 جعل فرانك روزينبلات Frank Rosenblatt العصبون جهازًا للتعرف إلى النسق، وأسماه البيرسيبترون Perceptron(المدرك)؛ إذ أوصله بوحدات معالجة مبدئية تتعرف إلى أشياء محددة في الدخل، وليس على الدخل كله(5).

مثال للتوضيح: في مخ القطط توجد خلايا تتعرف إلى الحواف فقط دون غيرها، وخلايا أخرى تتعرف إلى خط في اتجاه معين؛ أي أنَّ نموذج "روزينبلات" محاكاة لواقعنا العضوي(5).

الشكل النهائي للبيرسيبترون هو أساس بناء الشَّبكات العصبونيَّة: طبقة دخل تتألف من وحدات المعالجة المبدئيَّة، تأخذ الدخل العام وترسل خرجها لطبقة خرج، تتألف من عصبون واحد، وخرجه هو الخرج العام(5).

أَدخلت بعدها تطويرات على نموذج البيرسيبترون والقوانين الناظمة لعمله في التنبؤ بنتائج توابع معينة، حتى جاء العام 1969 حاملًا معه كتابًا نقديًّا، باسم "البيرسبترون: مقدمة في الهندسة الحسابيَّة"(6).

حكم هذا الكتاب على مشروع الشَّبكات العصبونيَّة بالهلاك؛ إذ لا يعطي البيرسبترون نتائج صحيحة سوى مع التوابع الخطيَّة، وهذا ما جعل الأبحاث في هذا المجال تتوقف تقريبًا حتى الثمانينات(6).

في عام 1986 قدّم ثلاثة باحثين في جامعة كاليفورنيا حلًا عبر دمج عدة بيرسيبترون في شبكة من عدة طبقات، وأعطوها طريقة جديدة في التَّعلم؛ لتستطيع التعامل مع التوابع غير الخطيَّة(7).

استمرت هذه الشَّبكة بالتطور، وإضافة طرائق جديدة حتى وصلت إلى مفهوم ثوري في التسعينيات هو التَّعلم العميق (Deep Learning)، الّذي أصبح أساسيًّا في مجال التعرف إلى النسق في الألفيَّة الجديدة(8).

التَّعلم العميق شرحه يطول، ويمكن مراجعة المصادر لدراسته؛ ولكن لنعطي فكرة عنه، هو عميق لدرجة أنَّه ورغم انتشاره بصورةٍ واسعةٍ في التَّعرف إلى الوجوه والأصوات ومعالجة النصوص بصورةٍ فعالةٍ، يتساءل  العلماء: لماذا هو فعال إلى هذه الدرجة؟ (9).

المصادر:

1. Nielsen MA. Neural Networks and Deep Learning. Determination Press; 2015. Available from: هنا

2. Marsalli M. McCulloch-Pitts Neurons [Internet]. 2007 [cited 8 July 2021]. Available from: هنا

3. Marsalli M. McCulloch-Pitts Neurons - Introductory Level (page 1) [Internet]. 2007 [cited 8 July 2021]. Available from:

هنا

4. Lee C. Appedix D: Artificial Neural Network [Internet]. Web.mit.edu. [cited 9 July 2021]. Available from: هنا

5. Marsalli M. McCulloch-Pitts Neurons - Introductory Level (page 5) [Internet]. 2007 [cited 8 July 2021]. Available from:

هنا

6. History of the Perceptron [Internet]. Web.csulb.edu. [cited 9 July 2021]. Available from: هنا

7. Schmidhuber J. Deep Learning in Neural Networks: An Overview [Internet]. Manno-Lugano: The Swiss AI Lab IDSIA; 2014 [cited 9 July 2021]. Available from: هنا

8. Rumelhart D, Hinton G, Williams R. Learning representations by back-propagating Errors. Nature [Internet]. 1986 [cited 9 July 2021];. Available from: هنا

9. Sejnowski T. The unreasonable effectiveness of deep learning inartificial intelligence [Internet]. National Academy of Sciences. 2020 [cited 9 July 2021]. Available from: هنا