التعليم واللغات > اللغويات

أجسادنا.. جزء من المحادثة

 يستخدم الناس كلًّا من الكلام والجسد للتعبير عن أنفسهم عندما يتحدثون وجهًا لوجه، وتساعد الإشارات المرئية على التواصل، إذ يستجيب الناس على نحو أسرع للرسائل المتعددة الوسائط (كالكلام المترافق مع الإيماءات) من استجابتهم للكلام وحده. وفي مقال "اتجاهات في العلوم المعرفية"؛ تناقش جوديث هولر وستيفن ليفينسون -من معهد ماكس بلانك للعلوم اللغوية وجامعة رادبود- في أننا بحاجة إلى نماذج من اللغة تراعي استخدام وسائط متعددة عند الحديث وجهًا لوجه.

 ما الذي يمكن أن يفعله المتحدث عندما يرفع حاجبيه، وأكفُّ يديه تتجه للأعلى مع راحتيه، والشفتان مستعدة للنطق كما لو كانت على وشك لفظ "W"؟  هنالك فرصة جيدة أنه على وشك طرح سؤال. يميل المتحدثون في المحادثة إلى تحريك وجوههم ورؤوسهم وأيديهم و أذرعهم وحتى أجسادهم بالكامل، وقد يؤدّون إيماءةً ليصوّروا لك أشياءً أو أفعالًا أو للإشارة إلى موقع (وهمي) أو مجرد هز الرأس في أثناء الكلام للمتابعة. ويحرك المتحدثون أيضًا عيونهم وحواجبهم وجفونهم وأفواههم للتعبير عن أفكارهم تقريبًا باستمرار. وتقول الباحثة الرئيسة جوديث هولر: "عند التفاعل وجهًا لوجه؛ تكون الكلمات التي نقولها مرسَّخة في سياق بصري غني".

ويحتاج المتحاورون إلى تفسير معنى هذه الإشارات البصرية بسرعة حين يستمرون بالتناوب في الكلام. ولضمان إجراء محادثة سلسة؛ عادة ما يبدأ المستمعون في التخطيط لاستجابتهم في الوقت الذي يستمر فيه شريكهم بالتحدث. كيف نعرف الإشارات التي لها معنى؟ هل ستلوّح المتحدثة بيدها مُبادِرةً؟ أم هل ستومئ برأسها؟  لجعل المهمة أكثر تعقيدًا؛ تميل الإشارات البصرية إلى تجنب محاذاة بعضها بعضًا أو حتى تضاربها مع الكلمات المنطوقة لحظيًّا. نحن بحاجة إلى الجمع بين ما نراه وما نسمعه (كما هو الحال عندما نشير ونقول "هناك!")، لذلك فإنَّ دمج المعلومات بين الكلام والجسد في رسائل ذات معنى يبدو مهمة شاقة للغاية.

 ومع ذلك؛ فوجئ الباحثون عندما وجدوا أن الإشارات المرئية قد تسرّع بالفعل من فهمنا للغة المنطوقة؛ فعلى سبيل المثال، في دراسة سابقة أجرتها هولر وزملاؤها؛ ردّ المتحدثون ردودًا أسرع على الأسئلة المصحوبة بإيماءات اليد أو الرأس منها على الأسئلة غير المُرفقة بإيماءات. وإنه لَمِن المفارقات أننا نعالج الرسائل المعقدة المتعددة الوسائط (التي تجمع بين الكلام والإشارات المرئية) أسرع من الرسائل الأحادية الواسطة (الأبسط: المتضمن للكلام فقط). فما السبب الذي يمكن أن نعزو إليه سهولة فهمنا للرسائل المعقدة المتعددة الوسائط؟

للإجابة عن هذا السؤال؛ طوّرت هولر ولفينسون إطارًا نظريًّا جديدًا لمعالجة اللغات المتعددة الوسائط التي تحدث في التفاعلات المباشرة. ويقترح اللغويون النفسيون أنَّ الناس غالبًا يتعلمون ربط إشارات صوتية بصرية معينة بمعانٍ محددة. ونظرًا إلى أنَّ الإشارات المرئية غالبًا ما تسبق الأجزاء المنطوقة من الرسالة؛ فقد تساعد المعلومات المرئية على التنبؤ بما سيحدث بعد ذلك. نتيجة لذلك، قد يكون فهم الكلمات المتعددة الوسائط أسهل في الفهم من الكلمات الأحادية التي تنطوي على الكلام فقط.

تؤكد هولر على الدور المهم الذي تؤديه اللغة في أثناء المحادثة المباشرة، إذ إن اللغة البشرية تطورت بوصفها ظاهرة متعددة الوسائط في التفاعل الاجتماعي. وفي الحالة نفسها يتعلم الأطفال لغتهم أو لغاتهم الأولى حينما يتفاعلون اجتماعيًّا وجهًا لوجه، ويستخدم الكبار اللغة أكثر أيضًا عندما يتفاعلون تفاعلًا اجتماعيًّا ووجهاً لوجه مع أشخاص آخرين. وبذلك؛ فإن فهم كيفية عمل اللغة البشرية في هذا النوع من البيئة هو خطوة علمية مهمة.

يأمل المؤلفون أخيرًا أن "يُعزّز الإطار الجديد فهمنا للعمليات المعرفية التي تدعم التواصل الإنساني في أثناء التفاعل وجهًا لوجه، إضافة إلى توفير الأساس لاكتساب نظرة شاملة للمشكلات المتعلقة بمعالجة اللغة المتعددة الوسائط في مجموعات سكانية محددة".

المصدر:

هنا

هنا

هنا30129-9?_returnURL=https%3A%2F%2Flinkinghub.elsevier.com%2Fretrieve%2Fpii%2FS1364661319301299%3Fshowall%3Dtrue