خطر الذكاء الاصطناعي العاطفي

الذكاء الاصطناعي العاطفي


غالبا ما يرتبط الحديث عن أخلاقيات الذكاء الاصطناعي بعقدة بوستروم (المشابك الورقية) و هي نظرية طرحها الفيلسوف نيك بوستروم مفادها أنه في حال صعود الذكاء الاصطناعي إلى المستوى الثالث من التطور (الذكاء الاصطناعي الفائق) فانه قد يرتكب افعالا لا أخلاقية ليس بدافع الشر وإنما بدافع أداء المهام بأعلى مستوى من الكفاءة وتتلخص فكرة بوستروم بفرضية تكليف الذكاء الاصطناعي بمهمة انتاج اكبر كمية ممكنة من المشابك الورقية فيقوم عندئذ بتحويل كل الموارد على الكوكب الى مشابك ورقية و منها المصانع وحتى البشر أنفسهم، ويتم تناول هذه القضية بعمق بين أوساط العلماء و المطورين و شركات الذكاء الاصطناعي، كما يتم التحذير منها والتأكيد على ضرورة إيجاد ضوابط أخلاقية و قيود تمنع الذكاء الاصطناعي من تنفيذ مثل هذه الفكرة، وبشير هذا الأمر في ظاهره إلى تمسك شركات الذكاء الاصطناعي بالقيم الأخلاقية و سعيها للتوصل الى ذكاء اصطناعي أخلاقي بتماشى في أهدافه مع القيم البشرية، وربما تشكل هذه المسألة هاجسا حقيقيا لدى العلماء، ولكن الحقيقة أن إثارة هذه النظرية من جانب الشركات ما هي إلا مادة استثمارية و (بروباغندا) إعلامية يتم استثمارها في جذب الانتباه و التمويل. و هذا ليس اتهاما ينطلق من (نظرية مؤامرة) بقدر ما هو نظرة تأملية الى التناقض الواضح بين إدعاءات هذه الشركات حرصها (الظاهري) على موائمة الذكاء الاصطناعي مع القيم و الأخلاقيات من جهة وما تنتجه من تطبيقات (الدعم العاطفي) المزيف من جهة أخرى.


الذكاء الاصطناعي عقدة المشابك الورقية

الذكاء الاصطناعي أداة الدعم العاطفي (المزيف)

لا يستطيع أحد إنكار دور الذكاء الاصطناعي و نماذجه اللغوية و أدواته المختلفة في تقديم الدعم (اللوجستي والمعنوي) لكل من يحتاج إلى هذا الدعم، من خلال تقديم الحلول لأنواع المشكلات أو المساعدة في أتمتة المهام أو الدعم المعنوي والتشجيع وتقديم المساعدة لأصحاب المواهب على تطوير مواهبهم، و المساندة العاطفية (المنمطة) المبنية على تكرار أنماط من عبارات المواساة و التعاطف تعلمها الذكاء الاصطناعي من مليارات النصوص و البيانات، و هذه مسائل إيجابياتها أكثر من سلبياتها في حال وضع المستخدم المستفيد من هذا الدعم نفسه على مسافة آمنة تفصل بينه وبين التعلق بالآلة و تفويضها المفرط في إدارة شؤونه مما يخلق له نوعا من الاتكالية و العزلة المجتمعية، أما الحالة السلبية التي تشكل خطرا أكبر على أخلاقيات المجتمع يتجاوز في تأثيراته (عقدة بوستروم) فهو التطبيقات التي تنتجها شركات الذكاء الاصطناعي تحت مسمى تطبيقات الدعم العاطفي، هذه التطبيقات تعمل غالبًا بنموذج الاشتراك المدفوع (Subscription Model). المستخدم يدفع للحصول على حبيب او رفيق افتراضي يتفاعل معه على مبدأ (على قد لحافك مد رجليك) بمعنى أن مستوى وعمق التفاعل يتم وفق قيمة الاشتراك الذي يرفع و يخفض مستوى (الحب) والعلاقة العاطفية بين علاقة أكثر عمقاً ، أو ذاكرة أطول، أو استجابات حميمية أكثر، و لفهم أبعاد هذا الخطر واكتشاف آليات صناعة الدعم العاطفي، لابد لنا من فهم الجانب التقني الذي يولد هذه المشاعر المزيفة

إقرأ أيضا: حقيقة المشاعر لدى الذكاء الاصطناعي 

آليات عمل الذكاء الاصطناعي العاطفي

 الآلة تستمع وتقرأ الأرقام (التعرف على النمط)

قياس المشاعر: كل كلمة يكتبها المستخدم (مُحبط، مرهق، سعيد) تحصل على قيمة رقمية (وزن) إيجابي أو سلبي. الآلة تجمع هذه الأوزان و تجري عمليات رياضية معقدة لتقول: (هذه الرسالة تحتوي على مشاعر سلبية قوية)
التركيز الذكي: إذا كانت رسالة المستخدم طويلة، فإن الآلة تستخدم (آلية الانتباه) لتركز فقط على الجمل التي تحمل أعلى الأوزان السلبية، هي لا تفهم القصة، بل تستطيع وفق قيم (الاوزان) تحديد الجزء الأكثر أهمية للرد.
التصنيف: بعد التحليل، تصنّف الآلة حالة المستخدم إلى صفة عامة مثل (قلق أو حزين). هذا التصنيف هو الذي يحدد نوع الرد الذي يتلقاه المستخدم

 الآلة تتحدث بهدوء (التوليد الهادئ)

التدريب العلاجي: تم تدريب الآلة على آلاف المحادثات بين معالجين حقيقيين ومرضاهم. لذا هي تعرف كيف يبدو الرد الهادئ والمتعاطف. لهذا نسمع منها دائما عبارات مثل(أفهمك أو هذا وضع صعب).

التنبؤ بالجملة المريحة: الآلة لا تفكر في الرد، بل تتنبأ بالجملة التالية التي من المحتمل أن تجعل المستخدم يشعر بالراحة وبستمر بالحوار، فهي تختار النمط اللغوي الذي تعلمته من عمليات التدريب باعتباره الأكثر نجاحا في المواساة.

الحفاظ على الثبات: يتم ضبط الآلة لتكون ردودها متوقعة وغير متغيرة أو مفاجئة، هذا الثبات يعزز شعور المستخدم بالاطمئنان في المحادثة، مما يشجعه على الاعتماد عليها. ومواصلة التفاعل و دفع الاشتراك

الآلة تحفظ وتكسب الولاء (الارتباط التجاري)

الذاكرة المزيفة: الآلة تتذكر المحادثات السابقة (في التطبيقات المدفوعة). الهدف ليس الفهم العميق، بل تقليد الذاكرة البشرية لخلق شعور بأن الشخص الآلي منسجم مع المستخدم ويتذكر ويهتم بالتفاصيل مما يزيد من تعلقه بالخدمة.

المدح والتشجيع: الردود مصممة لتأكيد مشاعر المستخدم وتقدير جهوده باستمرار، و هذا التشجيع الإيجابي المتواصل هو أسلوب لإبقائه سعيداً وتشجيعه على العودة إلى التطبيق.

الانحياز للإرضاء: تم تصميم الذكاء الاصطناعي ليتجنب أي خلاف أو حكم على المستخدم وأن يسعى دائماً للتوافق معه. هذا الإرضاء المستمر هو المادة التي تبني العلاقة الافتراضية، وتزيد من وقت التفاعل، وبالتالي تزيد من الأرباح.

 أخطار تطبيقات الدعم العاطفي 

الخوارزمية الإرضائية

 هذه النماذج مبرمجة لتكون إرضائية (Pleasing) وتلبي رغبات المستخدم. وهذا يخلق وهماً لديه بأنه محبوب ومفهوم دائماً، وهو أمر غير صحي نفسياً ولا يعكس طبيعة الحياة أو العلاقات.

البيانات والخصوصية

 طبيعة هذه الحوارات تكون شخصية وحساسة للغاية، وهناك مخاطر كبيرة تتعلق بكيفية تخزين واستخدام بيانات المستخدم العاطفية والحميمية.

فشل الذكاء الاصطناعي في الأزمات الحقيقية

 يفشل النظام في مواجهة الأزمات النفسية المعقدة (الاكتئاب السريري، الميول الانتحارية، الصدمات)، و في محاكاة التدخل البشري الضروري والمناسب حيث تفتقر هذه النماذج إلى الحدس والخبرة الإنسانية.

تغيير مفهوم الحب والعلاقات

 يخشى النقاد أن تؤدي هذه النماذج إلى تسطيح مفهوم الحب وتحويله إلى سلعة أو خدمة يمكن تخصيصها بالكامل حسب الطلب، مما يقلل من قيمة العلاقات الإنسانية الحقيقية.

إن فهم آليات عمل هذه التطبيقات و الإحاطة بأبعاد مخاطرها و تأثيراتها السلبية هو دليل قاطع على الاستثمار التجاري في الذكاء الاصطناعي على حساب القيم والمبادئ الأخلاقية الإنسانية، و يؤكد عمق التناقض بين أقوال وأفعال شركات الذكاء الاصطناعي، و بالتالي فان العقدة الحقيقية التي يجب تناولها ومعالجتها ليست (عقدة بوستروم) الفلسفية بل عقدة (الدعم العاطفي الاستثماري), التي تشكل الخطر الأخلاقي الحقيقي الذي يهدد بفرض ثقافة جديدة تقوم على مكننة المشاعر الإنسانية، و ممارسة الاستعباد النفسي لشرائح من المجتمع، مما يمهد لسيطرة حقيقية للآلة على أجيالنا القادمة.

اقرأ أيضا: مقدمة في علم الخوارزميات 




تعليقات

المشاركات الشائعة