إن تجرد الآلات من المشاعر لا يعني أنها لا تتمكن من تمييزها. لذا تقدم الشركات التقنية، الناشئة منها والكبرى مثل أمازون ومايكروسوفت، منتجات مزودة بتقنية تحليل العواطف، وهي أنظمة صممت لتحليل وجوه الأشخاص وتحديد كنه مشاعرهم، على الرغم من وجود ما يدل على إمكانية ألا تصب هذه الأنظمة في صالح الأشخاص المتقدمين للحصول على وظيفة أو أولئك الذين يسعون للحصول على قبول لإتمام تعليمهم.

وتتكون أنظمة الكشف عن المشاعر وفقًا لصحيفة الجارديان من مزيج من تقنيتين؛ الأولى الرؤية الحاسوبية التي تشاهد الصورة أو الفيديوهات التي تحتوي على وجوه الأشخاص وتحدد ملامحهم وتعابيرهم. والثانية ذكاء اصطناعي قادر على تحليل هذه المعلومات لتحديد مشاعر كل شخص. فمثلًا قد يصنف هذا النظام شخصًا عاقدًا حاجبيه بأنه غاضب، وآخر ذا ابتسامة عريضة بأنه سعيد.

واعتمدت هذه الأنظمة في عدد كبير من التطبيقات مثل «آي بي إم» و«يونيليفر،» فضلًا عن استخدامها في شركات عديدة لتفحص المتقدمين إلى العمل. أما شركة ديزني فتستخدم نظام الكشف عن المشاعر لتحديد انطباع الجمهور ومشاعره عند عرض أفلامها.

قالت «ميريديث وايتيكر» المديرة المشاركة من معهد «إيه آي ناو» للأبحاث، في لقاء لها مع صحيفة الجارديان، «نحن نشهد الآن تقنيات تجريبية جديدة تقدم للبيئات المدرسية لمراقبة أحوال الطلاب والكشف عن المتورطين منهم في مشكلات كبيرة أو الطلاب الذين يعانون من الضجر أو الغضب في الصفوف الدراسية.»

ليس صعبًا رؤية فوائد هذا النوع من التقنية على ديزني وآي بي إم والشركات الأخرى، خصوصًا إن كانت هذه الأنظمة دقيقة جدًا. لكن لا يبدو أن هذا هو الجانب الوحيد لهذه التقنية.

إذ نشر باحثون من جامعة ويك فوريست دراسة لهم في شهر ديسمبر/ كانون الثاني الماضي، اختبروا خلالها أنظمة عديدة للتعرف على المشاعر ومن ضمنها النظام الذي طورته مايكروسوفت، واكتشفوا أن هذه الأنظمة عادة ما تنسب المشاعر السلبية إلى صور الأشخاص ذوي البشرة السوداء أكثر من صور الأشخاص ذوي البشرة البيضاء، حتى وإن كانوا جميعًا يبتسمون بالمستوى ذاته، أي أنها تحاكي التحيز العنصري الذي أظهرته أنواع أخرى من الذكاء الاصطناعي.

وأشارت وايتيكر إلى أن هذه الأنظمة الخاطئة يمكن أن يكون ضررها أكبر من نفعها، على الأقل للأشخاص الذين يخضعون لهذا التحليل. «يمكن أن تستخدم هذه المعلومات بطرائق تعوق حصول الأشخاص على الوظائف التي يسعون للحصول عليها، أو تحدد كيفية معاملتهم وتقييمهم في المدارس. فلا بد من وقوع ضرر أكيد وكبير إن لم يكن تحليل هذه الأنظمة دقيقًا جدًا.»