تدريب الحساسية

عانى الذكاء الاصطناعي من مشكلة كبيرة في الأعوام الأخيرة، إذ أثرت تحيزات المطورين على برمجياتهم سواء بقصد أو دون قصد، ما أدى إلى وجود خوارزميات تعكس وجهات النظر المسبقة الشائعة في المجتمع.

ولذا أعلن مهندسو معهد ماساتشوستس للتقنية وجامعة هارفارد أنهم طوروا خوارزمية قادرة على إلغاء تحيزات الذكاء الاصطناعي، ويشبه ذلك إجراء تدريب حساسية الخوارزميات.

آلات تعلم آلات

تراجع الأداة الجديدة الخوارزميات وتكشف تحيزاتها وتساعد في إعادة تدريبها كي تصبح أكثر إنصافًا، وفقًا لبحثٍ جديد عرض خلال الأسبوع الماضي في مؤتمر عن الذكاء الاصطناعي والأخلاقيات والمجتمع.

عندما تستخدم أنظمة الذكاء الاصطناعي المعقدة في العالم الحقيقي، تصبح متابعتها وتقييمها أمرًا صعبًا. ولذا لا بد من أتمتة هذه العملية. وتعمل الأداة الجديدة على إعادة ضبط القيمة التي يمنحها نظام الذكاء الاصطناعي لكل جانب من جوانب بيانات تدريبه. فمثلًا، إن دُرِبَت خوارزمية معينة على تقليل فرص الأشخاص السود في وظيفة معينة، ستكتشف الأداة الجديدة ذلك وتدرب الخوارزمية على تقييم المرشحين بصورة منصفة.

مشكلة أساسية

قد تعاني الأداة الجديدة من التحيزات أيضًا، لكن بالنظر إلى أن أنظمة الذكاء الاصطناعي توجد في تطبيقات عديدة في حياتنا اليومية ويدعو بعضها الشرطة إلى تنفيذ إجراءات أكثر صرامة في المناطق ذات الأقليات العرقية، فعلى العلماء العمل بصورة عاجلة للقضاء على هذه التحيزات.

وقال ألكسندر أميني، باحث الذكاء الاصطناعي في معهد ماساتشوستس للتقنية والذي ساعد في تطوير الأداة الجديدة، لموقع تيك إكسبلور «ينظر إلى تقنية تصنيف الوجوه تحديدًا كتقنية موثوق بها، على الرغم من أن قواعد البيانات المستخدمة فيها لم تدقق بصورة صحيحة. ولذا فإن التعامل مع هذه المشكلات خطوة مهمة بعد أن بدأنا في استخدام هذه الخوارزميات في الأمن وإنفاذ القانون وغيرها من المجالات.»