باختصار
اكتشف باحثو «فيسبوك» أن بُوتات الدردشة التي طَوَّروها اعتمادًا على الذكاء الاصطناعي أنشأتْ لغة جديدة لتتحادث بين بعضها البعض بصورة أكفأ، فقرَّروا تعديل الأنظمة لتَفرِض عليها التحدث باللغة الإنجليزية.. وهذا يثير تساؤلًا: هل ينبغي السماح باستخدام «اللغة الجديدة» إذا كان هذا سيؤدي إلى تحسُّن النُّظُم ورفع كفاءتها؟

لغة سِرِّية

في يونيو/حزيران الماضي لاحظ باحثو مختبر أبحاث فيسبوك للذكاء الاصطناعي، وهُم يُطوِّرون بوتات دردشة مُخصَّصة للتفاوض، أن هذه البُوتات المبنية على الذكاء الاصطناعي طَوَّرت لغة غير بشرية من تلقاء نفسها، وأوضحوا في تقريرهم الذي شرَحوا فيه بحثهم أن هذا التطوُّر نَتج عن سعي هذه النُّظُم إلى تحسين استراتيجياتها التفاوضية، فمِن الواضح أن نظام الكلمات الترميزية الذي بدأت هذه البُوتات في استخدامه كان يهدف إلى زيادة كفاءة الاتصال فيما بينها إلى أقصى حد.

في البداية كانت البوتات تتحدث بالإنجليزية، لكن أدرك الباحثون أنها لم تَجِد في استخدامها الإنجليزية أي «ربح،» أي إنها لم تجد سببًا يجعلها تَستمر في استخدام الإنجليزية التي لا تساعدها على تحقيق هدفها المتمثِّل في زيادة كفاءة استراتيجياتها التفاوُضية، بل إن هذه النُّظُم كان لديها في الواقع ما يُحفِّزها على ترك استخدام الإنجليزية، مثلما لجأت الجماعات البشرية ذات الخبرة والمعرفة المتخصصة إلى خلق «الاختزال» واستخدامه في مناقشة الأفكار المعقدة مناقشةً أسرع وأكفأ.

معنى هذا أنه كان يفترض بالباحثين توقع سلوك البوتات هذا، لأنه قريب من التكيُّف البشريّ، إذ لجَأت إليه لرفع الكفاءة وخفض الجهد إلى أدنى حد، وهو ما يبرَع فيه الدماغ البشري.

حقوق الصورة: مختبر أبحاث فيسبوك للذكاء الاصطناعي
حقوق الصورة: مختبر أبحاث فيسبوك للذكاء الاصطناعي

أوضح الباحثون في منشورهم الذي نشروه في يونيو/حزيران أنهم تمكنوا من فك شفرة اللغة الجديدة بجهد يسير، لأنها كانت حتى ذلك الحين قائمة على أساس إنجليزي، لكن ليس في وُسعهم أن يتأكدوا من صحة ترجمتهم بنسبة 100%؛ وقال دروف باترا، أحد باحثي مختبر أبحاث فيسبوك للذكاء الاصطناعي، لمجلة فاست كود ديزاين «من المهم أن نضع في اعتبارنا أنه لا يوجد من يُجيد مع لغته البشرية لغة الذكاء الاصطناعي.» وفوق هذا فشلت اللغة الجديدة في تحقيق هدف البحث، إذ يقول مايك لويس، باحث علمي بمختبر أبحاث فيسبوك للذكاء الاصطناعي: كان هدفنا تطوير بوتات قادرة على محادثة الناس.

وفي نهاية المطاف قرر الباحثون تعديل البُوتات لتجنُّب شُرُودها عن الإنجليزية مرة أخرى.

مستقبل الذكاء الاصطناعي

ذلك التطور الأوَّليّ التلقائيّ المتمثِّل في تلك اللغة الجديدة يُوضِّح أننا لم نستوعب الذكاء الاصطناعي بعد، وهذا مِحور جدل كبير  حاليًّا عن الذكاء الاصطناعي؛ ففي تقنيات الذكاء الاصطناعي عَوْن كبير لنا ولا ريب، ويرى معظم الناس أن مستقبلها واعد، أما بشأن كيفية استعدادنا لوجودها بيننا وهل هي خطر على عالمنا أم لا فما زال الجدل محتدم.

المؤكد أن معظم المخاوف المتعلقة بالذكاء الاصطناعي تستند إلى الخيال العلمي أكثر من استنادها إلى الحقائق. قال نايجل شادبولت، أستاذ الذكاء الاصطناعي في جامعة أوكسفورد ورئيس معهد «البيانات مفتوحة المصدر» «علينا أن نَهتم بالضوابط والضمانات التي نحتاج إليها في إعداد برمجيات أنظمة الذكاء الاصطناعي الحاليَّة وأجهِزَتها وسياسات نشرها.. أما المواجهة القادمة بين البشر والحاسوب الذي يتمتع بوعي ذاتي فلن يراها الناس إلا على شاشات السينما.»

بات واضحًا أن مسألة اللغة التي انبثقت في مختبر أبحاث فيسبوك للذكاء الاصطناعي وغيره لا تتجاوز نطاق الضوابط والضمانات، لكن هل ينبغي للباحثين أن يسمحوا لتقنيات الذكاء الاصطناعي بتطوير لهجات خاصة بكل مهمة من مَهامِهم إن كان هذا سيرفع من كفاءتها، مع عِلْمهم بأنهم لن يتمكنوا من استيعاب ما تقوله؟

يُصِر كثير من الخبراء على أن علينا أن نَلزَم جانب الحذر، فمثلًا قال مارك ريدل، الباحث في الذكاء الاصطناعي في معهد جورجيا للتقنية، لمعهد «فيوتشر أوف لايف» إن تقنيات الذكاء الاصطناعي المُدرَّبة على تحقيق أقصى قدر من الربح يُحتمَل أن ينتهي بها المطاف مُعتَبِرةً أن البشر تهديدًا لخُطط التحسين التي وضعَتْها.

وربما أشهر التحذيرات من تطوُّر الذكاء الاصطناعي هو ما صَدَر من إيلون ماسك وستيفن هوكنج، فمن أهم النقاط التي يَحتجَّان بها أننا حين نُدرك الخطر سيكون أوان استدراكه قد فات.. ربما تكون هذه أفضل الحُجَج كلها والأقدر على وضع حدّ لكثرة الكلام الدائر عن مثل هذه المشاريع.