كثير منا شاهد ذلك الفيديو للرئيس الأمريكي السابق باراك أوباما، لكنه في الحقيقة ليس إلا نتاج خوارزمية ذكاء اصطناعي، وفي الفيديو جرت موالفة صوت الرئيس وحركات وجهه حتى ظهر وكأن الرئيس الحقيقي يلقي خطابًا، ومن يشاهد الفيديو يجده مقلقًا فعلًا، فضلًا عن أنه أثار القلق ضمن صفوف وكالة مشاريع البحوث المتطورة الدفاعية الأمريكية «داربا.»

وخلال الصيف القادم، ستمول وكالة داربا مسابقة يتنافس فيها المشتركون على ابتكار الصور الملفقة والفيديوات  الزائفة والتسجيلات الصوتية، والمشار إليها باسم «ديب فيك – التلفيق العميق» وسيعتمد المتنافسون على الذكاء الاصطناعي في ابتكار أكثر المخرجات قربًا من الواقع، ووفقًا لمجلة «إم آي تي تكنولوجي ريفيو» أوكلت إلى المتسابقين أيضًا مهمة تطوير وسائل متقدمة جديدة من شأنها كشف المحتوى الزائف، والذي بات أكثر تعقيدًا وقابلية للتصديق نظرًا لتطور خوارزميات الذكاء الاصطناعي.

وتعرب وكالة داربا أيضًا عن قلقها إزاء خوارزميات الذكاء الاصطناعي من نوع «جي إيه إن» وهي  خوارزميات تعلم آلة تعمل بنظام من شبكتين عصبيتين تتنافسان بين بعضهما البعض، ما يسفر عن محتوى زائف يتعذر تمييزه عن المحتوى الحقيقي، وفي الفيديو المذكور آنفًا، استُغلّت خوارزميات من هذا النوع في تلفيق خطاب على لسان الرئيس الأمريكي السابق.

ومن السهل لنا أن ندرك السبب وراء قلق وكالة داربا من تلك الخورازميات، فلك أن تتخيل تبعات انتشار فيديوات  زائفة على الإنترنت، إذ قد تؤثر تصريحات ملفقة لرئيس دولة على سلامة العلاقات القائمة بين الدول. ولا تقتصر صناعة هذه الفيديوات  على هواة الإنترنت، فمن يجري مسحًا سريعًا على موقع فيسبوك ويضطلع على أبحاث الذكاء الاصطناعي لشركة جوجل، يجد أن كلا الشركتين استثمرتا في تعلم كيفية تطوير خوارزميات تعالج صور الناس وفيديوات هم وتحللها وتعدل عليها. وإذا أرادت داربا وأد هذه الأخطار الرقمية في مهدها، فعليها أن تصوب أنظارها نحو ممارسات هاتين الشركتين العملاقتين.

وعلى الرغم من إيجابية بعض المشاريع البحثية، إلا أنها قد تستخدم في تقليل مواطن الخلل في الفيديوات الملفقة أو المعدّلة، فلدى جوجل مشاريع ذكاء اصطناعي صممت لخفض ضوضاء الفيديوات  الزائفة، ما يجعلها أكثر واقعية، ومما يثير قلقًا أكبر هو أن جوجل أطلقت خوارزمية تولد صورة أمامية لوجه الشخص بتحليل صوره الأخرى.

عادة ما يسأل باحثو الذكاء الاصطناعي أنفسهم «هل نستطيع إنجاز هذه المهمة؟» لكن السؤال الصحيح هو «هل يجدر بنا إنجازها؟» ففي إحدى مشاريع فيسبوك البحثية، اكتشف الباحثون وسيلة لتحويل صور المستخدمين الشخصية إلى صور متحركة، وخلال الحديث معهم، قالوا أنهم لم يضعوا اعتبارًا للمسائل الأخلاقية، وصرحوا أنهم لم يولوا اهتمامًا لاحتمالية الاستخدام الخاطئ لأعمالهم بعد اكتمالها، فلم يركزوا سوى على ابتكار منتج فائق التطور.

ولا يمكن لداربا أن تصلح هذه المشكلات إلا إذا نظمت النزعات السائدة نحو تطوير التقنية، وعليها أيضًا أن تسلط مزيدًا من الضوء على شركات التقنية ذات الموارد الهائلة والفرق البحثية المتمرسة، وإلى ذلك الحين، سيتنافس الباحثون على تطوير أفضل تقنيات الذكاء الاصطناعي، ما يرجح أننا سنشاهد مستقبلًا صور ذكاء اصطناعي أكثر إتقانًا، وسيستمر الهواة في اختبار تلك التقنيات في تلفيق الصور والفيديوات دون رادع لهم.