باختصار
أوضح تقرير جديد نشره خبراء في الذكاء الاصطناعي أن الحد من نشر المعرفة عن كيفية عمل الذكاء الاصطناعي قد يحمينا من القرصنة الإلكترونية.

هل يجب أن يبقى مستقبل مجتمعنا سرًا؟ يقترح تقرير جديد ضرورة الحرص على إبقاء سر الذكاء الاصطناعي في يد قلة من الأشخاص، للحفاظ على سلامة المجتمعات التي تعتمد بصورة متزايدة على هذه التقنية. لكن هذا القرار قد يضر في نهاية المطاف أكثر مما يفيد.

وعبر 20 باحثًا من عدة منظمات مستقبلية من ضمنها «أوبن إيه آي» و«إيندجيم» و«مؤسسة الحدود الإلكترونية» و«معهد أكسفورد لمستقبل البشرية» و«مركز الأمن الأمريكي الجديد،» عن مخاوفهم إزاء وقوع هذه التقنية في الأيدي العابثة وتسببها بكوارث للمجتمع. وأوجز هذا التقرير سيناريوهات عدة لم تحدث بعد، لكن لا يستبعد وقوعها على الإطلاق؛ كعمليات الاحتيال الذكية، والفيروسات الخبيثة وعمليات الاغتيال الآلية.

ولهذه الأسباب يرى الخبراء ضرورة إبقاء هذه التقنية وتفاصيل عملها سرًا لتبقى في منأى عن الممارسات الخاطئة. ورأى التقرير ضرورة الحد من الشفافية المتزايدة في مجتمع أبحاث الذكاء الاصطناعي باعتماد نماذج منفتحة مختلفة، لشيوع ظاهرة نشر الخوارزميات وإبقائها مفتوحة المصدر. واقترح الباحثون في المقابل منع نشر تطورات الذكاء الاصطناعي لتجنب وقوعها في أيدي جماعات ذات نوايا خطرة.

قد نتفق جميعًا على الحكمة تقتضي عدم فتح الباب على مصراعيه أمام أصحاب النوايا الشريرة، وتشير نسبة الهجمات الإلكترونية التي وقعت مؤخرًا حول العالم إلى حقيقة وجودهم واستعدادهم لاستخدام جميع الوسائل المتاحة لتحقيق أهدافهم. لكن فرض القيود على استخدام الذكاء الاصطناعي لن يعوق أصحاب النوايا السيئة من الوصول إليه فحسب، بل ربما يقف عائقًا أمام مشاريع تهدف لاستخدامه لغايات تعود بالنفع والفائدة.

لا يفصح الباحثون عن خططهم والسيناريوهات المحتملة لها. وأشار المحلل البريطاني «جون كولينز» في مدونة على موقع «جيكاوم،» قائلًا، «بوسعنا جميعًا تخيل سيناريوهات كارثية، لكن علينا توظيف تجاربنا وخبراتنا لتقييم الخطر وإعطاء الأولوية للسيطرة على المخاطر والحد من إمكانية وقوعها.»

أحيطت أبحاث الذكاء الاصطناعي التي تجرى اليوم بسريّة تامة، وتحمي كبرى الشركات مثل جوجل ومايكروسوفت وأمازون، خوارزمياتها تحت غطاء ملكية المعلومات. وتتعذر اليوم على أغلب الباحثين في هذا المجال إمكانية استنساخ دراسات الذكاء الاصطناعي.

توجد أسباب مقنعة تجعلنا نعيد النظر في انفتاحنا بشأن طريقة عمل الذكاء الاصطناعي؛ إذ اكتشف باحثون أن تدريب آلات الذكاء الاصطناعي وفقًا للبيانات البشرية يجعلها أكثر تأثرًا بصانعيها، كربط العرق بنشاط إجرامي معين، أو ربط الجنس بالنجاحات العملية.

واقترح خبراء آخرون حلًا آخر مناقض تمامًا لما ورد في هذا التقرير؛ وهو فتح الشركات لهذا «الصندوق الأسود» الذي يشكل أساس الذكاء الاصطناعي، معتقدين أن السماح للباحثين باختبار شفرات أقرانهم هي الطريقة الوحيدة لجعل أنظمة الذكاء الاصطناعي أكثر وسطية.

وسيؤدي هذا الانفتاح إلى جعل أنظمة الذكاء الاصطناعي أكثر أمانًا وأقل عرضة لاختراقات الإرهابيين. وتتحقق هذه النتيجة باعتماد نظام للفحص والموازنة ليجرب متخصصون تقنيات الذكاء الاصطناعي قبل إطلاقها باعتمادهم على «منصة حماية الخوارزميات.» بالطريقة ذاتها التي تخضع بها الأدوية للرقابة والفحص قبل إتاحتها للاستخدام العام.

لكن التقرير يحذر من إتاحة كافة المعلومات والأسرار المتعلقة بهذه التقنية، واصفًا الأمر بأنه نوع من إطلاق الرصاص على الأقدام في خضم سباقنا مع القراصنة ومخترقي المعلومات.

وبوسع الشركات بناء أنظمة أقوى بالتعاون فيما بينها بدل الاختباء خلف دروع الملكية. ويقترح التقرير أيضًا ضرورة العمل بجد لتوسيع مدارك أصحاب الشأن والخبراء في هذا المجال والمعنيين بإيجاد حلول لهذه التحديات. وقد تستفيد خوارزميات الذكاء الاصطناعي من هذا التعاون أيضًا.