لا يخفي خبراء الذكاء الاصطناعي مخاوفهم من تنامي اعتماد البشرية على خوارزمياته وتطوير التعلم العميق للآلات ووصوله إلى قدرات غير مسبوقة من السيطرة والتلاعب بالمجتمعات، على الرغم من إيجابيات الذكاء الاصطناعي المتطور وقدرته على تحسين العالم ومكافحة الأمراض ورفع مستويات الرعاية الصحية وتخليصنا من مهام عبودية تهيمن على حياتنا.

وبث عدد من المهندسين والمستثمرين والباحثين وصناع القرار هواجسهم من الذكاء الاصطناعي خلال مؤتمرٍ عن مجاراة الذكاء الاصطناعي للإنسان، انعقد في العاصمة التشيكية براغ، في أغسطس/آب الماضي، ليعبر بعضهم عن قلقه من سيطرة الروبوتات على الوظائف في سوق العمل ما يساهم في رفع نسبة البطالة حول العالم، ويشير آخرون إلى احتمال أن تشهد البشرية مستقبلًا ثورة روبوتية، وغيرها من المخاوف التي كانت مثار جدال في المؤتمر بين مؤيد لها ومعارض اعتبرها مبالغة غير مبررة.

استخدامات شريرة

وقال العالِم المشارك في المؤتمر، كينث ستانلي، الأستاذ الجامعي في جامعة فلوريدا الوسطى، والمدير الهندسي لمخابر أوبر للذكاء الاصطناعي إن «أكثر الأمور مدعاة للقلق، استخدام الذكاء الاصطناعي لإيذاء البشر، مع وجود تطبيقات كثيرة تجعلك تتخيل حدوث ذلك، ويجب علينا أن نكون أكثر حذرًا، وأن لا نسمح لهذا الجانب السيئ بالخروج. إن فهم كيفية استمرار ثقتنا بالذكاء الاصطناعي، هو سؤال صعب جدًا وله أبعاد كثيرة تتجاوز الأبعاد العلمية، ما يُبرز الحاجة الملحة لمشاركة المجتمع كله في الإجابة عليه.»

وأضاف في لقاء خاص مع مرصد المستقبل إن «إساءة استخدام جميع أنواع التقنية أمر وارد، وأظن أن الذكاء الاصطناعي ليس إلا مثالًا آخر على ذلك، ولطالما كافح البشر لمنع استخدام التقنيات الحديثة لأغراض شريرة، ويبقى إقدامنا على وضع ضوابط وضمانات صحيحة، كفيلًا بجعلها آمنة.»

وتابع «لا يمكنني الجزم اليوم بشأن قدرتنا على ضبط الأمور مستقبلًا، وما يجب أن نفعله حيال ذلك، لكن يمكنني أن أحذر من آلية التعاطي مع الذكاء الاصطناعي، وضرورة اتخاذ جانب الحيطة خلال استجابتنا لتأثيراته، وأن نطور طرائق تعاملنا معه بالتدريج.»

وقال رئيس مركز الذكاء الاصطناعي والروبوتي في معهد الأمم المتحدة الإقاليمي لبحوث الجريمة والعدالة، إيركلي بيريدز، في حديث خاص لمرصد المستقبل، إن «أكثر الأمور خطورة في الذكاء الاصطناعي، هو التطور السريع، فقد نتعرض لمشاكل جراء فقدان التوازن بين سرعة تطور الذكاء الاصطناعي وسرعة قابليتنا للتكيف معها.»

الذكاء الاصطناعي في خدمة المجرمين

ولم يُخفِ بيريدز مخاوفه من استخدام المنظمات الإجرامية والإرهابية للتطبيقات الخطيرة للذكاء الاصطناعي، بتطويعها لأغراض شريرة وتنفيذ عمليات كبيرة تتسبب بضرر بالغ، من خلال حرب رقمية أو تسخير الذكاء الاصطناعي للتحكم بالروبوتات والطائرات العسكرية دون طيار.

حرمان البشر من الوظائف

وأشار بيريدز إلى مخاطر أخرى متعلقة بخسارة كثير من الأشخاص لوظائفهم لحلول الروبوتات محلهم. وسبق أن سلط خبراء، الضوء على انعكاسات استثمار إمكانيات الذكاء الاصطناعي على سوق العمل في مختلف دول العالم؛ مؤكدين على أن الأعوام القليلة المقبلة ستشهد اختفاء حوالي 47% من الوظائف في الولايات المتحدة وحدها بسبب الذكاء الاصطناعي، وقد يصل اضمحلال الوظائف إلى مليون وظيفة قبل حلول العام 2026.

وبالمقابل يرى بعض صناع القرار أن اختفاء قدر كبير من الوظائف يقابله بوادر ومؤشرات على رفاهية الإنسانية ورخاء المجتمعات، إذ أن الذكاء الاصطناعي من المرجح أن يستحدث مئات الملايين من الوظائف الجديدة في الاقتصادات الناشئة، وقطاعات التطوير التقني، ومجالات الخدمات التخصصية.

سلاح فتاك

وشدد بيريدز على ضرورة استخدام الذكاء الاصطناعي في أمور خيرة، واستثمار فوائده وفهم مخاطره وتخفيفها باعتباره أداة قوية وليس سلاحًا فتاكًا.

وأكد الباحث الأساسي في شركة مايكروسوفت، جون لونجفورد، في لقاء مع مرصد المستقبل على هامش المؤتمر، على ضرورة مراقبة الطائرات دون طيار، مع وجود احتمالات وطرق مختلفة لتحولها إلى خطر.

وقال لونجفورد إن «عملية إجراء الحسابات على متن الطائرات غير المأهولة ليست فعالة بما يكفي للقيام بشيء مفيد حاليًا، ولكن في غضون خمسة أو عشرة أعوام يمكنني أن أتخيل أن طائرة دون طيار قد يكون لديها حساب داخلي يمكن أن يكون مفيدًا في الواقع. إن استخدام الطائرات دون طيار في الوقت الراهن ما زال خاضعًا لسيطرة البشر، لكن ما يثير قلقي هو قدرتها المستقبلية على التعلم العميق.»

التعلم العميق للآلات

ولطالما كانت احتمالية تطوير الذكاء الاصطناعي لآليات تفكير خاصة للوصول إلى مراحل متقدمة تشابه البشر مثار جدل في أوساط العلماء والفلاسفة وعدها كثيرون ضربًا من شطحات الخيال العلمي لنصل في عصرنا الراهن إلى إرهاصات أولى لهذا التوجه الجديد للآلات.

ويتطلب التعلم العميق للآلات بنية معقدة تحاكي الشبكات العصبونية للدماغ البشري، بهدف فهم الأنماط، حتى مع وجود ضجيج، وتفاصيل مفقودة، وغيرها من مصادر التشويش.

ويحتاج التعليم العميق للآلات، كمية كبيرة من البيانات وقدرات حسابية هائلة، توسع قدرات الذكاء الاصطناعي للوصول إلى التفكير المنطقي، ويكمن ذلك في البرنامج ذاته؛ فهو يشبه كثيرًا عقل طفل صغير غير مكتمل، ولكن مرونته لا حدود لها.

الخطر يكمن في سوء الاستخدام

في حين يرى آخرون أن الخطر لا يعود للذكاء الاصطناعي بحد ذاته، بل يكمن في سوء الاستخدام؛ وقال الباحث هافا سيجلمان، مدير برامج تقنية الأنظمة الميكروية في وكالة مشاريع بحوث الدفاع المتطورة (داربا) التابعة لوزارة الدفاع الأمريكية، لمرصد المستقبل، إن «جميع أنواع التقنية قابلة لسوء الاستخدام. أظن أن الأمر بيد من يستخدمها. ولا وجود لتقنية سيئة، بل أشخاص سيئون.»

وقال عالم أبحاث الذكاء الاصطناعي في شركة فيسبوك، توماس ميكولوف، إنه «عند توفر اهتمام كبير وتمويل ضخم حول شيء معن، يظهر أشخاص مستعدون لإساءة استخدامه. وما يثير القلق هو إقدام بعض الأشخاص على بيع الذكاء الاصطناعي قبل صنعه حتى، مدَّعين معرفة ماهية المشكلة التي سيحلها.»

وأضاف إن «شركات ناشئة تطلق وعودًا عن أشياء تعتبرها من أمثلة الذكاء الاصطناعي الرائعة، إذ تتفنن أنظمتها في تطوير مسار واحد، قد لا يكون مثار اهتمام أحد، وتقضي عشرات الآلاف من ساعات العمل لتحسين قيمة وحيدة، ثم تدعي بعد ذلك بأنها قامت بإنجاز ضخم وتسوق ادعاءات كبيرة بأنها أتت بما لم يسبقها إليه أحد.»

ولسنا متيقنين بعد من إمكانية إنشاء ذكاء اصطناعي عام قادر على أداء أي مهمة إدراكية يستطيع البشر القيام بها ببراعة أو ربما بشكل أفضل.

وعلى الرغم من المستقبل الواعد للذكاء الاصطناعي المتقدم، إلا أنه يظل مقرونًا بجملة من الإشكاليات والأسئلة الأخلاقية، وربما لا نعرف جميع الأسئلة الواجب الإجابة عنها حتى الآن.

ضمانات مستقبلية

إلا أن معظم المتحدثين في المؤتمر اتفقوا على حاجتنا لاتخاذ قرار بشأن قواعد وآليات التعاطي مع الذكاء الاصطناعي قبل أن نصل إلى مرحلة الحاجة الحقيقية لتلك القواعد؛ وأكدوا على ضرورة وضع إجابات عن مجموعة من الأسئلة الملحة، حول وقت إنشاء اتفاقيات دولية ومجالس أخلاقية وهيئات تنظيمية في الحكومات والشركات الخاصة والأوساط الأكاديمية.

وأشار المشاركون إلى أن وضع الاتفاقيات والبروتوكولات موضع التنفيذ من شأنه أن يقلل فرصة قيام حكومة أو باحث غير معتمد أو حتى عالم مختل، بإطلاق العنان لنظام ذكاء اصطناعي ضار، أو تسليح خوارزميات متقدمة. وإن حصل أمر سيئ فستضمن الأنظمة أن يكون لدينا طرق للتعامل معه.