يعد التطور من مسلمات التقنيات وطبيعتها على مر الزمن، والتي تتقدم مع الإنسانية إلى الأمام يدًا بيد. وعلى الرغم من ذلك، يحيط بهذه التقنيات -كالذكاء الاصطناعي والروبوتات- دائمًا خوف ينبع جزئيًا من الطريقة التي صورتها أفلام الخيال العلمي، وهو غالبًا خوف من المجهول؛ فالبشرية لا ترى مشهدًا واضحًا لما سينتج عن التطور المستمر لأنظمة الذكاء الاصطناعي.

انقر هنا لاستعراض الإنفوجرافيك الكامل
انقر هنا لاستعراض الإنفوجرافيك الكامل

لربما كان استبدال نظام التوظيف البشري بأنظمة آلية ذكية هو الشغل الشاغل للناس في هذا الموضوع. إذ تؤيد عدة دراسات القول بأن ازدياد النظم المؤتمتة سيتسبب في تعطيل التوظيف خلال العقدين المقبلين.

تتوقع إحدى الدراسات استبدال نحو 47% من الوظائف -في الولايات المتحدة الأمريكية - بالآلات، بينما تتوقع دراسة أخرى استبدالها بحوالي 40% من الوظائف في كندا. وتتنبأ الوكالات البريطانية باستبدال 850 ألف وظيفة في المملكة المتحدة بنظام الأتمتة. في الوقت الذي يواجه فيه 137 مليون عامل في جنوب شرق آسيا خطر فقدان وظائفهم لصالح الآلات في الأعوام العشرين المقبلة.

لن تغزو الأتمتة وظائف العمال فحسب، بل القطاع الصناعي بأكمله.

ما الذي يجدر بنا أن نخشاه

لا يسعنا أن ننكر الأمور التي تثير القلق حيال الذكاء الاصطناعي، ومنها طريقة استخدامنا له. وقال «ستيف رينجر» رئيس تحرير مجلتي «زي دي نيت» و«تيك ريببلك» البريطانية «يتنامى الذكاء الاصطناعي بسرعة كبيرة وطريقة مشوقة، إلا أنه ليس الحل لكل مشكلة تواجهنا.»

يحذر رينجر من عجز الصناعات عن التعامل مع الذكاء الاصطناعي الذي سيسبب ركودًا، قائلًا «تؤدي التوقعات المبالغ بها مع نقص الطواقم الماهرة المدربة على تحقيق الاستفادة القصوى من التقنيات، إلى فقدان الثقة.» بالإضافة إلى تحذيره  من خطر النظر إلى الذكاء الاصطناعي بصفته حلًا سحريًا لكل المشاكل، وتجاهل حقيقة أن تقنية الذكاء الاصطناعي وخوارزميات البرمجة الآلية لا تتجاوز حدود المعلومات المدخلة إليها.

قال رينجر «يجدر بنا إيجاد طرائق لتأكيد قدرتنا على استيعاب وتحدي القرارات التي يتخذها الذكاء الاصطناعي.» فهذا يشكل في نهاية المطاف خطرًا متعلقًا بتقنية الذكاء الاصطناعي. وأشار إلى أن الأبحاث تُجرى على قدم وساق لمحاولة فهم الكيفية التي يصل فيها الذكاء الاصطناعي إلى استنتاجاته. وُضعت بعد ذلك خمسة أسس للتعامل مع الذكاء الاصطناعي هي: المسؤولية «إذ يجب على الشخص أن يكون متاحًا للتعامل مع الآثار المترتبة على استخدام تقنية الذكاء الاصظناعي.» التوضيح «القدرة على شرح القرارات التي يتخذها الذكاء الاصطناعي –بشكل مبسط- للأشخاص المعنيين بها مباشرة.» الدقة «ضرورة تتبع مصادر الأخطاء.» التدقيق «إتاحة إمكانية مراجعة سلوك الذكاء الاصطناعي من طرف ثالث.» والنزاهة «ينبغي أن لا يخضع الذكاء الاصطناعي لتأثير التحيز أو التمييز البشري.»

اختتم رينجر بقوله «لا داع للقلق حيال الذكاء الاصطناعي والتعلم الذاتي للآلات، بل ما يقلق بالفعل هو قصور الذكاء البشري وعجز قدراتنا الذاتية على التعلم.» في نهاية المطاف، يكمن التهديد الأكبر على البشرية في الطريقة التي نتعامل بها مع الذكاء الاصطناعي، لا التقنية بحد ذاتها.

خاضع للقياس والمراقبة

لا ريب أن وجود مؤسسات تحدد مسبقًا القواعد الإرشادية لمتابعة بحوث الذكاء الاصطناعي وتطوره أمر جيّد، ومنها الشراكة التي تضم كبرى الشركات التقنية كأمازون وجوجل وآي بي إم وفيسبوك ومايكروسوفت وآبل. بالإضافة إلى المشروع الذي ترعاه مؤسسة نايت لتمويل الذكاء الاصطناعي الأخلاقي، وأخيرًا وثيقة إطار عمل جمعية مهندسي الكهرباء والإلكترونيات لتصميم ذكاء اصطناعي ملتزم أخلاقيًا.

إن الفوائد التي تعود علينا من تقنية الذكاء الاصطناعي لا يمكن إنكارها؛ إذ يعمل الذكاء الاصطناعي الآن كشبكات عصبية معقدة وخوارزميات تعلّم آلي في أغلب أجهزتنا الشائعة. بالإضافة إلى وجوده في الأنظمة التي تتخذ القرارات الاستنتاجية بإجراء العمليات اللازمة لتحسين خدمة الزبائن في الشركات.

يخدم الذكاء الاصطناعي البشرية على عدة أصعدة؛ ويمكنه النأي بها عن الوظائف الخطرة، والحد من حوادث السيارات، ناهيك عن تحسين العلاج والخدمة الطبية. لذا يجب أم لا تفوق مخاوفنا هذه الامتيازات التي يوفرها لنا.