أخبار اليوم
__
7 21. 19
العلوم المتقدمة
خبر جيد: الكويكب القريب لن يدمر الأرض هذا العام
الذكاء الاصطناعي
ذكاء اصطناعي يتعرف على الناس من خلال حركات عيونهم
الصحة والطب
ألمانيا تخطط لفرض تلقيح جميع الأطفال ضد الحصبة
مستقبل النقل
مالك إحدى سيارات تسلا يحطم الرقم القياسي ويقودها لمسافة بلغت 900 ألف كيلومتر
مستقبل النقل
نظام حساسات جديد يستخدم تقنية «الليدار» قد يثبت أن إيلون ماسك مخطئ
العلوم المتقدمة
ناسا تكتشف مستعرًا أعظمًا يلفه الغموض
مجتمع المستقبل
للمرة الأولى حكم روبوتي يقدم مباراة بيسبول احترافية
الثورة الصناعية 2.0
روبوت يؤدي تحدي غطاء الزجاجة
عالم الفضاء
الهند تلغي مهمة إلى القمر قبل ساعة من الإطلاق
الثورة الصناعية 2.0
مهندسون يصممون أشياء تتحدى قدرة الإمساك عند الروبوتات
مستقبل النقل
المملكة المتحدة تطلق خطة لتزويد المنازل الحديثة كافة بشواحن للسيارات الكهربائية
الذكاء الاصطناعي
الذكاء الاصطناعي يطور أول لقاح له

قوة مدمرة

أطلق أحد أعضاء مجلس جوجل الاستشاري الجديد لتطوير الذكاء الاصطناعي تحذيرًا شديدًا في وقت نترقب فيه انعقاد أول مؤتمر للمجلس.

ونقلت صحيفة جنوب الصين، عن دي كاي، عالم هندسة الحواسيب في جامعة هونج كونج للعلوم والتقنية وأحد ثمانية أسماء أعلنت عنها جوجل لتشكيل المجلس الجديد، أن «الذكاء الاصطناعي يمثل أكبر قوة تدميرية تواجهها البشرية على الإطلاق، ويقلقني تصاعد وتيرة النقاشات حول الموضوع، ونقترب الآن من حقبة يمكن للناس فيها إنتاج أسلحة خطيرة بسهولة مثل أساطيل الطائرات المسلحة دون طيار- لم يعد الأمر سرًا بعد الآن.»

أولويات

ويتخذ كاي موقف الرفض في الجدل الدائر عن الذكاء الاصطناعي المتقدم، واعتباره الثورة الصناعية الرابعة، إذ يصفه كاي بالخطر والأكثر زعزعة للاستقرار أي تطور تقني سابق.

وقال كاي إن «بعض الأشخاص يأملون التحكم بالتقنية بطريقة تحكمنا ذاتها بعنصر مثل اليورانيوم. ولكن هذه تبقى مجرد أمنيات. ما يجعل أهم أولوياتنا تغيير الثقافة الإنسانية، إذ نحتاج إلى نضوج الجنس البشري في المقام الأول.»

صعوبات المجلس الجديد

ويأتي تأسيس مجلس جوجل الاستشاري الجديد لتطوير الذكاء الاصطناعي، في ظروف صعبة، إذ شهدت الشركة استقالات واحتجاجات داخلية لموظفين على بعض الشخصيات المرشحة لتكون ضمنه.

وعلى الرغم من موقف كاي المزعج لبعض مناصري الذكاء الاصطناعي، الذي يتخذ منحى التحذير الشديد من التعلم العميق للآلات، يظهر جليًا أنه يأخذ مهمته الجديدة على محمل الجد.

التعلم العميق للآلات

ولطالما كانت احتمالية تطوير الذكاء الاصطناعي لآليات تفكير خاصة للوصول إلى مراحل متقدمة تشابه البشر مثار جدل في أوساط العلماء والفلاسفة وعدها كثيرون ضربًا من شطحات الخيال العلمي لنصل في عصرنا الراهن إلى إرهاصات أولى لهذا التوجه الجديد للآلات.

ويتطلب التعلم العميق للآلات بنية معقدة تحاكي الشبكات العصبونية للدماغ البشري، بهدف فهم الأنماط، حتى مع وجود ضجيج، وتفاصيل مفقودة، وغيرها من مصادر التشويش. ويحتاج كمية كبيرة من البيانات وقدرات حسابية هائلة، توسع قدرات الذكاء الاصطناعي للوصول إلى التفكير المنطقي، ويكمن ذلك في البرنامج ذاته؛ فهو يشبه كثيرًا عقل طفل صغير غير مكتمل، ولكن مرونته لا حدود لها.

هواجس

ولا يخفي خبراء الذكاء الاصطناعي مخاوفهم من تنامي اعتماد البشرية على خوارزمياته وتطوير التعلم العميق للآلات ووصوله إلى قدرات غير مسبوقة من السيطرة والتلاعب بالمجتمعات، على الرغم من إيجابيات الذكاء الاصطناعي المتطور وقدرته على تحسين العالم ومكافحة الأمراض ورفع مستويات الرعاية الصحية وتخليصنا من مهام عبودية تهيمن على حياتنا.

وأطلق بيل جيتس، أحد مؤسسي شركة مايكروسوفت، تحذيرًا خطيرًا في مارس/آذار الماضي، قارن فيه بين الذكاء الاصطناعي المتقدم والأسلحة النووية.

استخدامات شريرة

وقال العالِم كينث ستانلي، الأستاذ الجامعي في جامعة فلوريدا الوسطى، والمدير الهندسي لمخابر أوبر للذكاء الاصطناعي إن «أكثر الأمور مدعاة للقلق، استخدام الذكاء الاصطناعي لإيذاء البشر، مع وجود تطبيقات كثيرة تجعلك تتخيل حدوث ذلك، ويجب علينا أن نكون أكثر حذرًا، وأن لا نسمح لهذا الجانب السيئ بالخروج. إن فهم كيفية استمرار ثقتنا بالذكاء الاصطناعي، هو سؤال صعب جدًا وله أبعاد كثيرة تتجاوز الأبعاد العلمية، ما يُبرز الحاجة الملحة لمشاركة المجتمع كله في الإجابة عليه.»

وأضاف في لقاء خاص مع مرصد المستقبل إن «إساءة استخدام جميع أنواع التقنية أمر وارد، وأظن أن الذكاء الاصطناعي ليس إلا مثالًا آخر على ذلك، ولطالما كافح البشر لمنع استخدام التقنيات الحديثة لأغراض شريرة، ويبقى إقدامنا على وضع ضوابط وضمانات صحيحة، كفيلًا بجعلها آمنة. لا يمكنني الجزم اليوم بشأن قدرتنا على ضبط الأمور مستقبلًا، وما يجب أن نفعله حيال ذلك، لكن يمكنني أن أحذر من آلية التعاطي مع الذكاء الاصطناعي، وضرورة اتخاذ جانب الحيطة خلال استجابتنا لتأثيراته، وأن نطور طرائق تعاملنا معه بالتدريج.»

وقال إيركلي بيريدز، رئيس مركز الذكاء الاصطناعي والروبوتي في معهد الأمم المتحدة الأقاليمي لبحوث الجريمة والعدالة، في حديث خاص لمرصد المستقبل، إن «أكثر الأمور خطورة في الذكاء الاصطناعي، هو التطور السريع، فقد نتعرض لمشاكل جراء فقدان التوازن بين سرعة تطور الذكاء الاصطناعي وسرعة قابليتنا للتكيف معها.»

الذكاء الاصطناعي في خدمة المجرمين

ولم يُخفِ بيريدز مخاوفه من استخدام المنظمات الإجرامية والإرهابية للتطبيقات الخطيرة للذكاء الاصطناعي، بتطويعها لأغراض شريرة وتنفيذ عمليات كبيرة تتسبب بضرر بالغ، من خلال حرب رقمية أو تسخير الذكاء الاصطناعي للتحكم بالروبوتات والطائرات العسكرية دون طيار.

حرمان البشر من الوظائف

وأشار بيريدز إلى مخاطر أخرى متعلقة بخسارة كثير من الأشخاص لوظائفهم لحلول الروبوتات محلهم. وسبق أن سلط خبراء، الضوء على انعكاسات استثمار إمكانيات الذكاء الاصطناعي على سوق العمل في مختلف دول العالم؛ مؤكدين على أن الأعوام القليلة المقبلة ستشهد اختفاء حوالي 47% من الوظائف في الولايات المتحدة وحدها بسبب الذكاء الاصطناعي، وقد يصل اضمحلال الوظائف إلى مليون وظيفة قبل حلول العام 2026.

وبالمقابل يرى بعض صناع القرار أن اختفاء قدر كبير من الوظائف يقابله بوادر ومؤشرات على رفاهية الإنسانية ورخاء المجتمعات، إذ أن الذكاء الاصطناعي من المرجح أن يستحدث مئات الملايين من الوظائف الجديدة في الاقتصادات الناشئة، وقطاعات التطوير التقني، ومجالات الخدمات التخصصية.

سلاح فتاك

وشدد بيريدز على ضرورة استخدام الذكاء الاصطناعي في أمور خيرة، واستثمار فوائده وفهم مخاطره وتخفيفها باعتباره أداة قوية وليس سلاحًا فتاكًا.

وأكد جون لونجفورد، الباحث الأساسي في شركة مايكروسوفت، في لقاء مع مرصد المستقبل، على ضرورة مراقبة الطائرات دون طيار، مع وجود احتمالات وطرق مختلفة لتحولها إلى خطر. وقال لونجفورد إن «الحوسبة على متن الطائرات غير المأهولة ليست فعالة بما يكفي لفعل شيء مفيد حاليًا، لكن في غضون خمسة أو عشرة أعوام يمكنني أن أتخيل أن طائرة دون طيار قد يكون لديها قدرة حوسبية داخلية يمكن أن يكون مفيدًا في الواقع. إن استخدام الطائرات دون طيار في الوقت الراهن ما زال خاضعًا لسيطرة البشر، لكن ما يثير قلقي هو قدرتها المستقبلية على التعلم العميق.»

الخطر يكمن في سوء الاستخدام

في حين يرى آخرون أن الخطر لا يعود للذكاء الاصطناعي بحد ذاته، بل يكمن في سوء الاستخدام؛ وقال الباحث هافا سيجلمان، مدير برامج تقنية الأنظمة الميكروية في وكالة مشاريع بحوث الدفاع المتطورة (داربا) التابعة لوزارة الدفاع الأمريكية، لمرصد المستقبل، إن «جميع أنواع التقنية قابلة لسوء الاستخدام. أظن أن الأمر بيد من يستخدمها. ولا وجود لتقنية سيئة، بل أشخاص سيئون.»

وقال توماس ميكولوف، عالم أبحاث الذكاء الاصطناعي في شركة فيسبوك «عند توفر اهتمام كبير وتمويل ضخم حول شيء معين، يظهر أشخاص مستعدون لإساءة استخدامه. وما يثير القلق هو إقدام بعض الأشخاص على بيع الذكاء الاصطناعي قبل صنعه حتى، مدَّعين معرفة ماهية المشكلة التي سيحلها.» وأضاف إن «شركات ناشئة تطلق وعودًا عن أشياء تعتبرها من أمثلة الذكاء الاصطناعي الرائعة، إذ تتفنن أنظمتها في تطوير مسار واحد، قد لا يكون مثار اهتمام أحد، وتقضي عشرات الآلاف من ساعات العمل لتحسين قيمة وحيدة، ثم تدعي بعد ذلك بأنها قامت بإنجاز ضخم وتسوق ادعاءات كبيرة بأنها أتت بما لم يسبقها إليه أحد.»

ولسنا متيقنين بعد من إمكانية إنشاء ذكاء اصطناعي عام قادر على أداء أي مهمة إدراكية يستطيع البشر القيام بها ببراعة أو ربما بشكل أفضل.

وعلى الرغم من المستقبل الواعد للذكاء الاصطناعي المتقدم، إلا أنه يظل مقرونًا بجملة من الإشكاليات والأسئلة الأخلاقية، وربما لا نعرف جميع الأسئلة التي يجب الإجابة عنها حتى الآن.

ضمانات مستقبلية

إلا أن خبراء في هذا المجال يتفقون على حاجتنا لاتخاذ قرار بشأن قواعد وآليات التعاطي مع الذكاء الاصطناعي قبل أن نصل إلى مرحلة الحاجة الحقيقية لتلك القواعد؛ وأكدوا على ضرورة وضع إجابات عن مجموعة من الأسئلة الملحة، حول وقت إنشاء اتفاقيات دولية ومجالس أخلاقية وهيئات تنظيمية في الحكومات والشركات الخاصة والأوساط الأكاديمية. مشيرين إلى أن وضع الاتفاقيات والبروتوكولات موضع التنفيذ من شأنه أن يقلل فرصة قيام حكومة أو باحث غير معتمد أو حتى عالم مختل، بإطلاق العنان لنظام ذكاء اصطناعي ضار، أو تسليح خوارزميات متقدمة. وإن حصل أمر سيئ فستضمن الأنظمة أن يكون لدينا طرق للتعامل معه.

الذكاء الاصطناعي

هل سنعجز عن السيطرة على مستقبل الذكاء الاصطناعي؟

Tag Hartman-Simkins
>
<
أخبار اليوم
__
7 21. 19
الذكاء الاصطناعي

هل سنعجز عن السيطرة على مستقبل الذكاء الاصطناعي؟

Tag Hartman-Simkins

قوة مدمرة

أطلق أحد أعضاء مجلس جوجل الاستشاري الجديد لتطوير الذكاء الاصطناعي تحذيرًا شديدًا في وقت نترقب فيه انعقاد أول مؤتمر للمجلس.

ونقلت صحيفة جنوب الصين، عن دي كاي، عالم هندسة الحواسيب في جامعة هونج كونج للعلوم والتقنية وأحد ثمانية أسماء أعلنت عنها جوجل لتشكيل المجلس الجديد، أن «الذكاء الاصطناعي يمثل أكبر قوة تدميرية تواجهها البشرية على الإطلاق، ويقلقني تصاعد وتيرة النقاشات حول الموضوع، ونقترب الآن من حقبة يمكن للناس فيها إنتاج أسلحة خطيرة بسهولة مثل أساطيل الطائرات المسلحة دون طيار- لم يعد الأمر سرًا بعد الآن.»

أولويات

ويتخذ كاي موقف الرفض في الجدل الدائر عن الذكاء الاصطناعي المتقدم، واعتباره الثورة الصناعية الرابعة، إذ يصفه كاي بالخطر والأكثر زعزعة للاستقرار أي تطور تقني سابق.

وقال كاي إن «بعض الأشخاص يأملون التحكم بالتقنية بطريقة تحكمنا ذاتها بعنصر مثل اليورانيوم. ولكن هذه تبقى مجرد أمنيات. ما يجعل أهم أولوياتنا تغيير الثقافة الإنسانية، إذ نحتاج إلى نضوج الجنس البشري في المقام الأول.»

صعوبات المجلس الجديد

ويأتي تأسيس مجلس جوجل الاستشاري الجديد لتطوير الذكاء الاصطناعي، في ظروف صعبة، إذ شهدت الشركة استقالات واحتجاجات داخلية لموظفين على بعض الشخصيات المرشحة لتكون ضمنه.

وعلى الرغم من موقف كاي المزعج لبعض مناصري الذكاء الاصطناعي، الذي يتخذ منحى التحذير الشديد من التعلم العميق للآلات، يظهر جليًا أنه يأخذ مهمته الجديدة على محمل الجد.

التعلم العميق للآلات

ولطالما كانت احتمالية تطوير الذكاء الاصطناعي لآليات تفكير خاصة للوصول إلى مراحل متقدمة تشابه البشر مثار جدل في أوساط العلماء والفلاسفة وعدها كثيرون ضربًا من شطحات الخيال العلمي لنصل في عصرنا الراهن إلى إرهاصات أولى لهذا التوجه الجديد للآلات.

ويتطلب التعلم العميق للآلات بنية معقدة تحاكي الشبكات العصبونية للدماغ البشري، بهدف فهم الأنماط، حتى مع وجود ضجيج، وتفاصيل مفقودة، وغيرها من مصادر التشويش. ويحتاج كمية كبيرة من البيانات وقدرات حسابية هائلة، توسع قدرات الذكاء الاصطناعي للوصول إلى التفكير المنطقي، ويكمن ذلك في البرنامج ذاته؛ فهو يشبه كثيرًا عقل طفل صغير غير مكتمل، ولكن مرونته لا حدود لها.

هواجس

ولا يخفي خبراء الذكاء الاصطناعي مخاوفهم من تنامي اعتماد البشرية على خوارزمياته وتطوير التعلم العميق للآلات ووصوله إلى قدرات غير مسبوقة من السيطرة والتلاعب بالمجتمعات، على الرغم من إيجابيات الذكاء الاصطناعي المتطور وقدرته على تحسين العالم ومكافحة الأمراض ورفع مستويات الرعاية الصحية وتخليصنا من مهام عبودية تهيمن على حياتنا.

وأطلق بيل جيتس، أحد مؤسسي شركة مايكروسوفت، تحذيرًا خطيرًا في مارس/آذار الماضي، قارن فيه بين الذكاء الاصطناعي المتقدم والأسلحة النووية.

استخدامات شريرة

وقال العالِم كينث ستانلي، الأستاذ الجامعي في جامعة فلوريدا الوسطى، والمدير الهندسي لمخابر أوبر للذكاء الاصطناعي إن «أكثر الأمور مدعاة للقلق، استخدام الذكاء الاصطناعي لإيذاء البشر، مع وجود تطبيقات كثيرة تجعلك تتخيل حدوث ذلك، ويجب علينا أن نكون أكثر حذرًا، وأن لا نسمح لهذا الجانب السيئ بالخروج. إن فهم كيفية استمرار ثقتنا بالذكاء الاصطناعي، هو سؤال صعب جدًا وله أبعاد كثيرة تتجاوز الأبعاد العلمية، ما يُبرز الحاجة الملحة لمشاركة المجتمع كله في الإجابة عليه.»

وأضاف في لقاء خاص مع مرصد المستقبل إن «إساءة استخدام جميع أنواع التقنية أمر وارد، وأظن أن الذكاء الاصطناعي ليس إلا مثالًا آخر على ذلك، ولطالما كافح البشر لمنع استخدام التقنيات الحديثة لأغراض شريرة، ويبقى إقدامنا على وضع ضوابط وضمانات صحيحة، كفيلًا بجعلها آمنة. لا يمكنني الجزم اليوم بشأن قدرتنا على ضبط الأمور مستقبلًا، وما يجب أن نفعله حيال ذلك، لكن يمكنني أن أحذر من آلية التعاطي مع الذكاء الاصطناعي، وضرورة اتخاذ جانب الحيطة خلال استجابتنا لتأثيراته، وأن نطور طرائق تعاملنا معه بالتدريج.»

وقال إيركلي بيريدز، رئيس مركز الذكاء الاصطناعي والروبوتي في معهد الأمم المتحدة الأقاليمي لبحوث الجريمة والعدالة، في حديث خاص لمرصد المستقبل، إن «أكثر الأمور خطورة في الذكاء الاصطناعي، هو التطور السريع، فقد نتعرض لمشاكل جراء فقدان التوازن بين سرعة تطور الذكاء الاصطناعي وسرعة قابليتنا للتكيف معها.»

الذكاء الاصطناعي في خدمة المجرمين

ولم يُخفِ بيريدز مخاوفه من استخدام المنظمات الإجرامية والإرهابية للتطبيقات الخطيرة للذكاء الاصطناعي، بتطويعها لأغراض شريرة وتنفيذ عمليات كبيرة تتسبب بضرر بالغ، من خلال حرب رقمية أو تسخير الذكاء الاصطناعي للتحكم بالروبوتات والطائرات العسكرية دون طيار.

حرمان البشر من الوظائف

وأشار بيريدز إلى مخاطر أخرى متعلقة بخسارة كثير من الأشخاص لوظائفهم لحلول الروبوتات محلهم. وسبق أن سلط خبراء، الضوء على انعكاسات استثمار إمكانيات الذكاء الاصطناعي على سوق العمل في مختلف دول العالم؛ مؤكدين على أن الأعوام القليلة المقبلة ستشهد اختفاء حوالي 47% من الوظائف في الولايات المتحدة وحدها بسبب الذكاء الاصطناعي، وقد يصل اضمحلال الوظائف إلى مليون وظيفة قبل حلول العام 2026.

وبالمقابل يرى بعض صناع القرار أن اختفاء قدر كبير من الوظائف يقابله بوادر ومؤشرات على رفاهية الإنسانية ورخاء المجتمعات، إذ أن الذكاء الاصطناعي من المرجح أن يستحدث مئات الملايين من الوظائف الجديدة في الاقتصادات الناشئة، وقطاعات التطوير التقني، ومجالات الخدمات التخصصية.

سلاح فتاك

وشدد بيريدز على ضرورة استخدام الذكاء الاصطناعي في أمور خيرة، واستثمار فوائده وفهم مخاطره وتخفيفها باعتباره أداة قوية وليس سلاحًا فتاكًا.

وأكد جون لونجفورد، الباحث الأساسي في شركة مايكروسوفت، في لقاء مع مرصد المستقبل، على ضرورة مراقبة الطائرات دون طيار، مع وجود احتمالات وطرق مختلفة لتحولها إلى خطر. وقال لونجفورد إن «الحوسبة على متن الطائرات غير المأهولة ليست فعالة بما يكفي لفعل شيء مفيد حاليًا، لكن في غضون خمسة أو عشرة أعوام يمكنني أن أتخيل أن طائرة دون طيار قد يكون لديها قدرة حوسبية داخلية يمكن أن يكون مفيدًا في الواقع. إن استخدام الطائرات دون طيار في الوقت الراهن ما زال خاضعًا لسيطرة البشر، لكن ما يثير قلقي هو قدرتها المستقبلية على التعلم العميق.»

الخطر يكمن في سوء الاستخدام

في حين يرى آخرون أن الخطر لا يعود للذكاء الاصطناعي بحد ذاته، بل يكمن في سوء الاستخدام؛ وقال الباحث هافا سيجلمان، مدير برامج تقنية الأنظمة الميكروية في وكالة مشاريع بحوث الدفاع المتطورة (داربا) التابعة لوزارة الدفاع الأمريكية، لمرصد المستقبل، إن «جميع أنواع التقنية قابلة لسوء الاستخدام. أظن أن الأمر بيد من يستخدمها. ولا وجود لتقنية سيئة، بل أشخاص سيئون.»

وقال توماس ميكولوف، عالم أبحاث الذكاء الاصطناعي في شركة فيسبوك «عند توفر اهتمام كبير وتمويل ضخم حول شيء معين، يظهر أشخاص مستعدون لإساءة استخدامه. وما يثير القلق هو إقدام بعض الأشخاص على بيع الذكاء الاصطناعي قبل صنعه حتى، مدَّعين معرفة ماهية المشكلة التي سيحلها.» وأضاف إن «شركات ناشئة تطلق وعودًا عن أشياء تعتبرها من أمثلة الذكاء الاصطناعي الرائعة، إذ تتفنن أنظمتها في تطوير مسار واحد، قد لا يكون مثار اهتمام أحد، وتقضي عشرات الآلاف من ساعات العمل لتحسين قيمة وحيدة، ثم تدعي بعد ذلك بأنها قامت بإنجاز ضخم وتسوق ادعاءات كبيرة بأنها أتت بما لم يسبقها إليه أحد.»

ولسنا متيقنين بعد من إمكانية إنشاء ذكاء اصطناعي عام قادر على أداء أي مهمة إدراكية يستطيع البشر القيام بها ببراعة أو ربما بشكل أفضل.

وعلى الرغم من المستقبل الواعد للذكاء الاصطناعي المتقدم، إلا أنه يظل مقرونًا بجملة من الإشكاليات والأسئلة الأخلاقية، وربما لا نعرف جميع الأسئلة التي يجب الإجابة عنها حتى الآن.

ضمانات مستقبلية

إلا أن خبراء في هذا المجال يتفقون على حاجتنا لاتخاذ قرار بشأن قواعد وآليات التعاطي مع الذكاء الاصطناعي قبل أن نصل إلى مرحلة الحاجة الحقيقية لتلك القواعد؛ وأكدوا على ضرورة وضع إجابات عن مجموعة من الأسئلة الملحة، حول وقت إنشاء اتفاقيات دولية ومجالس أخلاقية وهيئات تنظيمية في الحكومات والشركات الخاصة والأوساط الأكاديمية. مشيرين إلى أن وضع الاتفاقيات والبروتوكولات موضع التنفيذ من شأنه أن يقلل فرصة قيام حكومة أو باحث غير معتمد أو حتى عالم مختل، بإطلاق العنان لنظام ذكاء اصطناعي ضار، أو تسليح خوارزميات متقدمة. وإن حصل أمر سيئ فستضمن الأنظمة أن يكون لدينا طرق للتعامل معه.

التالي__ روبوتات غواصة تسهم في إنقاذ الحيد المرجاني العظيم >>>
<<< ناسا تطلب مساعدة شركة سبيس إكس لحماية الأرض من خطر الكويكبات __السابق
>
المقال التالي