ولعل هذا ما يبرر ذاك الحرص الشديد الذي يبديه قادة أعتى الدول على أن يتم تطوير الذكاء الاصطناعي في أقصى درجات «المسؤولية والأمان»، وهو ما يفسر على نحو غير علني المخاوف من أن ينفلت العقال ويصبح العالم على حافة جنون سباق ضار لا أحد يدرك إلى أين يمكن أن يصل بالعالم.
اهتمام البيت الأبيض
قبل أيام فقط، طالب الرئيس الأمريكي جو بايدن عمالقة التكنولوجيا بضبط تطور الذكاء الاصطناعي وفق قواعد من المسؤولية خلال اجتماعه معهم في البيت الأبيض، فيما أكدوا بدورهم التزامهم بمكافحة الهجمات الإلكترونية والاحتيال، وشدد بايدن على أن على الرغم من الفرص الهائلة التي يوفرها الذكاء الاصطناعي إلا أنه يشكل في الوقت نفسه مخاطر شديدة على «مجتمعنا واقتصادنا وأمننا القومي».
وكان بايدين اجتمع بقادة شركات «أمازون» و«أنثروبك» و«جوجل» و«إنفكشن» و«ميتا» و«ماكروسوفت» و«أوبن إيه آي»، لمناقشة ضبط الابتكار بقواعد من الأمان والمسؤولية.
سلامة.. أمن.. ثقة
تعهدت الشركات العملاقة السبع التي اجتمع قادتها مع بادين باحترام «المبادئ الثلاثة التي يجب أن تكون أساسية لتطوير الذكاء الاصطناعي» وهي السلامة والأمن والثقة، ودفع الابتكار المسؤول.
وتمثل تهديدات يمكن أن يتعرض لها المستهلكون مثل الاحتيال والمعلومات المضللة، إضافة إلى مخاطر فقدان الوظائف خطرًا جديًا ومحدقًا لابد من التعامل معه بمنتهى الجدية، ولذا تعهدت تلك الشركات كذلك باختبار برامج الكمبيوتر الخاصة بها داخليًا وخارجيًا قبل إطلاقها، كما تعهدت بالاستثمار في الأمن السيبراني وتبادل المعلومات ذات الصلة حول أدواتها، بما في ذلك العيوب المحتملة، مع السلطات والباحثين.
علامة مائية
لعل سبل تخفيف المخاطر التي سيأتي بها الذكاء الاصطناعي تتمثل في القدرة على تمييز المحتوى الذي وضع بواسطة الذكاء الاصطناعي عن غيرها من المحتويات، وقد اقترح البيت الأبيض نظام العلامات المائية على المحتوى الذي يوضع باستخدام الذكاء الاصطناعي، وهو نظام ما يزال في ميدان تردد بعض الشركات الرئيسية المعنية التي تعارض وضع مثل هذه العلامة على المحتوى الذي يتم إنشاؤه باستخدام برامجها.
غياب التفاؤل
على الرغم من الاجتماع الذي بدا مثمرًا إلى حد ما على المستوى النظري، إلا أن توترات وتجاذبات في الكونجرس الأمريكي الذي يشغلالجمهوريون غالبية مقاعده تجعل إصدار قوانين جديدة للذكاء الاصطناعي أمرًا غير مرجح في الوقت القريب، وإن كانت الحكومة الأمريكيةتعمل على مرسوم بشأن أمن الذكاء الاصطناعي.
كما يتم العمل لوضع إطار دولي قوي لتنظيم تطوير الذكاء الاصطناعي واستخدامه في جميع أنحاء العالم، حيث من المرجح أن تستضيفبريطانيا قمة دولية للذكاء الاصطناعي في الخريف المقبل.
حرب روبوتات
في شأن ذي صلة، حذر مركز الأمن الأمريكي الجديد (en-US) من احتمال تفوق الصين في استخدام الذكاء الاصطناعي لتحديثجيشها، في وقت تخوف فيه خبراء في تكنولوجيا المعلومات من أن يقوم صراع واشنطن وبكين إلى إطلاق حروب تتولاها الروبوتات والعقولالاصطناعية بدلا من البشر.
وقال المركز المعني بسياسات الأمن القومي والدفاع، إن «هناك ضرورة أن تتخذ واشنطن إجراءات جريئة لوقف تقدم بكين في استخدامالذكاء الاصطناعي للأغراض العسكرية، والتفاوض بشأن الحد من المخاطر».
سرعة في الحركة
أثارت السرعة التي تتحرك بها الصين وأمريكا لدمج تقنيات الذكاء الاصطناعي في جيوشهما المخاوف، خصوصًا أن البلدين في حالة توتربشأن تايوان وبحر الصين الجنوبي.
ويلعب تفوق الصين في السباق حتى الآن دورًا مؤثرًا في رفع مخاطر نشوب صراع، خصوصًا أنها لا تقدم ـحسب واشنطن وبعض حلفائهاـالشفافية المطلوبة فيما يتعلق بجوانب التحديث العسكري، ما قد يقودها إلى تحقيق اختراقات باستخدام الذكاء الاصطناعي الذي يلعب دورًامؤثرًا في طموحات الصين، التي تستهدف الوصول إلى جيش «على مستوى عالمي» بحلول 2050.
عقبات في الطريق
تقود احتمالات التفوق الصيني إلى ضرورة أن تتحفز أمريكا لمواجهة المخاطر، على الرغم من أن تقرير مركز الأمن الأمريكي الجديد يلحظجملة من العوائق والعقبات التي تعترض طريق تفوق بكين وتقويتها لقدراتها العسكرية بالذكاء الاصطناعي.
ولعل أبرز تلك العقبات هي تلك الضوابط التكنولوجية التي تفرضها أمريكا وحلفاؤها، حيث يفرضون حظرًا على تصدير تقنيات متقدِّمة للذكاءالاصطناعي إلى الصين.
1ـ تطبيق صنع القرار بالذكاء الاصطناعي يمكن أن يولّد معلومات سيئة تقود صانعي السياسات إلى قرارات خاطئة.
2 ـ ليس هناك ضمان أن الإجراءات ضد الأنظمة الروبوتية، خاصة إذا كانت مسلحة، ستقابل بضبط النفس الذي يطبقه البشر.
3 ـ تحتاج الصين إلى كثير من الوقت والعمل للوصول إلى ما تتمناه من ريادة في تطوير الذكاء الاصطناعي العسكري.
تحذيرات من مخاطر شديدة
يتخوف كثيرون من أن توسع تقنيات الذكاء الاصطناعي وإدخالها في التطور العسكري دائرة العنف داخل الجيوش، وربما تتحكم الآلاتوالروبوتات في قرارات الحروب والعلميات العسكرية.
ويرى كثيرون أن العالم ما يزال بحاجة إلى بضع سنوات أخرى قبل أن تتحول مخاوفه الحالية إلى واقع فعلي، لكنهم يؤمنون أن من يمتلكالتفوق في الذكاء الاصطناعي سيمتلك لاحقًا السيادة في العالم.
فكرة غير مستبعدة
كثيرًا ما عرضت السينما لأفلام تنقلب فيها الآلات على البشر، بل وتهددهم بالفناء، ولعل هذا التخيل الذي كان بعيدًا في وقت من الأوقاتبات اليوم أكثر احتمالية وقابلية للتصديق، ومن هنا تخيل تحليل نشره موقع (fpif.org)، سيناريو لحرب كارثية من شأنها أن تنهي البشرية.
ولعل مسارعة القوى العسكرية الكبرى إلى إنشاء أنظمة آلية لصنع القرار في ساحة المعركة، أو ما يمكن تسميته «جنرالات الروبوتات» يزيدمن احتمالية نشوب تلك الحروب.
حاليًا، وحسب الموقع، تعمل وزارة الدفاع الأمريكية لتطوير الأجهزة والبرامج المطلوبة بطريقة منهجية وسريعة بصورة متزايدة، وقد طلبتالقوات الجوية الأمريكية في ميزانية عام 2023 ما مقداره 231 مليون دولار لتطوير نظام إدارة ساحة المعركة المتقدم، وهي شبكة معقدة منأجهزة الاستشعار وأجهزة الكمبيوتر التي تدعم الذكاء الاصطناعي والمصممة لجمع البيانات وتفسيرها حول عمليات العدو وتوفير الطيارينوالقوات البرية مع قائمة الخيارات المثلى للهجوم، وبفضل التقدم التكنولوجي، سيستطيع النظام إرسال تعليمات «إطلاق النار» مباشرة إلى«الرماة»، متجاوزًا التحكم البشري إلى حد كبير.
تحكم مشترك
اعتمد سلاح الجو الأمريكي نظام (ABMS) لربط جميع القوات القتالية الأمريكية في نظام القيادة والتحكم المشترك لجميع المجالات(JADC2)، الذي سيمكن القادة من اتخاذ قرارات أفضل من خلال جمع البيانات من عدد من أجهزة الاستشعار ومعالجة البياناتباستخدام خوارزميات الذكاء الاصطناعي لتحديد الأهداف ثم التوصية بالسلاح الأمثل.
وكان (JADC2) سيصمم بدايةً لتنسيق العمليات القتالية بين القوات الأمريكية «التقليدية» أو غير النووية، لكن يتوقع في نهاية المطافاستكمال ربط أنظمة التحكم بشكل قد يمنح أجهزة الكمبيوتر سيطرة كبيرة على استخدام الترسانة النووية الأمريكية.
ويتساءل كثيرون ماذا لو أمر نظام (JADC2) بقصف مكثف لقواعد وأنظمة القيادة العسكرية في الصين في ظل الصراعات الحالية معها،ولا يستبعدون إن حدث ذلك وجاء الرد متبادلا من الصين نفسها، بشكل يؤدي إلى هجمات متبادلة ضد المنشآت الأمريكية وإشعال فتيلحرب نووية شاملة سواء كانت عرضية أم مقصودة.
سوء التقدير
يلح مسؤولو البنتاغون على أن جنرالات الروبوتات لن تقود أعدادًا كبيرة من القوات الأمريكية (والأسلحة المستقلة) في المعركة إلا بعد وقتطويل جدًا، ومع ذلك هناك مشاريع بهذا الشأن وضعت قيد الاختبار والاتقان، ما يطرح أسئلة كثيرة عن احتمالية مخاطر الأخطاء وسوءالتقدير من الخوارزميات، خصوصًا أنه ليس هناك حاليًا تدابير تمنع وقوع كارثة في المستقبل على خلفية سوء التقدير.
ـ مخاوف جدية من تطور الذكاء الاصطناعي.
ـ مخاطر من استخدام الذكاء الاصطناعي في الجانب العسكري.
ـ المخاطر تتناول جوانب الأمن والمعلومات.
ـ الآلات لا تقدر العواقب مثلما يقدرها البشر.
ـ أخطاء الخوارزميات يمكنها أن تطلق الحروب.
ـ خطأ تقني قد يفجر حربًا نووية عرضية.
ـ ليس هناك تدابير تمنع وقوع كارثة نتيجة سوء التقدير.