حوادث السيارات التي يتم التحكم فيها عن بعد
يتمثل أكبر مصدر للقلق في استخدام الذكاء الاصطناعى للقيام بهجمات جسدية على البشر، مثل اختراق السيارات ذاتية القيادة للتسبب في حوادث اصطدام كبيرة.
وقال التقرير: «إذا تم التحكم في روبوتات متعددة بواسطة نظام AI واحد يتم تشغيله عن طريق خادم مركزي، أو إذا تم التحكم في روبوتات متعددة بواسطة أنظمة AI متطابقة وتم تقديمها بنفس المحفزات، فإن الهجوم الواحد قد ينتج عنه أيضا إخفاقات متزامنة على نطاق غير معقول».
وقال الأستاذ الدكتور بيتر ستون من جامعة تكساس، وهو واحد من فريق قام، مؤخرا، بتطوير خوارزمية جديدة لتحسين طريق التواصل بين البشر والروبوتات، إن تحذيرات التقرير يجب أن تؤخذ على محمل الجد، فإذا قام شخص ما اليوم بتغيير جميع إشارات المرور في المدينة لتكون خضراء في وقت واحد، فإن هناك كارثة ستترتب على ذلك». وأضاف «على سبيل المثال شبكات الكهرباء معظمها مركزية مما يجعلنا عرضة لانقطاع التيار الكهربائي على نطاق واسع».
سرقة الهوية
في المستقبل، يمكن إجراء محاولات الوصول إلى المعلومات الحساسة والشخصية من فرد ما بواسطة منظومة الذكاء الاصطناعي، وقال التقرير: «قد تستخدم هذه الهجمات أنظمة الذكاء الاصطناعي لإكمال بعض المهام»، مضيفا أن سرقة الهوية قد تصبح أكثر دقة وفعالية مع تطور الذكاء الاصطناعي. ويمكن أن تعمل منظومة الذكاء الاصطناعي على التواصل مع جهات الاتصال الحقيقية للأشخاص، وذلك باستخدام أسلوب للكتابة يحاكي أسلوب تلك الاتصالات، مما يجعل من الصعب اكتشاف عملية الاحتيال. وأوضح أستاذ الروبوتات بجامعة «كارنيجي ميلون» ريزا نوربخش أن الذكاء الاصطناعي يتطور بسرعة، ونحتاج لمزيد من الاستجابات السريعة للتعامل مع مخاطره. وأضاف: «الجهات الخبيثة المدعومة بتقنيات الذكاء الاصطناعى ستعثر باستمرار على مسارات جديدة في بياناتنا».
التلاعب بالرأي العام
يمكن أن يكون للأخبار المزيفة ومقاطع الفيديو المزيفة التي تنتجها برامج الروبوتات تأثير كبير على الرأي العام، مما يؤدي إلى تعطيل جميع طبقات المجتمع، من السياسة إلى وسائل الإعلام. وكان استخدام برامج التواصل الاجتماعي التي تنشر الأخبار المزيفة حقيقة واقعة خلال حملة الانتخابات الرئاسية الأميركية لعام 2016.
ويزعم التقرير أن برامج الروبوت المدربة تدريبا جيدا يمكنها أن تخلق ميزة استراتيجية للأحزاب السياسية، وتعمل كآلات دعاية ذكية بشكل مصطنع تزدهر في المجتمعات منخفضة الثقة.
وأكد التقرير: بعيدا عن النص المزيف يمكن لأنظمة الذكاء الاصطناعي الآن أن تنتج صورا اصطناعية يتعذر تمييزها تقريبا عن الصور الحقيقية، في حين كانت الصور التي أنتجتها منذ سنوات قليلة فقط بدائية وغير واقعية».
توصيات مهمة لتخفيف مخاطر الذكاء الاصطناعي
يحتاج صانعو السياسات والتقنيون للعمل معا الآن لفهم الاستخدام الضار لمنظومة الذكاء الاصطناعي
والتحضير له
ينبغي أن يكون الباحثون والمهندسون على دراية واستباقية باحتمال إساءة استخدامها
تعلم أفضل الممارسات من التخصصات التي لها تاريخ أطول في التعامل مع المخاطر ذات الاستخدام المزدوج، مثل أمان الكمبيوتر
توسيع نطاق أصحاب المصلحة المشاركين في منع وتخفيف مخاطر الاستخدام الضار للذكاء الاصطناعي