دعت الإدارة الأمريكية رؤساء كلّ من “قوقل” و”مايكروسوفت” و”أوبن إيه آي” و”أنثروبيك” إلى اجتماع يعقد في البيت الأبيض الخميس لبحث المخاطر المتعلّقة بالذكاء الاصطناعي، في وقت لا يزال فيه تنظيم هذه التكنولوجيا البالغة الأهمية يقع على عاتق الشركات نفسها. وجاء في نصّ الدعوة “هدفنا هو إجراء مناقشة صريحة حول المخاطر الحالية والقصيرة المدى التي نتوقّعها في تطوّرات الذكاء الاصطناعي”.

كما تريد الإدارة أن يتمّ خلال هذا الاجتماع البحث في “خطوات من شأنها تقليل تلك المخاطر، وطرق أخرى يمكننا من خلالها العمل معاً للتأكّد من استفادة الشعب الأمريكي من التقدّم في مجال الذكاء الاصطناعي وحمايته في الوقت نفسه من المخاطر”.

مخاوف كبيرة



وبحسب الرئاسة الأمريكية فإنّ كلاً من ساتيا ناديلا (مايكروسوفت) وسوندار بيتشاي (قوقل) وسام ألتمان (أوبن إيه آي) وداريو أمودي (أنثروبيك) أكّدوا مشاركتهم في الاجتماع. وسيشارك في الاجتماع عدد من أركان الإدارة، في مقدّمهم نائبة الرئيس كامالا هاريس. ويثير الذكاء الاصطناعي مخاوف كبيرة في شأن استخدامه البيانات الشخصية واستغلالها. وسبق لدول كثيرة أن أبدت رغبتها في وضع قواعد لاستخدام الأدوات المشابهة لـ”GPT-CHAT”.

و”GPT-CHAT” التي أطلقتها شركة “أوبن إيه آي” في نوفمبر الفائت، أبهرت المستخدمين بقدرتها على الإجابة بوضوح ودقّة على أسئلة صعبة، لا سيّما كتابة أغان أو شيفرات برمجية، وحتى النجاح في امتحانات. وبعد فترة قصيرة على إطلاقه، حُظر برنامج “تشات جي بي تي” في مدارس وجامعات عدة حول العالم، بسبب مخاوف تتعلق باستخدامه كأداة للغش في الامتحانات، فيما نصحت مجموعة من الشركات موظفيها بعدم استخدامه.

ما هي مخاطر الذكاء الاصطناعي؟

أكثر ذكاءً منا

يمكن لأدمغتنا البشرية حل المعادلات وقيادة السيارات بفضل موهبة تنظيم المعلومات وتخزينها واستنباط الحلول للمشاكل الشائكة. ما يقرب من 86 مليار خلية عصبية في جماجمنا، إضافة إلى الخلايا العصبية، تجعل ذلك ممكنًا. على النقيض من ذلك، فإن التكنولوجيا الكامنة وراء برنامج الذكاء الاصطناعي ”GPT-CHAT” تتميز بما بين 500 مليار وتريليون خلية اتصال، ما يضعها بمكان متقدم جدًا مقارنة بالإنسان. وبالتالي، فإن نماذج الذكاء الاصطناعي باتت تعرف أكثر بمئات المرات من الإنسان، ولديها قدرة كبيرة وسريعة على التعلم.

نشر المعلومات المضللة

أحد الاحتمالات المقلقة لاستخدامات هذه البرمجيات هو أن بعض الجماعات قد تستغلها لتحقيق غاياتها الخاصة. وبالتالي، يمكن أن تكون المعلومات المضللة المتعلقة بالانتخابات التي تنتشر عبر روبوتات الدردشة التي تعمل بالذكاء الاصطناعي هي النسخة المستقبلية من المعلومات المضللة.

التأثير على اليد العاملة البشرية

تقدّر شركة “أوبن أي آي” المؤسسة لـ ”GPT-CHAT” بأن 80% من العمال في الولايات المتحدة قد يخسرون وظائفهم بسبب البرامج الجديدة. وبالتالي قد يكون للذكاء الاصطناعي تهديدات كبيرة على الإنسان من حيث زيادة نسب البطالة في الكثير من الدول.

كيف نوقفه؟

ما هو غير واضح هو كيف يمكن لأي شخص أن يمنع قوة من استخدام تكنولوجيا الذكاء الاصطناعي للسيطرة على جيرانها أو مواطنيها. من هنا، يرى بعض المراقبين أنه من الضروري وضع اتفاقية عالمية مماثلة لاتفاقية الأسلحة الكيميائية لعام 1997، قد تكون خطوة أولى جيدة نحو وضع قواعد دولية ضد الذكاء الاصطناعي المُسلح.