تزداد المخاوف من تقنية «التزييف العميق الخبيث»، كلما أوغلت تقنيات الذكاء الاصطناعي في التقدم وفتحها لأبواب كثيرة وجديدة قد يساء استخدامها.

وانتشرت تحذيرات كثيرة من أن تستغل المجموعات العصابية هذه التقنية كسلاح وأداة خطيرة لتهديد الآخرين وتنفيذ وتمرير عملياتها الإجرامية.

وتقنية التزييف العميق الخبيث تتعامل مع وسائط الصوت أو الفيديو أو أي محتوى رقمي آخر بطرق يصعب تمييزها عن الواقع، وتتلاعب بها وتزيفها، وهو ما قد يؤدي إلى مخاطر جسيمة، بما في ذلك انتحال الهوية والتلاعب غير المصرح به ونشر المعلومات المضللة.


وجاءت تقنيات الذكاء الاصطناعي، لتشكل إضافة مهمة في مجال جمع البيانات واستخدامها للتنبؤ أو التوصية أو اتخاذ القرار بمستويات متفاوتة من التحكم الذاتي، واختيار أفضل إجراء لتحقيق أهداف محددة، حتى باتت تلك التقنيات من المقومات الوطنية التي تتسابق إلى استخدامها كثير من الدول المتقدمة، للاستفادة منها في بناء اقتصادات متينة تعتمد على البيانات والتقنيات الحديثة.

وتأتي السعودية لتكون في مقدمة الدول السباقة إلى استخدام تقنيات البيانات والذكاء الاصطناعي لتحقيق مستهدفات رؤية 2030، من ذلك إنشاء الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) لتعزز مكانة المملكة ضمن أفضل الدول الرائدة في الاقتصادات المستدامة المعتمدة على البيانات والذكاء الاصطناعي.

اهتمام خاص

التنبؤات المستقبلية لتقنيات البيانات والذكاء الاصطناعي جعلت المملكة تولي هذه التقنية اهتمامًا خاصة، لا سيما وأن تلك التنبؤات تتوقع أن يكون حجم المساهمة المتوقعة للذكاء الاصطناعي في الناتج المحلي الإجمالي العالمي يقدر بنحو 58.8 تريليون ريال سعودي بحلول عام 2030، فضلا عن توفير التقنية لـ97 مليون وظيفة ستتولد بسبب الذكاء الصناعي، كما أنه يعول على هذه التقنية المساهمة في أتمتة 69% من الأعمال الروتينية التي يؤديها المدراء والقياديون.

محط أنظار

كل هذا جعل تقنية الذكاء الاصطناعي محط أنظار كثير من الدول والمنظمات، خصوصًا وأن التقنية تتغلغل في عدد من المجالات، ومن ذلك تعلم الآلة ومعالجة اللغة الطبيعية والحساب ومعالجة الكلان والروبوتات، حيث أظهر توظيف هذه التقنية في هذه المجالات القدرة على معالجة البيانات، وفهم الأنماط والعلاقات، ودقة الاستنتاجات، وجودة اتخاذ القرارات في مهام محددة، كما أسهمت تقنيات تعلم الآلة في إحداث نقلة نوعية في قدرات تحليل البيانات.

الصورة السلبية

مع أن تقنية الذكاء الاصطناعي تبدو في أجمل صورها، لا سيما وقد تولدت عنها تقنيات التزييف العميق، التي تقدم فوائد محتملة في مجالات عدة، منها التسويق، والترفيه، وتجارة التجزئة، والتعليم، والرعاية الصحية، والتطبيقات الثقافية، إلا أنه سرعان ما قابلتها تقنية «التزييف العميق الخبيث»، التي يمكن لها أن تتعامل مع وسائط الصوت أو الفيديو أو أي محتوى رقمي آخر بطرق يصعب تمييزها عن الواقع، وهو ما قد يؤدي إلى مخاطر جسيمة، بما في ذلك انتحال الهوية والتلاعب غير المصرح به ونشر المعلومات المضللة.

التزييف العميق الخبيث

على الرغم من عدم وجود تعريف دقيق يحيط بمجمل تقنية التزييف العميق الخبيثة، إلا أن التعريف الأكثر تداولًا لها يشير إلى أن تقنية التزييف العميق هي عملية تقوم على تجميع ملفات صوت وصورة للأشخاص - بالاعتماد على تقنية الذكاء الاصطناعي - من أجل إنشاء فيديوهات مزيفة تبدو حقيقية للغاية، بل أحيانًا من المستحيل التمييز بين ما هو حقيقي وغير حقيقي فيها، حيث تعتمد على استبدال وجه شخص مكان شخص آخر ثم مزامنة حركة الشفاه مع ما تنطق به تلك الشخصية، لتتشكل في النهاية صورة طبق الأصل من الواقع، بل أحيانًا يمكن خلق شخصيات خيالية وجعلها تبدو كأناسٍ حقيقيين لهم صورة وهيئة وصوت.

أين تكمن المشكلة

تكمن مشكلة التقنية في الأثر، أو الدور، الذي تلعبه تقنية «التزييف العميق الخبيث» في تطوير حملات التضليل ودعم الأخبار الزائفة للتلاعب بالجمهور والتأثير على الرأي العام وتزييف الحقائق بصورة شاملة، حتى بات يهدد السياسيين والكيانات والشركات والأفراد، فمن استغلال الجهات المهاجمة لتقنيات التزييف الخبيث في إنشاء صور صريحة للمضايقة والابتزاز، إلى استخدام المحتالين الصوت المزيف العميق لتقليد الأصوات الموثوقة لخداع الضحايا لتحويل الأموال، إلى توظيف الأصوات المستنسخة للوصول إلى المعلومات المصرفية وتفويض العمليات والأوامر المصرفية، وكذلك تغيير المقابلات والمؤتمرات للسياسيين لتشويه سمعتهم ومن ثم التأثير على موقف الشعوب ضدهم بما يسهم في تشكيل رأي عام معين، أو بمحاكاة الاتصالات التي يجريها المدراء التنفيذيون لسرقة معلومات الشركة الحساسة.

كيفية الوقاية

على الرغم من استخدام هذه التقنية في مجالات الرعاية الصحية والتمويل والتعليم والترفيه والنقل، وفقًا لضوابط أخلاقية وقانونية، منها المعايير الأخلاقية والموضوعية، وحماية البيانات الشخصية، والاستجابة للقيم الاجتماعية والسياسية والوطنية، إلا أن ذلك لا يعفي المتلقي والمشاهد من اتخاذ عدد من التدابير والاحتياطات اللازمة حتى لا يكون ضحية للاحتيال والتضليل، من خلال 3 خطوات، هي:

أولاـ تقييم الرسالة:

بالتحقق من المصدر ومصداقيته، مثل جهات حكومية أو أفراد معروفين، والتحقق من المعلومات مع المواقع الرسمية أو الاتصال بالمصدر مباشرة للتأكد من صحة المحتوى.

ثانيا: تحليل العناصر السمعية والبصرية:

عن طريق مراقبة تعبيرات الوجه غير الطبيعية أو المحرجة، خاصة حول الفم والعينين والحاجبين، وكذلك التدقيق في تناقضات الإضاءة وتغيرات لون الجلد، ومزامنة حركة الشفاه.

إلى جانب ذلك، يمكن اكتشاف التزييف العميق من خلال استخدام أدوات الذكاء الاصطناعي المصَّممة لتحليل المحتوى بحثًا عن مؤشرات التلاعب، إذ يمكن لهذه الأدوات التدقيق في عناصر مختلفة من الوسائط لتحديد التناقضات التي قد تشير إلى استخدام تقنية، ولذلك يوصى باستخدام عدد من الأدوات منها تحليل البيكسل، وتناقضات الحركة، والمزامنة السمعية والبصرية، إلى غير ذلك من الأدوات الأخرى التي تسهم في اكتشاف التزييف العميق.

ثالثاـ ماذا يفعل الضحايا:

يمكن لمن وقع ضحية لهذه التقنية اتخاذ مواقف حاسمة لحماية سمعته، ومن ذلك توثيق الأدلة، وذلك من خلال حفظ نسخ من محتوى التزييف العميق على الفور، بما في ذلك الروابط ولقطات الشاشة والبيانات الوصفية، وُينصح بإنشاء ملف شامل يتضمن جميع الأدلة ذات الصلة، مثل التواريخ، والأوقات، والمنصات، التي تم فيها نشر حالات التزييف العميق، وسيكون هذا التوثيق الشامل حاسمًا للإجراءات عند إبلاغ السلطات، إضافة إلى إبلاغ المنصة التي كانت محلًا لتلك التقنية الخبيثة سواءً فيسبوك أو إكس، كما يتعين إبلاغ السلطات المحلية لضمان اتخاذ مزيد من الإجراءات، ويمكن القيام بذلك عن طريق تقديم المحتوى الضار إلى سلطات إنفاذ النظام، ولا يمنع ذلك من طلب المشورة القانونية من قبل محام مختص في مجال الحقوق الرقمية وقوانين حماية البيانات، وتزويده بكل الحجج النظامية ذات الصلة.

«التزييف العميق - Deep Fake»

ـ تقنية يمكن من خلالها عمل مقاطع فيديو وصوت مزيفة لأشخاص يصعب إن لم يكن من المستحيل كشفها بالنسبة للأشخاص العاديين.

ـ تقنية تعالج صور الأشخاص وتحولها إلى مقاطع فيديو لتحول هؤلاء الأفراد إلى مشاركين في أفعال لم يساهموا في ارتكابها.

ـ عملية جمع ملفات الصوت والفيديو بواسطة الذكاء الاصطناعي أو التعلم الآلي بشكل دقيق.

ـ يمكن من خلالها تبديل الوجوه ومزامنة تحريك الشفاه أو استنساخ الصوت.

ـ تمكن من إنشاء وجوه وأجساد اصطناعية بالكامل.

مخاطر هذه التقنية

ـ تهديد الأمن المجتمعي عبر نشر أخبار كاذبة ومضللة والتأثير على الرأي العام والسياسة

ـ التهديد السيبراني وتحقيق أرباح كبيرة من خلال فيديوهات مزيفة

ـ التضليل المعلوماتي

ـ التلفيق المتعمد

ـ تشويه الحقائق

ـ التأثير على السمعة

ـ ابتزاز الأفراد والمجموعات

إجراءات للتعامل مع التزييف العميق

ـ تشريع قوانين وأنظمة تجرم التزييف العميق الخبيث وتمنع الإفلات من العقاب.

ـ زيادة الاستثمار في الأمن السيبراني لحماية البيانات والأنظمة الحيوية من هجمات تستخدم التزييف العميق الخبيث.

ـ تعزيز التعاون الدولي لمواجهة هذه التقنية بحيث تتبادل الدول والمنظمات الدولية المعلومات والخبرات وتطور إستراتيجيات مشتركة.

ـ تطوير أدوات تحقق أوتوماتيكية وذكية للكشف عن هذه التقنية، ويمكن أن تستخدم التقنيات الذكية والذكاء الاصطناعي لتحليل الصوت والصورة واكتشاف أي تغييرات غير طبيعية.