كشف تقرير حديث عن الخطوات المناسبة لضمان انتخابات أكثر سلاسة من خلال الاستخدام المناسب للذكاء الاصطناعي مع التحوط من المخاطر التي قد تجلبها هذه التكنولوجيا الجديدة.

وأنه يجب على مسؤولي الانتخابات في الولاية أن يتطلعوا إلى قيادة المناقشات الحالية حول نشر الذكاء الاصطناعي والإشراف عليه. نظرًا لأن انتشار تكنولوجيا الذكاء الاصطناعي يخلق تحديات ومخاطر جديدة لإدارة الانتخابات.

فوائد ومخاطر


ففي الفترة التي تسبق الانتخابات الرئاسية الأمريكية لعام 2024، يتصارع مسؤولو الانتخابات في الولاية مع فوائد ومخاطر الذكاء الاصطناعي.

ويتعين على مسؤولي الانتخابات أن يواجهوا هذه التحديات الجديدة في بيئة تنظيمية وسياسية تفتقر إلى الاتساق ووسط تكنولوجيات، مثل الذكاء الاصطناعي التوليدي، التي يجري إساءة استخدامها بالفعل في السياقات الانتخابية.

وللدفاع عن الانتخابات من مخاطر الذكاء الاصطناعي الآن وفي الفترة التي تسبق الانتخابات العامة في نوفمبر، ينبغي لمسؤولي الانتخابات في الولاية البحث عن طرق لقيادة المناقشات الحالية حول نشر الذكاء الاصطناعي والإشراف عليه. متابعة الهدف

يقول التقرير الذي أعده مركز brookings البحثي بإنه يجب على مسؤولي الانتخابات متابعة هذا الهدف من خلال حوارات مفتوحة مع أصحاب المصلحة حول الاستخدام الآمن والشفاف لأدوات الذكاء الاصطناعي كجزء من تنفيذ الانتخابات ومن خلال صياغة وسائل حماية صريحة ضد إساءة الاستخدام الخارجية المحتملة والمرصودة بالفعل للذكاء الاصطناعي في الانتخابات.

ويقترح المؤلفون ثمانية من أفضل الممارسات لمسؤولي الانتخابات في الولاية، والتي، على الرغم من عدم وجود بديل للحل القانوني الفيدرالي الشامل، إلا أنها ستضع مجموعة واسعة من أصحاب المصلحة في حالة تأهب.



عرض التفاصيل

تتركز أولى الخطوات وفقا للتقرير على أنه يحق للناخبين أن يعرفوا متى يتم استخدام الذكاء الاصطناعي في مكاتبهم الانتخابية، وما هي المخاطر المحتملة، وما هي الإستراتيجيات الموجودة للتخفيف عندما يفشل الذكاء الاصطناعي. ويجب على مسؤولي الانتخابات مشاركة هذا المحتوى التعليمي من خلال مجموعة متنوعة من المنصات التي تروق لدوائر انتخابية متنوعة. على سبيل المثال، قد يشمل ذلك استخدام منصات التواصل الاجتماعي مثل TikTok وInstagram لجذب الناخبين الشباب، الذين يستهلك 42 % و44 % منهم أخبارهم بانتظام من هذه المنصات. ولا يستخدم مسؤولو الانتخابات هذه المنصات حتى الآن بهذه الطريقة:

كما وجد باحثون من مجلس أبحاث العلوم الاجتماعية (SSRC) أنه خلال الانتخابات العامة لعام 2020، كان لدى 2 % فقط من المقاطعات Instagram أو TikTok، و9 % فقط كان لديها حسابات على Twitter.

قد يكون من الأفضل الوصول إلى التركيبة السكانية، كما يجب أن يشارك الموظفون المدربون في جميع مراحل القرارات الانتخابية المتخذة بمشاركة أنظمة الذكاء الاصطناعي. خاصة وأن الذكاء الاصطناعي يلتقط التحيزات البشرية الموجودة مسبقًا، فإن الإشراف على حماية أصوات الفئات المحرومة تاريخيًا وغيرها من الفئات الأكثر ضعفًا يعد أمرًا أساسيًا.

التصرف بحذر

يرى التقرير أنه يجب على مسؤولي الانتخابات التصرف بحذر عند اختيار أدوات الذكاء الاصطناعي التي سيتم استخدامها. نظرًا لأن نماذج الذكاء الاصطناعي يتم تطويرها باستخدام بيانات تدريب خارجية قد تتضمن تحيزات محتملة، فيجب على مسؤولي الانتخابات مطالبة البائعين بالكشف عن البيانات المستخدمة لتصميم منتجاتهم. ويجب على مسؤولي الانتخابات بالولاية تنفيذ بروتوكول راسخ للتعليقات والمراجعة لأي أدوات ذكاء اصطناعي يتم استخدامها كجزء من عملياتهم. و في حين أن استخدام الذكاء الاصطناعي يمكن أن يكون مفيدًا لمكاتب الانتخابات، يجب على مسؤولي الدولة النظر في الاحتياجات الواقعية لتوظيف موظفين جدد مدربين على الذكاء الاصطناعي، وما هو التدريب و (الدورات) الإضافية التي قد تكون ضرورية لضمان حصول الموظفين الحاليين على تعليم كافٍ حول هذه التكنولوجيا.

كما إن جمع البيانات والأبحاث الحالية حول التدخل في الانتخابات، وحرمان الناخبين من حقوقهم، وغيرها من الطرق التاريخية التي تم بها تخريب الانتخابات المحلية والدولية، سيكون أمرًا بالغ الأهمية لمستقبل الديمقراطية.

يجب على مسؤولي الانتخابات في الولاية المدربين على الذكاء الاصطناعي والانتخابات أن يتعاونوا أيضًا مع الشركاء المحليين والفدراليين.

حماية ووقاية

ولاستباق الأزمات التي يولدها الذكاء الاصطناعي، يجب على مسؤولي الانتخابات في الولاية أيضًا إجراء عمليات محاكاة على الطاولة لاستخلاص السيناريوهات المحتملة في الفترة التي تسبق الانتخابات.

وأخيرا يجب التركيز على أنه في حين أن الذكاء الاصطناعي يمكنه تقصير فترات استجابة الموظفين وتقليل الوقت الذي يقضيه الموظفون في الإجابة على الاستفسارات، يمكن لروبوتات الدردشة أيضًا تقديم معلومات مضللة ضارة.



8 خطوات لانتخابات عبر الذكاء الاصطناعي:

- الحوار مع الناخبين والجمهور حول التحديات المحتملة للذكاء الاصطناعي مقدمًا لتقديم الفوائد وتخفيف المخاطر.

- التأكد من أن الجميع على اطلاع دائم عندما يتعلق الأمر بالمحتوى والأدوات التي ينشئها الذكاء الاصطناعي والمتعلقة بالمسائل الانتخابية.

- تقييم أدوات الذكاء الاصطناعي بشكل مستمر طوال فترة تطويرها، بدءًا من تصميمها ووصولاً إلى التكامل والتشغيل في العمليات الانتخابية، وإجراء فحص دقيق على شراء أي منتج/خدمة يعتمد على الذكاء الاصطناعي.

- تطوير عملية مراجعة وتعليقات لأدوات الذكاء الاصطناعي والحملات الإعلامية التي يتم تحديثها بانتظام ونشرها على الناخبين وأصحاب المصلحة الآخرين.

- تدريب الموظفين على استخدام الذكاء الاصطناعي بمسؤولية.

- السعي للتعاون من مجموعة واسعة من أصحاب المصلحة في تطوير مناهج الذكاء الاصطناعي.

- اختبار مخاطر الذكاء الاصطناعي المحتملة والتخفيف منها قبل إطلاق أدوات وخدمات الذكاء الاصطناعي، وعندما تظهر المشكلات، تراجع لفحص المشكلات.

- تطبيق رقابة مركزة على الذكاء الاصطناعي التوليدي، وخاصة روبوتات الدردشة المستندة إلى الذكاء الاصطناعي المتعلقة بالانتخابات، والتي يمكن أن تعمل على تثبيط الناخبين، وفي بعض الحالات، حرمانهم من حقهم في التصويت.