وإدراكًا لهذا، يقوم فريق من الباحثين من جامعة كامبريدج بدور رائد في طرق دمج هذا الشعور الإنساني المتمثل بعدم اليقين في برامج الذكاء الاصطناعي، وتعمل عدد من أنظمة الذكاء الاصطناعي، وخاصة تلك التي تتلقى تعليقات من البشر، على افتراض أن البشر دائمًا دقيقون ومتأكدون في قراراتهم، ومع ذلك، فإن قرارات الحياة الواقعية غالبًا ما تكون مليئة بالأخطاء والشكوك.
ويستكشف الباحثون الآن طرقًا للتوفيق بين السلوك البشري والتعلم الآلي، ويهدف عملهم إلى تعزيز الجدارة بالثقة، وتقليل المخاطر في واجهات الذكاء الاصطناعي والإنسان، وخاصة في المجالات عالية المخاطر مثل التشخيص الطبي.
تعديل البيانات الثابتة
من خلال تعديل مجموعة بيانات ثابتة لتصنيف الصور، مكّن الباحثون المشاركين من البشر من تحديد مستويات عدم اليقين لديهم أثناء تصنيف الصور.
كشفت النتائج التي توصلوا إليها أنه في حين أن الأنظمة التي تم تدريبها باستخدام هذه التسميات غير المؤكدة تحسنت في التعامل مع ردود الفعل المشكوك فيها، فإن تضمين ردود الفعل البشرية أدى في بعض الأحيان إلى انخفاض أداء أنظمة الذكاء الاصطناعي البشرية.
وتنظر ساحة الذكاء الاصطناعي إلى أنظمة التعلم الآلي «الإنسانية»، التي تسمح بردود الفعل البشرية، كوسيلة للتخفيف من المخاطر في المجالات، حيث قد تكون الأنظمة الآلية وحدها غير كافية، ولكن كيف تتفاعل هذه الأنظمة عندما يعبر المتعاونون معها من البشر عن شكهم؟.
تقول كاثرين كولينز، المؤلفة الأولى للدراسة من قسم الهندسة في كامبريدج «إن عدم اليقين أمر أساسي في كيفية تفكير البشر حول العالم، لكن عددًا من نماذج الذكاء الاصطناعي تفشل في أخذ ذلك في الاعتبار».
وتضيف «يعمل كثير من المطورين على معالجة عدم اليقين في النماذج، ولكن تم بذل قدر أقل من العمل لمعالجة عدم اليقين من وجهة نظر الشخص».
عواقب ضئيلة
في السيناريوهات التي تكون فيها الأخطاء ذات عواقب ضئيلة، مثل الخلط بين شخص غريب وصديق، يكون عدم اليقين البشري غير مهم، ومع ذلك، في التطبيقات الحساسة للسلامة يمكن أن يكون عدم اليقين البشري محفوفًا بالمخاطر.
تقول كولينز «تفترض عدد من أنظمة الذكاء الاصطناعي البشرية أن البشر متأكدون دائمًا من قراراتهم، وهذه ليست الطريقة التي يعمل بها البشر، فجميعنا نرتكب الأخطاء».
وتضيف «أردنا أن ننظر إلى ما يحدث عندما يعبر الناس عن عدم اليقين، وهو أمر مهم بشكل خاص في البيئات الحرجة للسلامة، مثل الطبيب الذي يعمل مع نظام الذكاء الاصطناعي الطبي».
بدوره، يقول المؤلف المشارك في الدراسة، ماثيو باركر، الذي حصل أخيرًا على درجة الماجستير في الهندسة في كلية جونفيل وكايوس «نحن بحاجة إلى أدوات أفضل لإعادة معايرة هذه النماذج، بحيث يتم تمكين الأشخاص الذين يعملون معها من القول عندما يكونون غير متأكدين».
ويكمل «على الرغم من أنه يمكن تدريب الآلات بثقة كاملة، إلا أن البشر لا يستطيعون في كثير من الأحيان توفير ذلك، وتواجه نماذج التعلم الآلي حالة عدم اليقين هذه».
تأثير عدم اليقين
باستخدام مجموعات بيانات مختلفة، بما في ذلك تلك التي تتضمن تمييز المشاركين البشريين لألوان الطيور، اكتشف فريق البحث كيف يؤثر عدم اليقين على النتائج النهائية، وأشاروا إلى أن استبدال قرارات الآلة بقرارات بشرية أدى في كثير من الأحيان إلى انخفاض حاد في الأداء.
يقول باركر «نحن نعلم من عقود من الأبحاث السلوكية أن البشر لا يكونون متأكدين بنسبة 100% تقريبًا، ولكن دمج هذا في التعلم الآلي يمثل تحديًا»، وأضاف «نحن نحاول الربط بين المجالين، حتى يتمكن التعلم الآلي من البدء في التعامل مع عدم اليقين البشري، حيث يكون البشر جزءًا من النظام».
تحديات متعددة
كشفت الأبحاث عن تحديات متعددة في دمج البشر في أنظمة التعلم الآلي، ولدفع المزيد من الاستكشاف يقوم الفريق بإتاحة مجموعات البيانات الخاصة به للجمهور، على أمل أن يتمكن العمل المستقبلي من دمج عدم اليقين البشري بشكل أكثر فعالية في نماذج الذكاء الاصطناعي.
يوضح كولينز «كما قال بعض زملائنا ببراعة، فإن عدم اليقين هو شكل من أشكال الشفافية، وهذا مهم للغاية»، وأضاف «نحن بحاجة إلى معرفة متى يمكننا أن نثق في النموذج، ومتى نثق في الإنسان.. ولماذا، في بعض التطبيقات نحن ننظر إلى الاحتمالية، خاصة مع ظهور برامج الدردشة الآلية على سبيل المثال، نحتاج إلى نماذج تدمج لغة الاحتمال بشكل أفضل، مما قد يؤدي إلى تجربة أكثر طبيعية وآمنة».