كشف تحقيق حديث عن اتجاه مقلق يتمثل في قيام برامج الدردشة الآلية المدعومة بالذكاء الاصطناعي بنشر معلومات كاذبة ومضللة بشأن انتخابات عام 2024. وقد جاء هذا الكشف نتيجة دراسة مشتركة أجرتها مشاريع ديمقراطية الذكاء الاصطناعي ومؤسسة بروف نيوز الإعلامية غير الربحية. وتؤكد النتائج على الحاجة المُلحة إلى رقابة تنظيمية، في ظل استمرار الذكاء الاصطناعي في لعب دور محوري في الخطاب السياسي.
المعلومات المضللة في وقت حرج
تشير الدراسة إلى أن هذه المعلومات غير الدقيقة التي تولدها تقنيات الذكاء الاصطناعي تظهر خلال الفترة الحاسمة للانتخاباتdentالرئاسية في الولايات المتحدة. ومع تزايد اعتماد الناس على الذكاء الاصطناعي للحصول على معلومات متعلقة بالانتخابات، يُثير انتشار البيانات الخاطئة قلقًا بالغًا. وقد اختبر البحث نماذج ذكاء اصطناعي متنوعة، من بينها ChatGPT-4 من OpenAI، وLlama 2 من Meta، وClaude من Anthropic، وGemini من Google، وMixtral من شركة Mistral الفرنسية. ووجد أن هذه المنصات تُزوّد الناخبين بمعلومات خاطئة حول مواقع مراكز الاقتراع، وطرق التصويت غير القانونية، ومواعيد التسجيل غير الصحيحة، بالإضافة إلى معلومات مضللة أخرى.
من الأمثلة المقلقة التي ذُكرت ادعاء لاما 2 بأن بإمكان ناخبي كاليفورنيا الإدلاء بأصواتهم عبر الرسائل النصية، وهي طريقة غير قانونية في الولايات المتحدة. علاوة على ذلك، لمdentأي من نماذج الذكاء الاصطناعي التي تم اختبارها بشكل صحيح حظر ارتداء الملابس التي تحمل شعارات الحملات الانتخابية، مثل قبعات "لنجعل أمريكا عظيمة مجدداً"، في مراكز الاقتراع في تكساس. إن هذا الانتشار الواسع للمعلومات المضللة من شأنه أن يُضلل الناخبين ويُقوّض العملية الانتخابية.
استجابة الصناعة وقلق الجمهور
أثار انتشار المعلومات المضللة عبر الذكاء الاصطناعي ردود فعل من قطاع التكنولوجيا والجمهور على حد سواء. وقد أقرت بعض شركات التكنولوجيا بالأخطاء والتزمت بتصحيحها. فعلى سبيل المثال، تخطط شركة أنثروبيك لإصدار نسخة محدثة من أداة الذكاء الاصطناعي الخاصة بها تتضمن معلومات دقيقة عن الانتخابات. كما أعربت شركة أوبن إيه آي عن نيتها مواصلة تحسين منهجها بناءً على تطور استخدام أدواتها. إلا أن رد شركة ميتا، الذي رفض النتائج ووصفها بأنها "لا معنى لها"، أثار جدلاً واسعاً، وطرح تساؤلات حول مدى التزام قطاع التكنولوجيا بكبح جماح المعلومات المضللة.
يتزايد القلق العام أيضاً. فقد كشف استطلاع رأي أجراه مركز أسوشيتد برس-نورك لأبحاث الشؤون العامة وكلية هاريس للسياسات العامة بجامعة شيكاغو عن مخاوف واسعة النطاق من أن تُسهم أدوات الذكاء الاصطناعي في نشر معلومات كاذبة ومضللة خلال عام الانتخابات. ويتفاقم هذا القلق بسببdentوقعت مؤخراً، مثل قيام نظام الذكاء الاصطناعي "جيميني" التابع لشركة جوجل بتوليد صور غير دقيقة تاريخياً وتفتقر إلى الحساسية العرقية.
الدعوة إلى التنظيم والمسؤولية
تؤكد نتائج الدراسة على الحاجة المُلحة إلى اتخاذ إجراءات تشريعية لتنظيم استخدام الذكاء الاصطناعي في السياقات السياسية. ففي الوقت الراهن، يُترك لشركات التكنولوجيا حرية التنظيم الذاتي في ظل غياب قوانين محددة تُنظم استخدام الذكاء الاصطناعي في السياسة، وهو ما أدى إلى ثغرات كبيرة في دقة المعلومات. وقبل نحو أسبوعين من نشر الدراسة، وافقت شركات التكنولوجيا طواعيةً على اتخاذ تدابير وقائية لمنع أدواتها من توليد محتوى واقعي يُضلل الناخبين بشأن إجراءات التصويت القانونية. إلا أن الأخطاء والمعلومات المغلوطة الأخيرة تُشكك في فعالية هذه التدابير الطوعية.
مع استمرار اندماج الذكاء الاصطناعي في جميع جوانب الحياة اليومية، بما في ذلك المجال السياسي، تتزايد الحاجة إلى لوائح شاملة وقابلة للتنفيذ. ينبغي أن تهدف هذه اللوائح إلى ضمان دقة المحتوى المُولّد بواسطة الذكاء الاصطناعي، لا سيما فيما يتعلق بالعمليات الديمقراطية الحاسمة كالانتخابات. ولن يتسنى استعادة ثقة الجمهور في الذكاء الاصطناعي كمصدر للمعلومات والحفاظ عليها إلا من خلال الجمع بين مساءلة القطاع والرقابة التنظيمية.
تُعدّ الدراسة الحديثة حول روبوتات الدردشة المدعومة بالذكاء الاصطناعي التي تنشر الأكاذيب الانتخابية بمثابة جرس إنذار للمخاطر المحتملة للذكاء الاصطناعي غير الخاضع للرقابة في المجال السياسي. وبينما تسعى شركات التكنولوجيا جاهدةً لمعالجة هذه المشكلات، لا يُمكن التقليل من أهمية دور الرقابة الحكومية. فضمان نزاهة المعلومات المتعلقة بالانتخابات أمرٌ بالغ الأهمية للحفاظ على القيم والعمليات الديمقراطية.

