Your bank is using your money. You’re getting the scraps.WATCH FREE

كشفت دراسة أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي تنشر معلومات مضللة حول الانتخابات

في هذا المنشور:

  • كشفت دراسة أن برامج الدردشة الآلية التي تعمل بالذكاء الاصطناعي تنشر معلومات مضللة حول انتخابات عام 2024، مما يستدعي فرض رقابة تنظيمية.
  • تلتزم شركات التكنولوجيا بتصحيح المعلومات المضللة حول الذكاء الاصطناعي وسط مخاوف عامة وتدقيق من قبل القطاع.
  • دعوات عاجلة لوضع قوانين تنظيمية في ظل تهديد عدم دقة الذكاء الاصطناعي لنزاهة الانتخابات وثقة الجمهور.

كشف تحقيق حديث عن اتجاه مقلق يتمثل في قيام برامج الدردشة الآلية المدعومة بالذكاء الاصطناعي بنشر معلومات كاذبة ومضللة بشأن انتخابات عام 2024. وقد جاء هذا الكشف نتيجة دراسة مشتركة أجرتها مشاريع ديمقراطية الذكاء الاصطناعي ومؤسسة بروف نيوز الإعلامية غير الربحية. وتؤكد النتائج على الحاجة المُلحة إلى رقابة تنظيمية، في ظل استمرار الذكاء الاصطناعي في لعب دور محوري في الخطاب السياسي.

المعلومات المضللة في وقت حرج

تشير الدراسة إلى أن هذه المعلومات غير الدقيقة التي تولدها تقنيات الذكاء الاصطناعي تظهر خلال الفترة الحاسمة للانتخاباتdentالرئاسية في الولايات المتحدة. ومع تزايد اعتماد الناس على الذكاء الاصطناعي للحصول على معلومات متعلقة بالانتخابات، يُثير انتشار البيانات الخاطئة قلقًا بالغًا. وقد اختبر البحث نماذج ذكاء اصطناعي متنوعة، من بينها ChatGPT-4 من OpenAI، وLlama 2 من Meta، وClaude من Anthropic، وGemini من Google، وMixtral من شركة Mistral الفرنسية. ووجد أن هذه المنصات تُزوّد ​​الناخبين بمعلومات خاطئة حول مواقع مراكز الاقتراع، وطرق التصويت غير القانونية، ومواعيد التسجيل غير الصحيحة، بالإضافة إلى معلومات مضللة أخرى.

من الأمثلة المقلقة التي ذُكرت ادعاء لاما 2 بأن بإمكان ناخبي كاليفورنيا الإدلاء بأصواتهم عبر الرسائل النصية، وهي طريقة غير قانونية في الولايات المتحدة. علاوة على ذلك، لمdentأي من نماذج الذكاء الاصطناعي التي تم اختبارها بشكل صحيح حظر ارتداء الملابس التي تحمل شعارات الحملات الانتخابية، مثل قبعات "لنجعل أمريكا عظيمة مجدداً"، في مراكز الاقتراع في تكساس. إن هذا الانتشار الواسع للمعلومات المضللة من شأنه أن يُضلل الناخبين ويُقوّض العملية الانتخابية.

انظر أيضًا إلى  الأرقام الرئيسية لعام 2023

استجابة الصناعة وقلق الجمهور

أثار انتشار المعلومات المضللة عبر الذكاء الاصطناعي ردود فعل من قطاع التكنولوجيا والجمهور على حد سواء. وقد أقرت بعض شركات التكنولوجيا بالأخطاء والتزمت بتصحيحها. فعلى سبيل المثال، تخطط شركة أنثروبيك لإصدار نسخة محدثة من أداة الذكاء الاصطناعي الخاصة بها تتضمن معلومات دقيقة عن الانتخابات. كما أعربت شركة أوبن إيه آي عن نيتها مواصلة تحسين منهجها بناءً على تطور استخدام أدواتها. إلا أن رد شركة ميتا، الذي رفض النتائج ووصفها بأنها "لا معنى لها"، أثار جدلاً واسعاً، وطرح تساؤلات حول مدى التزام قطاع التكنولوجيا بكبح جماح المعلومات المضللة.

يتزايد القلق العام أيضاً. فقد كشف استطلاع رأي أجراه مركز أسوشيتد برس-نورك لأبحاث الشؤون العامة وكلية هاريس للسياسات العامة بجامعة شيكاغو عن مخاوف واسعة النطاق من أن تُسهم أدوات الذكاء الاصطناعي في نشر معلومات كاذبة ومضللة خلال عام الانتخابات. ويتفاقم هذا القلق بسببdentوقعت مؤخراً، مثل قيام نظام الذكاء الاصطناعي "جيميني" التابع لشركة جوجل بتوليد صور غير دقيقة تاريخياً وتفتقر إلى الحساسية العرقية.

الدعوة إلى التنظيم والمسؤولية

تؤكد نتائج الدراسة على الحاجة المُلحة إلى اتخاذ إجراءات تشريعية لتنظيم استخدام الذكاء الاصطناعي في السياقات السياسية. ففي الوقت الراهن، يُترك لشركات التكنولوجيا حرية التنظيم الذاتي في ظل غياب قوانين محددة تُنظم استخدام الذكاء الاصطناعي في السياسة، وهو ما أدى إلى ثغرات كبيرة في دقة المعلومات. وقبل نحو أسبوعين من نشر الدراسة، وافقت شركات التكنولوجيا طواعيةً على اتخاذ تدابير وقائية لمنع أدواتها من توليد محتوى واقعي يُضلل الناخبين بشأن إجراءات التصويت القانونية. إلا أن الأخطاء والمعلومات المغلوطة الأخيرة تُشكك في فعالية هذه التدابير الطوعية.

انظر أيضًا:  رئيس تنفيذي لصندوق الذكاء الاصطناعي السعودي يقول إنه يستطيع سحب استثماراته من الصين إذا رغبت الولايات المتحدة بذلك

مع استمرار اندماج الذكاء الاصطناعي في جميع جوانب الحياة اليومية، بما في ذلك المجال السياسي، تتزايد الحاجة إلى لوائح شاملة وقابلة للتنفيذ. ينبغي أن تهدف هذه اللوائح إلى ضمان دقة المحتوى المُولّد بواسطة الذكاء الاصطناعي، لا سيما فيما يتعلق بالعمليات الديمقراطية الحاسمة كالانتخابات. ولن يتسنى استعادة ثقة الجمهور في الذكاء الاصطناعي كمصدر للمعلومات والحفاظ عليها إلا من خلال الجمع بين مساءلة القطاع والرقابة التنظيمية.

تُعدّ الدراسة الحديثة حول روبوتات الدردشة المدعومة بالذكاء الاصطناعي التي تنشر الأكاذيب الانتخابية بمثابة جرس إنذار للمخاطر المحتملة للذكاء الاصطناعي غير الخاضع للرقابة في المجال السياسي. وبينما تسعى شركات التكنولوجيا جاهدةً لمعالجة هذه المشكلات، لا يُمكن التقليل من أهمية دور الرقابة الحكومية. فضمان نزاهة المعلومات المتعلقة بالانتخابات أمرٌ بالغ الأهمية للحفاظ على القيم والعمليات الديمقراطية.

بطاقة العملات الرقمية بدون حدود للإنفاق. احصل على cash ودفعات فورية عبر الهاتف المحمول. احصل على بطاقة Ether.fi الخاصة بك.

رابط المشاركة:

إخلاء مسؤولية: المعلومات المقدمة ليست نصيحة استثمارية. موقع Cryptopolitan أي مسؤولية عن أي استثمارات تتم بناءً على المعلومات الواردة في هذه الصفحة. نوصي tron dent مستقل و/أو استشارة متخصص مؤهل قبل اتخاذ أي قرارات استثمارية.

الأكثر قراءة

جارٍ تحميل المقالات الأكثر قراءة...

ابقَ على اطلاع دائم بآخر أخبار العملات الرقمية، واحصل على تحديثات يومية في بريدك الإلكتروني

اختيار المحرر

جارٍ تحميل مقالات مختارة من قبل المحرر...

- النشرة الإخبارية الخاصة بالعملات الرقمية التي تُبقيك في الصدارة -

تتحرك الأسواق بسرعة.

نتحرك بشكل أسرع.

اشترك في النشرة اليومية Cryptopolitan واحصل على تحليلات دقيقة ومناسبة وفي الوقت المناسب حول العملات المشفرة مباشرة إلى بريدك الوارد.

انضم الآن ولن
تفوتك أي خطوة.

ادخل. احصل على الحقائق.
تقدم للأمام.

اشترك في CryptoPolitan