تستخدم تقنيات الذكاء الاصطناعي للتلاعب بالانتخابات، وقد حذرت منظمة OpenAI من ذلك

- ذكرت شركة OpenAI في أحدث تقاريرها أن برنامج الدردشة الآلي الخاص بها أصبح وسيلة رئيسية لنشر المعلومات المضللة قبل الانتخابات الوطنية.
- تؤكد منظمة OpenAI على الحاجة إلى تدابير أمنيةtronوأطر تنظيمية متينة لإبطاء حملات التلاعب بالانتخابات التي ترعاها الدول باستخدام الذكاء الاصطناعي.
- حتى الآن، لم يكن المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي مقنعاً بما يكفي للتأثير على الآراء السياسية.
ذكر تقرير OpenAI أن نماذجها تُستخدم للتأثير على الانتخابات. كما ذكر التقرير أنها أوقفت أكثر من 20 عملية اعتمدت على نموذج الذكاء الاصطناعي الخاص بها لتنفيذ مثل هذه الأنشطة الخبيثة.
OpenAI تقريربعنوان "تحديث حول تعطيل الاستخدامات الخادعة للذكاء الاصطناعي" على ضرورة توخي الحذر عند التعامل مع المحتوى السياسي.
أظهرت الوثيقة اتجاهاً متزايداً نحو استخدام نماذج OpenAI كأداة رئيسية للتأثير على الانتخابات ونشر المعلومات السياسية المضللة. ويستخدم فاعلون خبيثون، غالباً ما يكونون مدعومين من دول، هذه النماذج في أنشطة متنوعة، تشمل إنشاء محتوى لشخصيات وهمية على وسائل التواصل الاجتماعي وهندسة البرمجيات الخبيثة عكسياً.
تزايد نفوذ OpenAI في انتخابات الذكاء الاصطناعي والسياسة
في أواخر أغسطس، عرقلت منظمة OpenAI حملة إيرانية كانت تنشر محتوى على وسائل التواصل الاجتماعي للتأثير على الآراء في الانتخابات الأمريكية، والسياسة الفنزويلية، والصراع في غزة، وإسرائيل. وأفادت المنظمة بأن بعض الحسابات، التي تم حظرها لاحقاً، كانت تنشر أيضاً حول الانتخابات الرواندية.
كما وجد التقرير أن شركة إسرائيلية متورطة أيضاً في محاولة التلاعب بنتائج استطلاعات الرأي في الهند.
مع ذلك، لاحظت OpenAI أن هذه الأنشطة لم تنتشر على نطاق واسع ولم تجذب جمهورًا كبيرًا. ولم تحظَ منشورات وسائل التواصل الاجتماعي المتعلقة بهذه الحملات إلا tracضئيل. قد يشير هذا إلى صعوبة التأثير على الرأي العام من خلال حملات التضليل المدعومة بالذكاء الاصطناعي.
تاريخياً، غالباً ما تُغذّى الحملات السياسية بمعلومات مضللة من الأطراف المتنافسة. إلا أن ظهور الذكاء الاصطناعي يُشكّل تهديداً مختلفاً لنزاهة الأنظمة السياسية. المنتدى الاقتصادي العالمي بأن عام 2024 عام تاريخي للانتخابات، حيث ستشهد 50 دولة انتخابات.
تتمتع برامج إدارة التعلم الآلي المستخدمة يومياً بالقدرة على إنشاء ونشر المعلومات المضللة بشكل أسرع وأكثر إقناعاً.
التنظيم والجهود التعاونية
استجابةً لهذا التهديد المحتمل، صرّحت OpenAI بأنها تعمل مع الجهات المعنية من خلال تبادل المعلومات الاستخباراتية المتعلقة بالتهديدات. وتتوقع أن يكون هذا النهج التعاوني كافياً في مكافحة قنوات التضليل وتعزيز الاستخدام الأخلاقي للذكاء الاصطناعي، لا سيما في السياقات السياسية.
أفادت شركة OpenAI قائلة: "على الرغم من عدم وجود تفاعل جماهيري ذي مغزى نتيجة لهذه العملية، فإننا نأخذ على محمل الجد أي جهود لاستخدام خدماتنا في عمليات التأثير الأجنبي"
كما أكدت شركة الذكاء الاصطناعي على ضرورة بناء دفاعات أمنية قوية لمنع المهاجمين الإلكترونيين المدعومين من الدول، والذين يستخدمون الذكاء الاصطناعي لإنشاء حملات خادعة ومخربة عبر الإنترنت.
كما سلط المنتدى الاقتصادي العالمي الضوء على الحاجة إلى وضع لوائح خاصة بالذكاء الاصطناعي، قائلاً: "ستلعب الاتفاقيات الدولية بشأن المعايير القابلة للتشغيل البيني والمتطلبات التنظيمية الأساسية دورًا مهمًا في تمكين الابتكار وتحسين سلامة الذكاء الاصطناعي"
يتطلب تطوير أطر عمل فعالة شراكات استراتيجية بين شركات التكنولوجيا مثل OpenAI والقطاع العام وأصحاب المصلحة من القطاع الخاص، مما سيساعد في تنفيذ أنظمة الذكاء الاصطناعي الأخلاقية.
إذا كنت ترغب في نقطة دخول أكثر هدوءًا إلى DeFi عالم العملات المشفرة اللامركزية دون الضجة المعتادة، فابدأ بهذا الفيديو المجاني.
إخلاء مسؤولية: المعلومات الواردة هنا ليست نصيحة استثمارية. Cryptopolitanموقع أي مسؤولية عن أي استثمارات تتم بناءً على المعلومات الواردة في هذه الصفحة. ننصحtrondentdentdentdentdentdentdentdent /أو استشارة مختص مؤهل قبل اتخاذ أي قرارات استثمارية.
دورة
- أي العملات المشفرة يمكن أن تدر عليك المال
- كيفية تعزيز أمانك باستخدام المحفظة الإلكترونية (وأي منها يستحق الاستخدام فعلاً)
- استراتيجيات استثمارية غير معروفة يستخدمها المحترفون
- كيفية البدء في الاستثمار في العملات المشفرة (أي منصات التداول التي يجب استخدامها، وأفضل العملات المشفرة للشراء، إلخ)















