أجرى فريق من جامعة نوتردام مشروعًا بحثيًا في مجال التحقيق في وسائل التواصل الاجتماعي، حيث وجدوا أن عامة الناس يواجهون الكثير من الصعوبات في التمييز بين الإنسان والذكاء الاصطناعي أثناء المناقشات السياسية على مختلف المنصات الإلكترونية.
تشير الأبحاث، التي تم تقسيمها إلى ثلاث جولات باستخدام منصة Mastodon مخصصة كمنصة توصيل، إلى أن المشاركين يخطئون في اعتبار روبوتات الذكاء الاصطناعي بشرًا بنسبة 58٪ من الوقت.
دراسة: برامج الذكاء الاصطناعي تُطمس الحدود بين البشر في الخطاب السياسي
اعتمد فريق التحقيق، تحت إشراف الدكتور بول برينر من مركز الحوسبة البحثية في جامعة نوتردام، روبوتات الذكاء الاصطناعي القائمة على الشبكات التوليدية والتي تشمل GPT4 و Llama-2-Chat و Claude 2.
تم تصميم هذا الجيل من برامج الدردشة الآلية بشخصيات متنوعة ليتم استخدامها كلاعبين سياسيين في مجال الشؤون العالمية، وغالبًا ما تتخذ سمات بشرية وتشارك في مناقشات سياسية مختلفة.
يكمن جمال الأمر في حقيقة أن كل روبوت كان له شخصية (ظهور شخصية ذات ملف تعريف مفصل) تم توجيهه لرسم علاقة بين التجارب الشخصية وأحداث العالم الأوسع.
فيما يتعلق بمعالجة البيانات، وعلى الرغم من فهم اللجنة أنها تتفاعل مع البشر والروبوتات، إلا أن حوالي نصف هذه المجموعة العينة لم تكن قادرة على التمييز بين الذكاء الاصطناعي والبشر الحقيقيين.
تُظهر هذه الأدلة أن برامج الذكاء الاصطناعي يمكنها أن تحاكي البشر بشكل وثيق للغاية فيما يتعلق بأنماط محادثاتهم، مما يعزز فرص استخدامها في الترويج للمعلومات المضللة.
دور الذكاء الاصطناعي في نشر المعلومات المضللة
أثار السيد بول برينر قضايا مثل اعتماد هذه الروبوتات التي تعمل بالذكاء الاصطناعي وتأثيرها المتسلسل المحتمل، وفرصة للروبوتات التي تعمل بالذكاء الاصطناعي للتأثير على الرأي العام وربما نشر المعلومات المضللة.
وأوضح أن الذكاء الاصطناعي في عمليات المحاكاة فعال للغاية؛ لدرجة أنه يمكن بسهولة خداع كل إنسان على الإنترنت بشأن المصدر الأصلي للمعلومات.
ومن الجوانب المهمة الأخرى التي سلطت عليها هذه الدراسة الضوء تقييم نماذج الذكاء الاصطناعي المختلفة، حيث أظهرت أن معدلات الدقة لم تختلف اختلافًا كبيرًا بين نماذج التعلم الآلي المختلفة. وهذا يدل على أن النماذج الأقل تعقيدًا قد تكون مقنعة بما يكفي لإنشاء محادثات شبيهة بالمحادثات البشرية في سيناريوهات التفاعل على وسائل التواصل الاجتماعي.
ومن ثم، من بين أمور أخرى، أبرز برينر في السطر الأول موقفه بشأن النهج متعدد الأبعاد لمنع انتشار المعلومات الخاطئة بمساعدة الذكاء الاصطناعي.
ستساهم هذه المبادرات، كالحملات التوعوية، والإجراءات التشريعية، وتشديد إجراءات التحقق من حسابات وسائل التواصل الاجتماعي، في القضاء التام على هذه المشكلة. إضافةً إلى ذلك، سيتم النظر في الجوانب النفسية لتأثير الذكاء الاصطناعي على المراهقين، ووضع استراتيجيات للحد من هذا التأثير.
يسلط هذا المشروع البحثي الضوء على عدم التوازن بين الذكاء الاصطناعي وسلامة المعلومات عبر الإنترنت في الشبكات الاجتماعية، الأمر الذي يستلزم تطوير استراتيجيات متكاملة للتعامل مع هذا الوضع.

