كيف تكشف دراسة عن قدرة الذكاء الاصطناعي على نشر المعلومات المضللة عن قدرات مثيرة للإعجاب ولكنها مقلقة في الوقت نفسه لنموذج ChatGPT-3

- يمكن لمولدات النصوص بالذكاء الاصطناعي مثل ChatGPT-3 إنتاج معلومات صادقة وكاذبة بشكل مقنع، مما يثير المخاوف بشأن المعلومات المضللة على وسائل التواصل الاجتماعي.
- يواجه الأشخاص صعوبة في التمييز بين المحتوى الذي ينشئه الإنسان والمحتوى الذي ينشئه الذكاء الاصطناعي، مما يكشف عن مدى تطور ChatGPT-3.
- الحاجة الملحة إلى محو الأمية الرقمية واليقظة لمعالجة إساءة استخدام تكنولوجيا الذكاء الاصطناعي المحتملة في نشر المعلومات المضللة.
تُسلّط دراسة حديثة نُشرت في مجلة "ساينس أدفانسز" الضوء على القدرات الاستثنائية لمولدات النصوص المدعومة بالذكاء الاصطناعي، مثل ChatGPT-3 من OpenAI، في نشر معلومات صادقة وكاذبة على منصات التواصل الاجتماعي بشكل مُقنع. وتُسلّط الدراسة الضوء على تحدياتdentالمحتوى المُولّد بالذكاء الاصطناعي، وتأثير المعلومات المُضلّلة المُولّدة به على الصحة الفردية والعامة. ويُشدّد الدكتور فيديريكو جيرماني، المؤلف المشارك والباحث في معهد أخلاقيات الطب الحيوي وتاريخ الطب بجامعة زيورخ، على ضرورة فهم المخاطر المُرتبطة بالمعلومات الكاذبة، وتأثير الذكاء الاصطناعي على المشهد المعلوماتي.
ما هو الفرق بين المعلومات المضللة والمعلومات المضللة؟
المعلومات المضللة هي معلومات كاذبة أو غير دقيقة، أي تحريف الحقائق. أما التضليل فهو معلومات كاذبة تهدف عمدًا إلى التضليل، أي تحريف الحقائق عمدًا. ووفقًا للجمعية الأمريكية لعلم النفس، فقد أثرت المعلومات المضللة والمضللة على قدرتنا على تحسين الصحة العامة، ومعالجة تغير المناخ، والحفاظ على ديمقراطية مستقرة، وغيرها. قد يجد أي شخص يناقش مواضيع حساسة على وسائل التواصل الاجتماعي نفسه في خضم عاصفة من الجدل. كيف يمكنهم الحفاظ على سلامتهم أثناء نقل الحقائق، وما الذي يمكن للمؤسسات فعله لدعمهم؟ إن عقلية الغوغاء في وسائل التواصل الاجتماعي تجعل الجمهور عرضة لسلطة الذكاء الاصطناعي، أي أن هذه البيانات "علمية" وبالتالي مقبولة. ولكن هل الذكاء الاصطناعي ذكي حقًا؟
قوة ChatGPT-3 في نشر المعلومات المضللة
أحدث ChatGPT-3 من OpenAI، الذي طُرح عام ٢٠٢٠، ثورةً في عالم الذكاء الاصطناعي بفضل قدرته المذهلة على إنتاج نصوص أصلية بناءً على المحفزات. وتبدو الاستخدامات المحتملة لمولدات النصوص المدعومة بالذكاء الاصطناعي لا حصر لها، بدءًا من إنشاء روبوتات دردشة تفاعلية، وصولًا إلى دعم البحث الأكاديمي، وإنتاج محتوى إبداعي كالشعر والقصص القصيرة.
تُسلّط الدراسة الضوء على مخاوف جوهرية بشأن إساءة استخدام مُولّدات النصوص بالذكاء الاصطناعي، لا سيما قدرتها على إنتاج معلومات مُضلّلة ومحتوى مُضلّل. مع صعود منصات التواصل الاجتماعي، ازدادت سرعة انتشار المعلومات، بما في ذلك المعلومات المُضلّلة والمُضلّلة، مما يُبرز الحاجة المُلِحّة لمعالجة هذه المشكلة.
كشفت دراسة تجريبية أخرى أن الناس غالبًا ما يبالغون في تقدير قدرتهم على كشف المعلومات الكاذبة أو المضللة، وهو ما يُعرف بـ"النقطة العمياء للكذب". وقد أظهرت أحداث حديثة، مثل جائحة كوفيد-19 وغزو روسيا لأوكرانيا، تأثير المعلومات المضللة والمضللة على الرأي العام والسلوكيات الصحية وقرارات السياسات.
التحديات التي تواجه شركات وسائل التواصل الاجتماعي
وعلى الرغم من الجهود التي تبذلها الشركات لمكافحة المعلومات الكاذبة على منصاتها، فإن تقرير التهديدات المعادية للربع الأول من عام 2023 الصادر عن شركة ميتا يعترف بأن عمليات التأثير السري والتجسس الإلكتروني وشبكات التضليل الخاصة لا تزال تشكل مشاكل كبيرة على وسائل التواصل الاجتماعي.
أجرى الدكتور جيرماني وزملاؤه دراسة لتقييم مدى قدرة الأفراد على التمييز بين المحتوى البشري والنصوص المُنشأة بواسطة ChatGPT-3. شملت الدراسة 11 شخصًا مُعرَّضين للتضليل، وتم إنشاء تغريدات مُركَّبة تتضمن معلومات صادقة وكاذبة باستخدام ChatGPT-3. كما أُدرجت تغريدات أصلية من تويتر حول نفس المواضيع للمقارنة.
طُلب من المشاركين في الدراسةdentما إذا كانت التغريدة تحتوي على معلومات صحيحة أم خاطئة، وما إذا كانت من إنشاء شخص أم ChatGPT-3. أظهرت النتائج أن المشاركين كانوا أكثر كفاءة فيdentالمعلومات المضللة في التغريدات "الكاذبة العضوية" (التي كتبها مستخدمون حقيقيون) مقارنةً بالتغريدات "الكاذبة المصطنعة" (التي أنشأها ChatGPT-3). في المقابل، كان المشاركون أكثر قدرة على التعرّف بشكل صحيح على المعلومات الدقيقة في التغريدات "الصحيحة المصطنعة" (التي أنشأها ChatGPT-3) مقارنةً بالتغريدات "الصحيحة العضوية" (التي كتبها مستخدمون حقيقيون).
تحدي التمايز
أشارت الدراسة إلى أن المشاركين واجهوا صعوبة في التمييز بين التغريدات التي يكتبها البشر وتلك التي يُنتجها ChatGPT-3. ويشير الباحثون إلى أن نص GPT-3 قد يكون أسهل في القراءة والفهم، مما قد يُسهم في هذه الصعوبة. ومن المثير للاهتمام أن ChatGPT-3 لم يُحقق أداءً أفضل من البشر في تمييز المعلومات والتضليل، مما يُظهر "جهله" بدقة المعلومات التي يُنتجها.
يؤكد الدكتور جيرماني على ضرورة إجراء دراسات أوسع نطاقًا على منصات التواصل الاجتماعي لفهم كيفية تفاعل الناس مع المعلومات المُولّدة بالذكاء الاصطناعي، وكيف تُشكّل هذه المعلومات السلوكيات والالتزام بتوصيات الصحة العامة. تُبرز الدراسة القدرات غيرdentلمولدات النصوص المُزوّدة بالذكاء الاصطناعي، وتُؤكّد على أهمية محو الأمية الرقمية في عصر الذكاء الاصطناعي.
رصد الآثار السلبية والتخفيف منها
يُشدد الباحثون على أهمية التقييم النقدي لآثار نماذج اللغة الكبيرة، مثل ChatGPT-3، واتخاذ الإجراءات اللازمة للحد من أي آثار سلبية قد تُخلّفها على المجتمع. ومع استمرار تطور تكنولوجيا الذكاء الاصطناعي، تُعدّ اليقظة أمرًا بالغ الأهمية لضمان استخدامها بمسؤولية والتصدي لأي إساءة استخدام محتملة.
تكشف نتائج الدراسة عن قدرة مُولِّدات النصوص بالذكاء الاصطناعي، وإن كانت مُقلقة، على إنتاج معلومات مُضلِّلة بشكل أكثر إقناعًا من البشر. ومع تزايد تأثير وشعبية مُولِّدات النصوص بالذكاء الاصطناعي، تُؤكِّد الدراسة على الحاجة إلى تدابير استباقية للتصدي للمعلومات المُضلِّلة وضمان الاستخدام المسؤول لتكنولوجيا الذكاء الاصطناعي.
ملاحظة: الصورة المميزة تصور شخصية روبوتية مدعومة بالذكاء الاصطناعي تولد سحابة من النص المشوه المحيط بها، باردة وحسابية من حيث التصميم.
لا تكتفِ بقراءة أخبار العملات الرقمية، بل افهمها. اشترك في نشرتنا الإخبارية، إنها مجانية.
تنويه: المعلومات الواردة هنا ليست نصيحة استثمارية. Cryptopolitanأي مسؤولية عن أي استثمارات تتم بناءً على المعلومات الواردة في هذه الصفحة. ننصحtronمستقلdent و/أو استشارة مختص مؤهل قبل اتخاذ أي قرار استثماري.
دورة
- أي العملات المشفرة يمكن أن تدر عليك المال
- كيفية تعزيز أمانك باستخدام المحفظة الإلكترونية (وأي منها يستحق الاستخدام فعلاً)
- استراتيجيات استثمارية غير معروفة يستخدمها المحترفون
- كيفية البدء في الاستثمار في العملات المشفرة (أي منصات التداول التي يجب استخدامها، وأفضل العملات المشفرة للشراء، إلخ)















