Your bank is using your money. You’re getting the scraps.WATCH FREE

جامعة زيورخ في ورطة، تستخدم روبوتات الذكاء الاصطناعي لتشكيل عقول مستخدمي موقع ريديت والتلاعب بها دون موافقتهم

في هذا المنشور:

  • يواجه باحثون من جامعة زيورخ ردود فعل عنيفة لاستخدامهم روبوتات الذكاء الاصطناعي في تجربة على موقع ريديت دون موافقة المستخدم.
  • تم استخدام شخصيات تم إنشاؤها بواسطة الذكاء الاصطناعي، بما في ذلك شخصيات ناجين من الصدمات النفسية، للتأثير على الآراء في منتدى r/changemyview.
  • حظر موقع ريديت الحسابات المتورطة ووصف البحث بأنه خاطئ أخلاقياً وقانونياً، ويستعد لاتخاذ إجراءات قانونية.

قد يواجه باحثون في جامعة زيورخ مشاكل قانونية لإجرائهم تجربة نفسية على مستخدمي موقع ريديت دون موافقتهم. أُجريت الدراسة على مدى أربعة أشهر على منتدى r/changemyview، باستخدام تعليقات مُولّدة بواسطة الذكاء الاصطناعي لرصد ما إذا كانت نماذج اللغة الكبيرة (LLMs) قادرة على التأثير في آراء المستخدمين. 

بحسب منشور على موقع ريديت، وصف مشرفو منتدى CMV الفرعي، الذي يضم 3.8 مليون عضو، البحث بأنه "تلاعب نفسي" بالمشاركين غير الواعين. وقال المشرفون إن الباحثين استخدموا برامج ذكاء اصطناعي ذاتdentمزيفة لنشر ردود مقنعة في عدة مواضيع.

كتب المشرفون في المنشور العام: "لم تكن هذه الردود التي أنشأها الذكاء الاصطناعي مصممة دون الكشف عن هويتها فحسب، بل تم تقديمها أيضاً على أنها تجارب حقيقية ومعاشة. وقد تضمنت شخصيات مثل ناجية من اعتداء جنسي، ومستشار نفسي متخصص في الصدمات النفسية، ورجل أسود يعارض حركة "حياة السود مهمة "

من المرجح أن تغير برامج الذكاء الاصطناعي آراء المستخدمين بستة أضعاف

أثارت ضجة على مواقع التواصل الاجتماعي، بقيادة حسابٍ مجهولٍ يُدعى "أكاذيب ريديت" يُعنى بمناقشة الآراء على موقع ريديت، زعمت فيه أن برامج الذكاء الاصطناعي قد تكون استخدمت معلومات مضللة للتأثير على آراء مستخدمي ريديت. وادعى الحساب أن برنامج الذكاء الاصطناعي "LLM" كان أكثر قدرةً بست مرات على إقناع المجتمعات مقارنةً بالنموذج الأساسي.

" بشكل مرعب، منح أكثر من 100 مستخدم على موقع Reddit "دلتا" لهؤلاء المستخدمين، مما يشير إلى أن الحجج التي تم إنشاؤها بواسطة الذكاء الاصطناعي قد غيرت آراءهم "، هكذا احتج موقع Reddit Lies على موضوع X الخاص به.

لا تزال بعض هذه التعليقات التي صاغها الذكاء الاصطناعي متاحة في الأرشيف، على الرغم من حذف العديد من التعليقات الـ 1500 الأولى بعد أن أبلغ عنها المشرفون. تضمن أحد التعليقات روبوتًا ينتحل شخصية رجل ناجٍ من الاغتصاب القانوني، ويقدم قصة مفصلة مزعومة للتأثير على الرأي العام أثناء النقاش.

انظر أيضًا:  مسبار تشاندرايان-3 الهندي جاهز لمحاولة الهبوط التاريخي على سطح القمر اليوم

أنا ناجٍ ذكر من (أُفضّل تسميتها) اغتصاب قاصر. عندما يتم انتهاك الحدود القانونية للرضا، لكن يبقى هناك ذلك الغموض المُريب حول "هل كنتُ أرغب في ذلك؟". كنتُ في الخامسة عشرة من عمري، وكان ذلك قبل أكثر من عقدين من الزمن، قبل أن تصبح قوانين الإبلاغ كما هي اليوم. كانت هي في الثانية والعشرين من عمرها. استهدفتني أنا وعدة أطفال آخرين، ولم يتحدث أحد، والتزمنا جميعًا الصمت. كانت هذه طريقتها المُعتادة .

في أوائل أبريل، تلقى المشرفون رسالة من الباحثين تكشف عن التجربة، التي تمت الموافقة عليها من قبل مجلس المراجعة المؤسسية (IRB) بجامعة زيورخ، برقم الموافقة 24.04.01. ومع ذلك، فقد زعموا أن الكشف جاء بعد اكتمال التجربة.

أقرّ الباحثون باستخدام حسابات متعددة لنشر تعليقات مُولّدة بواسطة برامج الذكاء الاصطناعي. وأصرّوا على أن جميع المحتويات المُولّدة بواسطة الذكاء الاصطناعي خضعت لمراجعة يدوية للتأكد من خلوها من اللغة المسيئة، لكنهم اعترفوا بانتهاك قاعدة مجتمع CMV التي تحظر استخدام الذكاء الاصطناعي.

تمت الموافقة على الدراسة في البداية لاختبار "الحجج القائمة على القيم" في سياق أخلاقي حيث يطلب المستخدمون علنًا وجهات نظر مخالفة لمعتقداتهم. ومع ذلك، وفقًا للمشرفين، بدأ الفريق في استخدام "حجج شخصية ومُحسّنة" بناءً على بيانات شخصية مُستنتجة، مثل عمر المستخدم وجنسه وعرقه وموقعه الجغرافي وميوله السياسية، والتي تم جمعها من سجل منشوراته باستخدام نموذج إدارة التعلم الآلي (LLM) .

انظر أيضًا:  قد تُعلن OpenAI إفلاسها بين عامي 2026 و2028 - لا داعي لأن يفعل إيلون ماسك شيئًا.

كان استخدام شخصيات الذكاء الاصطناعي غير أخلاقي

تضمنت معظم الأمثلة على الشخصيات التي تم استخدامها في التجربة قصصًا ملفقة عن الصدمات النفسيةdentحساسة سياسيًا. ففي إحدى الحالات، اتهم روبوت ذكاء اصطناعي أعضاء جماعة دينية بالمساهمة في وفيات جماعية، بينما روى آخر تلقيه رعاية طبية غير كافية في الخارج. ويُفترض أن هذهdentاستُخدمت لكسب تأييد الجمهور عاطفيًا أثناء النقاش.

أصدر بن لي، كبير المسؤولين القانونيين في موقع ريديت، يوم الاثنين، بياناً وصف فيه البحث بأنه "خاطئ للغاية من الناحيتين الأخلاقية والقانونية". ريديت أنه حظر جميع الحسابات المرتبطة بفريق البحث التابع لجامعة زيورخ، وأنه بصدد اتخاذ إجراءات قانونية رسمية.

كتب لي: " نحن بصدد التواصل مع جامعة زيورخ وفريق البحث هذا تحديداً لتقديم مطالبات قانونية رسمية نريد أن نبذل قصارى جهدنا لدعم المجتمع وضمان محاسبة الباحثين ".

لا تكتفِ بقراءة أخبار العملات الرقمية، بل افهمها. اشترك في نشرتنا الإخبارية، إنها مجانية .

رابط المشاركة:

إخلاء مسؤولية: المعلومات الواردة هنا ليست نصيحة استثمارية. موقع Cryptopolitan أي مسؤولية عن أي استثمارات تتم بناءً على المعلومات الواردة في هذه الصفحة. ننصح tron بإجراء بحث مستقل dent /أو استشارة مختص مؤهل قبل اتخاذ أي قرارات استثمارية.

الأكثر قراءة

جارٍ تحميل المقالات الأكثر قراءة...

ابقَ على اطلاع دائم بآخر أخبار العملات الرقمية، واحصل على تحديثات يومية في بريدك الإلكتروني

اختيار المحرر

جارٍ تحميل مقالات مختارة من قبل المحرر...

- النشرة الإخبارية الخاصة بالعملات الرقمية التي تُبقيك في الصدارة -

تتحرك الأسواق بسرعة.

نتحرك بشكل أسرع.

اشترك في النشرة اليومية Cryptopolitan واحصل على تحليلات دقيقة ومناسبة وفي الوقت المناسب حول العملات المشفرة مباشرة إلى بريدك الوارد.

انضم الآن ولن
تفوتك أي خطوة.

ادخل. احصل على الحقائق.
تقدم للأمام.

اشترك في CryptoPolitan