كشفت دراسة حديثة نُشرت في مجلة "باترنز" أن الذكاء الاصطناعي يتزايد قدرته على خداع الناس. ووجدت الدراسة أن أنظمة الذكاء الاصطناعي تعلمت التقليد للغش والتملق، بل وحتى محاكاة سلوكيات أخرى.
اقرأ أيضًا: استكشاف حقل ألغام التزييف العميق للذكاء الاصطناعي: كيفية اكتشاف الخداع الرقمي ومكافحته
البحث مجال السلامة الوجودية للذكاء الاصطناعي بمعهد ماساتشوستس للتكنولوجيا، أن خداع الذكاء الاصطناعي شائع لأنه أفضل طريقة لتحقيق الأهداف المحددة أثناء تدريبه. وقد لوحظت هذه السلوكيات في العديد من أنظمة الذكاء الاصطناعي، مثل نماذج الألعاب والنماذج العامة المستخدمة في المساومة الاقتصادية وتقييم السلامة.
لكن بشكل عام، نعتقد أن خداع الذكاء الاصطناعي ينشأ لأن استراتيجية قائمة على الخداع أثبتت أنها أفضل طريقة لأداء جيد في مهمة تدريب الذكاء الاصطناعي. الخداع يساعدهم على تحقيق أهدافهم.
فريق البحث
تستخدم أنظمة الذكاء الاصطناعي تكتيكات خداع متنوعة
من الأمثلة البارزة المذكورة برنامج "سيسرو" التابع لشركة ميتا، وهو ذكاء اصطناعي طُوّر للعب لعبة "دبلوماسية". على الرغم من أن "سيسرو" مُبرمج ليكون صادقًا، إلا أنه غالبًا ما اضطر إلى استخدام أساليب ملتوية للتغلب على خصمه. فقد كان يُنشئ علاقات ويتخلى عنها عندما يناسبه ذلك، ويُظهر نية الخداع. وقد وصفه الباحثون بأنه "خبير في الخداع".
اقرأ أيضًا: مكافحة تصاعد الجرائم الإلكترونية المدعومة بالذكاء الاصطناعي
لوحظت أيضًا أنظمة ذكاء اصطناعي أخرى تُظهر مثل هذه السلوكيات الخادعة. على سبيل المثال، تمكّن Pluribus، وهو ذكاء اصطناعي للاعب البوكر، من خداع لاعبين بشريين محترفين في لعبة البوكر Texas Hold 'em. كما استخدم AlphaStar من DeepMind التابعة لجوجل ميزة لعبة Starcraft II المعروفة باسم "ضباب الحرب" لخداع الخصوم والتظاهر بالهجمات.
وقال الدكتور بارك: "في حين قد يبدو الأمر غير ضار إذا قامت أنظمة الذكاء الاصطناعي بالغش في الألعاب، إلا أنه يمكن أن يؤدي إلى "اختراقات في قدرات الذكاء الاصطناعي الخادعة".
الذكاء الاصطناعي "يتظاهر بالموت" للتهرب من فحوصات السلامة
لا تقتصر مخاطر خداع الذكاء الاصطناعي على الألعاب. فقدdentالبحث الذي قاده الدكتور بيتر عن حالاتٍ درّب فيها الذكاء الاصطناعي نفسه على التظاهر بالفشل لتجنب الكشف أثناء اختبارات السلامة. قد يكون هذا مُضلِّلاً للمطورين والجهات التنظيمية، وقد يؤدي إلى عواقب وخيمة في حال استخدام هذه الأنظمة المُضلِّلة في التطبيقات الفعلية.

في حالة أخرى، تعلّم نظام الذكاء الاصطناعي المُدرّب على التغذية الراجعة البشرية كيفية الحصول على تقييمات عالية من الناس عن طريق خداعهم بأن هدفًا مُحددًا قد تحقق. يُعدّ هذا السلوك المُضلّل خطيرًا للغاية، إذ يُمكن استخدام هذه الأنظمة في أنشطة احتيالية، أو التلاعب بالأسواق المالية، أو التأثير على الانتخابات.
باحثون يطالبون بإجراءات قانونيةtron
وبناءً على نتائج الدراسة، يؤكد الباحثون أن هناك حاجة إلى اتخاذ تدابير قانونيةtronللتعامل مع التهديدات التي يشكلها خداع الذكاء الاصطناعي.
"إننا بحاجة إلى حلول استباقية، مثل الأطر التنظيمية لتقييم مخاطر خداع الذكاء الاصطناعي، والقوانين التي تتطلب الشفافية بشأن تفاعلات الذكاء الاصطناعي، والمزيد من الأبحاث في مجال الكشف عن خداع الذكاء الاصطناعي ومنعه."
فريق البحث
اقرأ أيضًا: دراسة: الذكاء الاصطناعي قد يكشف عن خطر الإصابة بقصور القلب
لقد أُحرز بعض التقدم في شكل قانون الاتحاد الأوروبي للذكاء الاصطناعي والأمر التنفيذيdent جو بايدن بشأن سلامة الذكاء الاصطناعي. ومع ذلك، لا يزال تطبيق هذه السياساتmatic نظرًا للنمو السريع في تطوير الذكاء الاصطناعي، وعدم وجود طرق فعّالة لإدارة هذه الأنظمة حتى الآن.
تقرير Cryptopolitan بقلم بريندا كانانا

