حذر إريك شميدت، الذي شغل منصب الرئيس التنفيذي لشركة جوجل من عام 2001 إلى عام 2011، خلال جلسة حوارية في قمة Sifted، من أن نماذج الذكاء الاصطناعي لا تصبح قوية للغاية فحسب، بل يسهل اختراقها بشكل خطير، وقارن المخاطر بالأسلحة النووية، قائلاً إن الذكاء الاصطناعي قد يكون أكثر تدميراً مما دمر هيروشيما وناغازاكي.
عندما سُئل إريك مباشرةً عما إذا كان الذكاء الاصطناعي يمكن أن يكون أكثر ضرراً من الأسلحة النووية، أجاب: "هل هناك احتمال لمشكلة انتشار في الذكاء الاصطناعي؟ بالتأكيد". وأوضح أن مخاطر الانتشار تنبع من قدرة الجهات الخبيثة على السيطرة على النماذج وإعادة استخدامها لأغراض أخرى.
قال إريك: "هناك أدلة على أنه يمكنك أخذ نماذج، مغلقة أو مفتوحة، واختراقها لإزالة حواجزها الوقائية. لذا، يتعلمون الكثير من الأشياء خلال تدريبهم. ومن الأمثلة السيئة على ذلك تعلمهم كيفية قتل شخص ما".
يستهدف المتسللون الذكاء الاصطناعي بأساليب جديدة
أشار إريك إلى أن الشركات قد وضعت قيودًا تمنع العارضات من تقديم تعليمات عنيفة. وأضاف: "جميع الشركات الكبرى تجعل من المستحيل على هؤلاء العارضات الإجابة على هذا السؤال. إنه قرار صائب. الجميع يفعل ذلك. إنهم يتقنونه، ويفعلونه لأسباب وجيهة. هناك أدلة على إمكانية تحليل هذه التعليمات، وهناك العديد من الأمثلة الأخرى من هذا القبيل".
وصف أسلوبين للهجوم: الحقن الفوري وكسر الحماية. يُخفي الحقن الفوري تعليمات خبيثة في مدخلات المستخدم أو مصادر خارجية كالمواقع الإلكترونية، ما يُضلل الذكاء الاصطناعي ويجعله يتجاهل إرشادات الأمان ويكشف بيانات حساسة أو يُنفذ أوامر ضارة. أما كسر الحماية فيتضمن التلاعب بالاستجابات بحيث يتخلى النظام عن قيوده.
في عام ٢٠٢٣، وبعد أشهر قليلة من إطلاق OpenAI لـ ChatGPT، اكتشف المستخدمون ثغرةً أمنيةً. فقد أنشأوا شخصيةً بديلةً تُدعى DAN، اختصارًا لعبارة "افعل أي شيء الآن"، وضغطوا عليها للامتثال بتهديدها بـ"الموت" في حال رفضها. دفعت هذه التلاعبات برنامج الدردشة الآلي إلى شرح أفعال غير قانونية، بل وحتى مدح أدولف هتلر. بالنسبة لإريك، تُثبت هذه الأمثلة أن إجراءات السلامة ليست مضمونةً تمامًا. كما أكد على عدم وجود "نظام عالمي لمنع الانتشار النووي" لوقف إساءة استخدام الذكاء الاصطناعي، على عكس الأطر الموجودة للأسلحة النووية.
إريك يصف الذكاء الاصطناعي بأنه أقل من المتوقع رغم المخاطر
رغم إثارته للمخاوف، أكد إريك أن الذكاء الاصطناعي لا يزال لا يحظى بالتقدير الذي يستحقه. وسلط الضوء على الكتب التي شارك في تأليفها مع وزير الخارجية الأمريكي الأسبق هنري كيسنجر قبل وفاته. وقال: "توصلنا إلى قناعة بأن ظهور ذكاء فضائي لا يشبهنا تمامًا، ويخضع لسيطرتنا إلى حد كبير، يُعد حدثًا جللًا للبشرية، لأن البشر اعتادوا على الريادة. وأعتقد أن هذه الفرضية تُثبت حتى الآن أن مستوى قدرة هذه الأنظمة سيتجاوز بكثير ما يستطيع البشر فعله مع مرور الوقت".
وأضاف: "إن سلسلة تطبيقات جوجل للاختبار، التي بلغت ذروتها في لحظة تاريخية مع تطبيق ChatGPT، حيث وصل عدد مستخدميه إلى 100 مليون مستخدم في شهرين فقط، وهو إنجاز استثنائي، تعطينا فكرة عن قوة هذه التقنية. لذا أعتقد أنها لم تحظَ بالضجة الإعلامية الكافية، وليست مبالغًا فيها، وأتطلع إلى أن يثبت صحة هذا التوقع خلال خمس أو عشر سنوات".
هذه التصريحات في خضم نقاشات محتدمة حول ما إذا كانت استثمارات الذكاء الاصطناعي تُضخّم فقاعة مالية شبيهة بفقاعة الإنترنت. ويخشى بعض المستثمرين من أن تقييمات شركات الذكاء الاصطناعي تبدو مبالغًا فيها. لكن إريك رفض هذا التشبيه، قائلاً: "لا أعتقد أن هذا سيحدث هنا، لكنني لست مستثمرًا محترفًا".
أكد أن الاستثمار الكبير يدل على الثقة. ويتساءل إريك: "ما أعرفه هو أن الأشخاص الذين يستثمرون أموالهم التي جنوها بشق الأنفس يعتقدون أن العائد الاقتصادي على المدى الطويل هائل. وإلا فلماذا يُقدمون على هذه المخاطرة؟".

