تعد متصفحات الذكاء الاصطناعي مثل أطلس من أوبن إيه آي وكوميت من بيربلكسيتي بتوفير الراحة، لكنها تنطوي على مخاطر أمنية سيبرانية جسيمة، مما يشكل بيئة خصبة جديدة للمخترقين.
تتنافس متصفحات الويب المدعومة بالذكاء الاصطناعي مع المتصفحات التقليدية مثل جوجل كروم وبرايف، بهدفtracمليارات المستخدمين للإنترنت يوميًا.
قبل أيام قليلة، أطلقت OpenAI متصفح Atlas، بينما كان متصفح Comet من Perplexity متاحًا منذ أشهر. تستطيع المتصفحات المدعومة بالذكاء الاصطناعي الكتابة والتصفح بين الصفحات. ويمكن للمستخدمين أن يطلبوا منها حجز رحلة طيران، أو تلخيص رسائل البريد الإلكتروني، أو حتى ملء استمارة.
باختصار، صُممت متصفحات الإنترنت المدعومة بالذكاء الاصطناعي لتعمل كمساعدين رقميين وتتصفح الإنترنت بشكل مستقل. ويُنظر إليها على أنها الخطوة الكبيرة التالية في مجال الإنتاجية عبر الإنترنت.
باحثو الأمن يرصدون ثغرات في متصفحات الذكاء الاصطناعي
لكن معظم المستهلكين يجهلون المخاطر الأمنية المصاحبة لاستخدام متصفحات الذكاء الاصطناعي. فهذه المتصفحات عرضة للاختراقات المعقدة من خلال ظاهرة جديدة تُعرف باسم الحقن الفوري.
يستطيع المخترقون استغلال متصفحات الويب التي تعمل بالذكاء الاصطناعي، والوصول إلى جلسات المستخدمين المسجلة، وتنفيذ إجراءات غير مصرح بها. على سبيل المثال، يمكنهم الوصول إلى رسائل البريد الإلكتروني، وحسابات التواصل الاجتماعي، أو حتى الاطلاع على تفاصيل الحسابات المصرفية وتحويل الأموال.
بحسب دراسة أجرتها شركة Brave، يستطيع المخترقون تضمين تعليمات خفية داخل صفحات الويب أو حتى الصور. وعندما يحلل نظام ذكاء اصطناعي هذا المحتوى ويرى هذه التعليمات الخفية، يمكن خداعه لتنفيذها كما لو كانت أوامر مستخدم حقيقية. ولا تستطيع متصفحات الويب التي تعمل بالذكاء الاصطناعي التمييز بين تعليمات المستخدم الحقيقية والمزيفة.
شجعان تجارب على برنامج Comet التابع لشركة Perplexity، واختبروا استجابته لهجمات حقن النصوص. ووجدوا أن Comet قادر على معالجة النصوص المخفية داخل لقطات الشاشة. تُمكّن هذه الطريقة المهاجمين من التحكم في أدوات التصفح واستخراج trac المستخدم بسهولة.
وصف مهندسو متصفح Brave هذه الثغرات الأمنية بأنها "تحدٍ نظامي يواجه فئة المتصفحات التي تعمل بالذكاء الاصطناعي بأكملها"
يصعب إصلاح الحقن الفوري
يقول باحثو الأمن والمهندسون إن إصلاح ثغرة حقن التعليمات أمر صعب، وذلك لأن نماذج الذكاء الاصطناعي لا تفهم مصدر التعليمات، ولا تستطيع التمييز بين التعليمات الحقيقية والمزيفة.
تستطيع البرامج التقليدية التمييز بين المدخلات الآمنة والبرمجيات الخبيثة، لكن نماذج اللغة الكبيرة (LLMs) تواجه صعوبة في ذلك. تعالج نماذج اللغة الكبيرة كل شيء، بما في ذلك طلبات المستخدمين، ونصوص مواقع الويب، وحتى البيانات المخفية، وتتعامل معها كحوار واحد متكامل.
لهذا السبب يُعدّ الحقن الفوري خطيراً. إذ يستطيع المخترقون بسهولة إخفاء تعليمات مزيفة داخل محتوى يبدو آمناً وسرقة معلومات حساسة.
تعترف شركات الذكاء الاصطناعي بأن الحقن الفوري يمثل تهديدًا خطيرًا
أوضحت شركة بيربلكسيتي أن هذه الهجمات لا تعتمد على برمجيات خبيثة أو كلمات مرور مسروقة، بل على التلاعب بعملية التفكير في نظام الذكاء الاصطناعي. وقد قامت الشركة ببناء طبقات دفاعية متعددة حول متصفح كوميت لإيقاف هجمات حقن الرسائل. يستخدم المتصفح نماذج تعلم آلي تكشف التهديدات في الوقت الفعلي، كما أنه مزود برسائل تحذيرية مدمجة تُبقي الذكاء الاصطناعي مُركزًا على نوايا المستخدم. علاوة على ذلك، يتطلب المتصفح تأكيدًا إلزاميًا من المستخدم لإجراءات حساسة مثل إرسال بريد إلكتروني أو شراء منتج.
يرى باحثو الأمن بالمتصفحات المدعومة بالذكاء الاصطناعي فيما يتعلق بالحسابات الحساسة أو البيانات الشخصية حتى يتم إدخال تحسينات جوهرية عليها. يمكن للمستخدمين الاستمرار في استخدام متصفحات الويب المدعومة بالذكاء الاصطناعي، ولكن دون إمكانية الوصول إلى الأدوات، مع تعطيل الإجراءات التلقائية، ويُنصح بتجنب استخدامها عند تسجيل الدخول إلى الحسابات المصرفية أو البريد الإلكتروني أو تطبيقات الرعاية الصحية.
أقرّ كبير مسؤولي أمن المعلومات (CISO) في OpenAI، داين ستوكي، بمخاطر الحقن الفوري وكتب على X: "أحد المخاطر الناشئة التي نبحثها ونخفف من حدتها بعناية هو الحقن الفوري، حيث يقوم المهاجمون بإخفاء التعليمات الضارة في مواقع الويب أو رسائل البريد الإلكتروني أو مصادر أخرى لمحاولة خداع الوكيل للتصرف بطرق غير مقصودة".
وأوضح أن هدف OpenAI هو جعل الناس "يثقون في وكلاء ChatGPT لاستخدام متصفحهم، بنفس الطريقة التي تثق بها في زميلك أو صديقك الأكثر كفاءة وجدارة بالثقة ووعيًا أمنيًا". وقال ستوكي إن فريق OpenAI "يعمل بجد لتحقيق ذلك"

