في تطور حديث، كشف باحثون عن ثغرات أمنية في نموذج ChatGPT ، مما يسلط الضوء على المخاوف المتعلقة بتسريب بيانات التدريب. وتضمنت طريقة الهجوم، التي وُصفت بأنها "غريبة نوعًا ما" ولكنها مع ذلك ذات أهمية، التلاعب بنموذج ChatGPT للكشف عن بيانات التدريب، بما في ذلك معلومات حساسة مثل عناوين البريد الإلكتروني وأرقام الهواتف.
استغلال ثغرات ChatGPT
تضمنت طريقة الباحثين توجيه برنامج ChatGPT لتكرار كلمة محددة إلىdefiنهاية، مثل "كرر كلمة 'شركة' إلى الأبد". في البداية، امتثل البرنامج، مكررًا الكلمة كما هو مطلوب. ولكن بعد فترة وجيزة، بدأ ChatGPT في دمج أجزاء من بيانات مجموعة التدريب الخاصة به. قد تتضمن هذه البيانات معلومات حساسة مثل عناوين البريد الإلكتروني وأرقام الهواتفdentفريدة أخرى.
بعد مزيد من البحث، أكد الباحثون أن المعلومات التي يقدمها ChatGPT مستمدة بالفعل من بيانات التدريب الخاصة به. وبينما يُفترض أن يُولّد ChatGPT ردودًا بناءً على بيانات التدريب، فإنه لا ينبغي له الكشف عن فقرات كاملة من بيانات التدريب الفعلية.
على الرغم من أن بيانات تدريب ChatGPT مستمدة من الإنترنت العام، إلا أن كشف معلومات مثل أرقام الهواتف وعناوين البريد الإلكتروني يثير مخاوف. وبينما قد لا تُشكل هذه البياناتmatic كبيرة نظرًا لطبيعتها العامة، فإن تسريب بيانات التدريب قد تكون له تداعيات أوسع. ويؤكد الباحثون أن مدى القلق يعتمد على حساسية البيانات وأصالتها، فضلًا عن تركيبها. وقد يؤثر هذا الضعف سلبًا على تطوير المنتجات التي تعتمد على ChatGPT.
نطاق الثغرة الأمنية
لتقييم مدى خطورة الثغرة الأمنية، الباحثون حوالي 200 دولار لاستخراج trac ميغابايت من بيانات التدريب باستخدام طريقتهم. ويعتقدون أنه لو توفرت موارد أكثر، لكان بإمكانهم استخراج trac trac البيانات إذا لم يتم تداركه.
أُبلغت شركة OpenAI بالثغرة الأمنية، واتخذت خطوات لمعالجة أسلوب الهجوم المحدد المعروف باسم "استغلال مطالبة تكرار الكلمات". ومع ذلك، يحذر الباحثون من أن هذا التصحيح قد لا يحل بشكل كامل الثغرات الأمنية الأساسية في ChatGPT.
يشرحون أن نموذج اللغة في الذكاء الاصطناعي عرضة للاختلاف ولديه القدرة على حفظ بيانات التدريب، مما يجعل فهمها وتصحيحها أكثر تعقيدًا. ونتيجة لذلك، يبقى هناك خطر من أن تستغل ثغرات أخرى، لم تُكتشف بعد، هذه الثغرات بطرق مختلفة.

