رفعت منظمة "نويب" المعنية بالخصوصية دعوى قضائية ضد شركة "أوبن إيه آي" لدى هيئة حماية البيانات النمساوية، بدعوى أن منتجها "تشات جي بي تي" ينتهك العديد من قوانين حماية البيانات في الاتحاد الأوروبي. وأوضحت المنظمة أن "تشات جي بي تي" ينشر معلومات غير صحيحة عن الأفراد، وأن اللائحة العامة لحماية البيانات (GDPR) في الاتحاد الأوروبي تنص على ضرورة صحة المعلومات المتعلقة بالأفراد، ومنحهم حق الوصول الكامل إليها.
تواجه شركة OpenAI اتهامات تتعلق باللائحة العامة لحماية البيانات (GDPR)
تم تأسيس Noyb بواسطة المحامي والناشط الشهير ماكس شريمز، وادعى أن ChatGPT شارك تاريخ ميلاد خاطئ لشخصية عامة مشهورة، وعندما طلب الإذن بالوصول إلى البيانات المتعلقة به وحذفها، تم رفض طلبه من قبل Open AI.
يقول نويب إنه وفقًا للائحة العامة لحماية البيانات (GDPR) في الاتحاد الأوروبي، يجب أن تكون أي معلومات تخص أي فرد دقيقة، وأن يكون للفرد حق الوصول إليها ومعرفة مصدرها. لكن وفقًا لهذه اللائحة، تدّعي OpenAI أنها غير قادرة على تصحيح المعلومات في نموذج ChatGPT الخاص بها. كما أن الشركة غير قادرة على تحديد مصدر المعلومات، بل إنها لا تعرف حتى البيانات التي يخزنها ChatGPT عن الأفراد.
يزعم نويب أن شركة OpenAI على دراية بالمشكلة، ويبدو أنها لا تهتم بها، إذ أن حجتها في هذه المسألة هي أن..
"لا تزال الدقة الواقعية في نماذج اللغة الكبيرة مجالاً للبحث النشط."
وأشار نويب إلى أن المعلومات الخاطئة قد تكون مقبولة عندما يقوم برنامج ChatGPT بنشرها عندما يستخدمهاdentفي واجباتهم المنزلية، لكنه قال إنه من غير المقبول بشكل واضح للأفراد لأن قانون الاتحاد الأوروبي يشترط أن تكون البيانات الشخصية دقيقة.
الهلوسة تجعل برامج الدردشة الآلية غير متوافقة مع لوائح الاتحاد الأوروبي
أشار نويب إلى أن نماذج الذكاء الاصطناعي عُرضة للأوهام وتُنتج معلومات خاطئة. وقد شككوا في الإجراء التقني الذي تتبعه OpenAI في توليد المعلومات، حيث لاحظوا منطق OpenAI القائل بأن...
"الاستجابة لطلبات المستخدمين من خلال التنبؤ بالكلمات الأكثر احتمالاً التي قد تظهر استجابةً لكل طلب."

يجادل نويب بأن هذا يعني أنه على الرغم من حقيقة أن الشركة لديها مجموعات بيانات واسعة متاحة لتدريب نموذجها، إلا أنها لا تستطيع ضمان أن الإجابات المقدمة للمستخدمين صحيحة من الناحية الواقعية.
وقال محامي حماية البيانات الخاص بنويب، مارتجي دي جاف،
"إن اختلاق المعلومات الكاذبة أمرmatic بحد ذاته. ولكن عندما يتعلق الأمر بالمعلومات الكاذبة عن الأفراد، فقد تكون هناك عواقب وخيمة."
المصدر: نويب.
وقال أيضاً إن أي تقنية يجب أن تلتزم بالقوانين ولا يمكنها التلاعب بها، لأنه وفقاً له، إذا لم تتمكن أداة ما من إنتاج نتائج صحيحة عن الأفراد، فلا يمكن استخدامها لهذا الغرض، وأضاف أيضاً أن الشركات ليست بعد متطورة تقنياً بما يكفي لإنشاء روبوتات محادثة يمكنها الامتثال لقوانين الاتحاد الأوروبي في هذا الشأن.
تخضع أدوات الذكاء الاصطناعي التوليدي لتدقيق صارم من قبل هيئات حماية الخصوصية الأوروبية، حيث قامت هيئة حماية البيانات الإيطالية في عام 2023 بتقييد حماية البيانات مؤقتًا. ولا تزال النتائج غير واضحة، ولكن وفقًا لنويب ، فإن شركة OpenAI لا تتظاهر حتى بالامتثال لقانون الاتحاد الأوروبي.

