بدأت لجنة حماية البيانات في أيرلندا تحقيقاً عابراً للحدود مع شركة جوجل أيرلندا المحدودة بشأن مخاوف تتعلق بحماية البيانات.
يركز التحقيق على استخدام الشركة للبيانات الشخصية في تطوير نموذج لغة المسارات 2. وقد أعلنت اللجنة قرارها بالتحقيق في نظام الذكاء الاصطناعي PaLM2 من جوجل عبر بيان صحفي في 12 سبتمبر.
يهدف التحقيق برمته إلى معرفة ما إذا كانت جوجل قد التزمت بواجباتها بموجب اللائحة العامة لحماية البيانات (GDPR). وتُعدّ اللائحة العامة لحماية البيانات التزامًا إلزاميًا بمعالجة البيانات الشخصية لسكان الاتحاد الأوروبيdentالاقتصادية الأوروبية لأغراض تطوير نماذج الذكاء الاصطناعي.
تشكك أيرلندا فيما إذا كانت جوجل قد استوفت متطلبات
الدافع الرئيسي للتحقيق هو الإجابة على سؤال ما إذا كانت جوجل قد أجرت تقييمًا مطلوبًا لأثر حماية البيانات (DPIA) قبل معالجة البيانات الشخصية لـ PaLM 2.
أكدت مفوضية حماية البيانات في بيانها الصحفي على أهمية تقييمات أثر حماية البيانات في حماية الحقوق والحريات الفردية عندما تشكل معالجة البيانات خطراً كبيراً.
وقال متحدث باسم مفوضية حماية البيانات: "يشكل هذا التحقيق القانوني جزءًا من الجهود الأوسع التي تبذلها مفوضية حماية البيانات في تنظيم معالجة البيانات الشخصية للأفراد الخاضعين لبيانات الاتحاد الأوروبي/المنطقة الاقتصادية الأوروبية في تطوير نماذج وأنظمة الذكاء الاصطناعي".
أطلقت جوجل نموذج PaLM 2 في مايو 2023. وهو نموذج لغوي متطور يُقال إنه يتمتع بقدرات محسّنة في تعدد اللغات، ومهارات التفكير المنطقي، وقدرات البرمجة. يتوفر النموذج بأربعة أحجام مصممة لتناسب حالات استخدام مختلفة.
يُعدّ هذا التحقيق جزءًا من اتجاه متزايد نحو تدقيق ممارسات تطوير الذكاء الاصطناعي لدى شركات التكنولوجيا. قبل أسبوع واحد فقط، أنهت هيئة حماية البيانات في البرتغال تحقيقًا مع شركة X، أسفر عن موافقة الشركة على التوقف عن استخدام البيانات الشخصية لمستخدمي الاتحاد الأوروبي والمنطقة الاقتصادية الأوروبية لتدريب برنامج الدردشة الآلي الخاص بها، Grok.
كما تعهدت شركة X بحذف البيانات التي جمعتها بين 7 مايو و 1 أغسطس. وأعلنت أيضًا أنها لن تجمع أي بيانات أخرى لغرض تدريب Grok.

