هيئة حماية البيانات الإيطالية تحذر الناشرين من مشاركة البيانات مع شركة OpenAI

- حذرت وكالة حماية البيانات الإيطالية (GPDP) شركة GEDI، وهي شركة نشر، بشأن شراكتها مع OpenAI.
- تحذر الهيئة التنظيمية من أن هذه الشراكة تعرض الناشر لخطر انتهاك معايير اللائحة العامة لحماية البيانات (GDPR).
- تعتزم شركة OpenAI استخدام بيانات GEDI لتحسين منتجاتها.
تواجه شركة OpenAI عقبة تنظيمية في إيطاليا، وفقًا لتصريحات هيئة حماية البيانات الشخصية الإيطالية (Garante per la Protezione dei Dati Personali). وقد وجّهت الهيئة تحذيرًا إلى شركة GEDI، وهي دار نشر إيطالية، من مشاركة أرشيفات بياناتها مع OpenAI، مشيرةً إلى احتمال انتهاك اللائحة العامة لحماية البيانات (GDPR) الصادرة عن الاتحاد الأوروبي.
يأتي هذا في أعقاب شراكة بين GEDI و OpenAI، والتي ستسمح لـ OpenAI بتدريب نماذج ChatGPT الخاصة بها على محتوى اللغة الإيطالية.
شركة GEDI هي شركة إعلامية مملوكة لعائلة أنييلي، وتصدر صحيفتي "لا ريبوبليكا" و"لا ستامبا" اليوميتين. وقد أعلنت في سبتمبر الماضي عن شراكة مع OpenAI، تتضمن تقديم محتوى باللغة الإيطالية من محفظة أخبار الشركة للمساعدة في تدريب منتجات OpenAI وتحسينها.
يستنكر برنامج GPDP شراكة GEDI مع OpenAI
قال جون إلكان، رئيس مجلس إدارة GEDI: "إن الشراكة الموقعة مع OpenAI هي جزء من رحلة التحول الرقمي لـ GEDI وتعترف بريادتها في إنتاج محتوى عالي الجودة في المشهد الإعلامي الإيطالي"
ومع ذلك، يحذر قانون حماية البيانات العامة من أن هذه الشراكة قد تؤدي إلى انتهاك محتمل للائحة العامة لحماية البيانات الخاصة بالاتحاد الأوروبي.
يضع النظام الأوروبي العام لحماية البيانات (GDPR) معيارًا عالميًا لقوانين الخصوصية، مؤكدًا على موافقة المستخدم والشفافية والمساءلة. كما كان أول من اقترح إطارًا تنظيميًا للذكاء الاصطناعي، والذي يزعم أنه سيعزز الاستخدام الآمن والمسؤول للذكاء الاصطناعي.
"إذا قامت GEDI، بناءً على الاتفاقية الموقعة مع OpenAI، بالكشف عن البيانات الشخصية الموجودة في أرشيفها، فقد تنتهك لائحة الاتحاد الأوروبي، مع كل العواقب، بما في ذلك تلك ذات الطبيعة العقابية"، كما ذكرت GPDP.
يمكن أن تكلف انتهاكات اللائحة العامة لحماية البيانات الشركات المخالفة ما يصل إلى 20 مليون يورو أو 4٪ من إجمالي مبيعاتها العالمية السنوية.
وجهات نظر عالمية متباينة حول استخدام الذكاء الاصطناعي
تُؤدي هذه الحلقة الأخيرة مع GEDI إلى تصعيد التوترات بين التقدم التكنولوجي والامتثال للوائح الخصوصية في الاتحاد الأوروبي.
Clearview AIالأمريكية، وذلك بسبب انتهاك الخصوصية وحقوق المستخدمين بموجب اللائحة العامة لحماية البيانات (GDPR). وفي وقت سابق من هذا العام، حظرت الهيئة مؤقتًا تطبيق ChatGPT نظرًا لمخاوفها بشأن جمع بيانات المستخدمين ومعالجتها بشكل غير قانوني.
انتهجت الولايات المتحدة نهجاً مرناً وقائماً على السوق تجاه الذكاء الاصطناعي، مفضلةً الابتكار ومؤكدةً على التنظيم الذاتي في هذا المجال. ويشير إلى ذلك "الأمر التنفيذي بشأن التطوير والاستخدام الآمن والموثوق للذكاء الاصطناعي"، الصادر في أكتوبر 2023.
أدى غياب تشريعات واضحة، لا سيما على المستوى الفيدرالي، إلى ريادة الولايات في تنظيم هذا القطاع. ويُعد قانون خصوصية المستهلك في كاليفورنيا (CCPA) مثالاً على تشريعات الذكاء الاصطناعي على مستوى الولايات.
كما وضعت الصين إطاراً تنظيمياً. ففي يوليو/تموز 2023، إدارة الفضاء الإلكتروني الصينية لوائح بشأن استخدام الذكاء الاصطناعي التوليدي. وتخطط أيضاً لوضع أكثر من 50 معياراً للذكاء الاصطناعي بحلول عام 2026.وستُطبق هذه اللوائح على مزودي خدمات الذكاء الاصطناعي المحليين والدوليين على حد سواء.
لا تكتفِ بقراءة أخبار العملات الرقمية، بل افهمها. اشترك في نشرتنا الإخبارية، إنها مجانية.
إخلاء مسؤولية: المعلومات الواردة هنا ليست نصيحة استثمارية. Cryptopolitanموقع أي مسؤولية عن أي استثمارات تتم بناءً على المعلومات الواردة في هذه الصفحة. ننصحtronبإجراء بحث مستقلdent /أو استشارة مختص مؤهل قبل اتخاذ أي قرارات استثمارية.
دورة
- أي العملات المشفرة يمكن أن تدر عليك المال
- كيفية تعزيز أمانك باستخدام المحفظة الإلكترونية (وأي منها يستحق الاستخدام فعلاً)
- استراتيجيات استثمارية غير معروفة يستخدمها المحترفون
- كيفية البدء في الاستثمار في العملات المشفرة (أي منصات التداول التي يجب استخدامها، وأفضل العملات المشفرة للشراء، إلخ)















