وضعت سلطات السلامة الإيطالية نصب أعينها شركة الذكاء الاصطناعي الصينية الرائدة DeepSeek بعد أن قدمت منظمة Euroconsumers شكوى إلى هيئة حماية البيانات الإيطالية (DPA).
يوروكونسيومرز هي مجموعة من منظمات المستهلكين في أوروبا. في العام الماضي، رفعت دعوى قضائية ناجحة ضد شركة غروك بشأن كيفية استخدامها للبيانات لتدريب نظام الذكاء الاصطناعي الخاص بها.
وبحسب التقارير، فإن الشكوى تتعلق بكيفية إدارة شركة DeepSeek للبيانات الشخصية بموجب اللائحة العامة لحماية البيانات (GDPR)، وهي قانون لحماية البيانات في أوروبا.
هيئة حماية البيانات الإيطالية خطاباً إلى شركتي هانغتشو ديب سيك إيه آي وبكين ديب سيك إيه آي تطلب فيه معلومات إضافية. وتعتزم الهيئة الكشف عن البيانات الشخصية التي يتم جمعها، ومصدرها، وأسباب جمعها.
دا روما كون أي أموري!
أعلنت هيئة حماية البيانات الإيطالية أنها أرسلت طلبًا للحصول على معلومات إلى شركة ديب سيك، لا سيما فيما يتعلق بتدريب أدوات الذكاء الاصطناعي الخاصة بها. @guidoscorza pic.twitter.com/bHElVZDkBo
— لويس مونتيزوما | @ [email protected] (@montezumachavez) ٢٨ يناير ٢٠٢٥
يشمل ذلك تفاصيل حول المعلومات المستخدمة لتدريب أنظمة الذكاء الاصطناعي الخاصة بهم والأسباب القانونية لمعالجة هذه البيانات. كما ترغب الجهة في الحصول على مزيد من المعلومات حول أجهزة الكمبيوتر في الصين
هذا ليس كل شيء. تريد وكالة حماية البيانات معلومات حول أنشطة استخراج البيانات من مواقع الويب التي تقوم بها الشركة الناشئة، سواء للمستخدمين المسجلين أو غير المسجلين.
تتوقع هيئة حماية البيانات رداً في غضون عشرين يوماً.
لماذا تكثر الشكوك حول شركة ديب سيك؟
أحد أبرز الشكوك هو أن شركة DeepSeek قد تأسست وتتخذ من الصين مقرًا لها. فبحسب سياسة الخصوصية ، تقوم هذه الشركة الناشئة في مجال الذكاء الاصطناعي بجمع المعلومات والبيانات والاحتفاظ بها داخل الصين. وهذا الأمر لا يروق للمستهلكين الأوروبيين.
ثانياً، تنص سياسة شركة الذكاء الاصطناعي على أنها تنقل البيانات إلى الصين. وهذا يحوّل أداة الذكاء الاصطناعي فوراً إلى سلاح سياسي، أو بالأحرى، إلى موضوع جدلي في هذا القطاع العالمي الصاعد.
والأسوأ من ذلك؟ حماية القاصرين. وفقًا للتقارير، أشارت منظمة يوروكونسيومرز إلى أن شركة ديب سيك لا تقدم معلومات حول كيفية حماية أو تقييد وصول القاصرين إلى خدماتها، بما في ذلك التحقق من العمر وإدارة بيانات القاصرين.
تجدر الإشارة إلى أن سياسة العمر الخاصة بـ DeepSeek تنص على أنها غير مخصصة للمستخدمين دون سن 18 عامًا. ومع ذلك، فهي لا توضح كيفية تطبيق هذا الشرط. بل تكتفي بالتوصية بأن يقرأ المستخدمون الذين تتراوح أعمارهم بين 14 و18 عامًا سياسة البيانات برفقة شخص بالغ.
في صحفي عقدته المفوضية الأوروبية، أجاب توماس رينييه، المتحدث باسم المفوضية لشؤون السيادة التكنولوجية، عما إذا كانت هناك مخاوف على المستوى الأوروبي بشأن DeepSeek تتعلق بالأمن والخصوصية والرقابة.
فأجاب قائلاً: "الخدمات المقدمة في أوروبا ستحترم قواعدنا [...] هذه مراحل مبكرة جداً، أنا لا أتحدث عن تحقيق حتى الآن"
أعلنت شركة OpenAI التابعة لسام ألتمان أنها تمتلك أدلة على وجود تلاعب
أعلنت OpenAI أنها عثرت على أدلة تُثبت استخدام شركة الذكاء الاصطناعي الصينية الناشئة نماذجها الخاصة لتدريب منافسها مفتوح المصدر. ووفقًا للتقارير ، صرّحت الشركة المطوّرة لنموذج ChatGPT في سان فرانسيسكو بأنها لاحظت بعض مؤشرات "التقطير"، وترجّح أن يكون مصدرها شركة DeepSeek.
التقطير هو أسلوب يستخدمه المطورون لتحسين أداء النماذج الأصغر حجماً باستخدام مخرجات نماذج أكبر وأكثر كفاءة. وهذا يُمكّنهم من تحقيق نتائج مماثلة في مهام محددة بتكلفة أقل بكثير.
يبدو الأمر وكأنه تقنية DeepSeek.
أثار إطلاق نموذج التفكير R1 اهتمام أسواق وادي السيليكون. لكن المشكلة تكمن في أن شركة OpenAI تأسست قبل عشر سنوات، ويعمل بها 4500 موظف، وقد جمعت 6.6 مليار دولار من رأس المال.
من ناحية أخرى، تأسست شركة DeepSeek منذ أقل من عامين، ولديها 200 موظف، وتم تطويرها بأقل من 10 ملايين دولار.
إذا صحّت هذه الشكوى المتعلقة بالتقطير، فهذا يعني أن مهندسي DeepSeek قد كذبوا. فقد زعموا استخدامهم حوالي 2000 شريحة Nvidia H800، وهي شرائح أقل تطورًا من أحدث الشرائح، لتدريب نموذجهم. وهذا يعني أن DeepSeek قد تستخدم بيانات نموذج منافس، وهو ما يُعدّ انتهاكًا لشروط خدمة OpenAI.

