طلبت هيئة حماية الخصوصية في هونغ كونغ من مستخدمي لينكدإن مراجعة إعدادات الخصوصية الخاصة بهم. ووفقًا للتقارير، من المقرر أن تستأنف منصة التواصل المهني العملاقة استخدام بيانات المستخدمين الشخصية لتدريب نماذج الذكاء الاصطناعي التوليدي ابتداءً من يوم الاثنين المقبل.
أصدر مكتب مفوض الخصوصية للبيانات الشخصية تذكيراً بأن موقع لينكد إن قد أكد أنه سيبدأ في استخدام البيانات الشخصية لتدريب نماذج الذكاء الاصطناعي التوليدية الخاصة به ابتداءً من 3 نوفمبر.
لينكد إن وفهم محتوياتها ذات الصلة، ولا سيما تلك المتعلقة باستخدام البيانات الشخصية للمستخدمين لتدريب نماذج الذكاء الاصطناعي التوليدية، وذلك لاتخاذ قرار بشأن الموافقة على هذا الاستخدام" .
هيئة الرقابة في هونغ كونغ تضغط على لينكدإن لتشديد الرقابة على البيانات في تدريب الذكاء الاصطناعي
أعلنت لينكد إن عن خططها لبدء استخدام ملفات تعريف الأعضاء والمنشورات والسير الذاتية والنشاط العام لتدريب نماذج الذكاء الاصطناعي الخاصة بها في سبتمبر 2025.
أكدت منصة التواصل المهني وموقع التوظيف أنه سيتم تضمين بيانات من الأعضاء في المملكة المتحدة والاتحاد الأوروبي والمنطقة الاقتصادية الأوروبية وسويسرا وكندا وهونغ كونغ.
في البداية، تدخلت هيئة مراقبة الخصوصية في هونغ كونغ وأوقفت استخدام لينكد إن لهذه البيانات في أواخر عام 2024، وذلك بعد مراجعة الشركة لسياسة الخصوصية الخاصة بها والمخاوف التي أثيرت بشأن إعداد الاشتراك الافتراضي لمستخدمي هونغ كونغ.
أفادت هيئة الرقابة بأنها واصلت التواصل مع لينكدإن من أكتوبر 2024 وحتى أبريل من هذا العام. ومنذ ذلك الحين، وعدت لينكدإن بأن يظل لمستخدميها في هونغ كونغ التحكم في كيفية استخدام بياناتهم لتدريب الذكاء الاصطناعي، وأن جميع عمليات معالجة البيانات ستتوافق مع قانون حماية البيانات الشخصية (الخصوصية).

ولتحقيق هذه الغاية، تتضمن البيانات التي ستستخدمها لينكدإن معلومات تفصيلية من ملفات تعريف المستخدمين والمحتوى العام المنشور على المنصة. وقد تلقى المستخدمون تأكيدات من الشركة بأن البيانات لا تشمل الرسائل الخاصة. مع ذلك، سيتم استبعاد المستخدمين الذين تقل أعمارهم عن 18 عامًا من تدريب الذكاء الاصطناعي.
بالإضافة إلى ذلك، ذكرت الهيئة الرقابية أنه ينبغي على الراغبين في إلغاء الاشتراك التوجه إلى قسم "خصوصية البيانات" في إعدادات حساباتهم، ثم اختيار "البيانات لتحسين الذكاء الاصطناعي التوليدي" للعثور على زر التفعيل. بعد ذلك، عليهم إيقاف تشغيل خيار "استخدام بياناتي لتدريب نماذج الذكاء الاصطناعي لإنشاء المحتوى".

أكدت الهيئة الرقابية أنها ستواصل مراقبة الوضع لضمان حماية خصوصية البيانات الشخصية لمستخدمي هونغ كونغ. ويتماشى هذا النهج مع توجه أوسع نطاقاً بين منصات التواصل الاجتماعي.
كما ذكر موقع Cryptopolitan ، قامت شركة Meta بخطوة مماثلة العام الماضي لفيسبوك وإنستغرام، حيث استأنفت هذه الممارسة بعد الانتهاء من مراجعة تنظيمية.
تنفد بيانات التدريب لنماذج الذكاء الاصطناعي
تعتزم لينكدإن مشاركة بيانات المستخدمين مع مايكروسوفت والشركات التابعة لها لأغراض تدريب الذكاء الاصطناعي. وقد استثمرت مايكروسوفت مبالغ كبيرة في شركة OpenAI ، مطورة برنامج ChatGPT.
يأتي هذا التطور عقب تصريح رئيس قسم البيانات في غولدمان ساكس بأن نماذج الذكاء الاصطناعي، مثل ChatGPT من OpenAI وGemini من جوجل، قد استنفدت بيانات التدريب الخاصة بها. وقالت نيما رافائيل، التي تشغل منصب رئيسة قسم البيانات وهندسة البيانات في البنك العملاق، إن هذه المشكلة قد تعيق تطور الذكاء الاصطناعي.
قال إيليا سوتسكيفر، المؤسس المشارك لشركة OpenAI، في العام الماضي إن نقص بيانات التدريب يعني أن التطور السريع للذكاء الاصطناعي "سينتهي بلا شك".
قد يُجبر نقص البيانات الجديدة شركات الذكاء الاصطناعي على التحول من نماذج التدريب الحالية، والتركيز بدلاً من ذلك على الذكاء الاصطناعي الأكثر استقلالية. أنظمة الذكاء الاصطناعي المستقلة ، والتي تعمل كأنظمة ذاتية التشغيل قادرة على اتخاذ القرارات وتنفيذ المهام عبر الإنترنت دون إشراف بشري.
تستطيع أنظمة الذكاء الاصطناعي المستقلة شنّ هجمات تتكيف في الوقت الفعلي، مستفيدةً من التدابير الدفاعية المضادة ومطورةً تكتيكاتها بشكل فوري. مع ذلك، قد تُحدث هذه القدرات المستقلة نفسها ثورةً في كيفية دفاعنا ضد التهديدات السيبرانية. ومع ذلك، يبقى هذا التهديد الأكبر بالنسبة للبشر.

