في خطوة تهدف إلى ضمان الشفافية والمساءلة في مجال الذكاء الاصطناعي، أصدرت لجنة حماية البيانات الشخصية توجيهات جديدة تتضمن تدابير لإعلام المستهلكين بشأن استخدام بياناتهم الشخصية في تدريب أنظمة الذكاء الاصطناعي. وتهدف هذه التوجيهات، التي تحمل عنوان "التوجيهات الاستشارية بشأن استخدام البيانات الشخصية في أنظمة التوصية واتخاذ القرارات القائمة على الذكاء الاصطناعي"، إلى معالجة المخاوف المتعلقة بخصوصية البيانات والآثار الأخلاقية لتقنية الذكاء الاصطناعي.
تدريب أنظمة الذكاء الاصطناعي – إرشادات لاستخدام البيانات بشفافية
تؤكد الإرشادات، المنشورة في الأول من مارس، على أهمية إطلاع المستخدمين على الأساس المنطقي لاستخدام بياناتهم الشخصية، والطرق المحددة التي تُسهم بها في وظائف أنظمة الذكاء الاصطناعي. ويُلزم القانون الشركات بالإفصاح للمستهلكين عن مدى صلة بياناتهم بالخدمات المُقدمة، وتوضيح المؤشرات التي تؤثر على القرارات التي يتخذها الذكاء الاصطناعي. فعلى سبيل المثال، ينبغي إعلام مستخدمي خدمات البث المباشر بأن بيانات سجل المشاهدة الخاصة بهم تُستخدم لتحسين توصيات الأفلام، بما يتناسب مع تفضيلاتهم بناءً على أنواع الأفلام أو الأفلام التي يشاهدونها بكثرة.
تُوضح هذه الإرشادات الاستخدام المسموح به للبيانات الشخصية دون الحاجة إلى موافقة إضافية بعد جمعها وفقًا لقانون حماية البيانات الشخصية. يجوز للشركات استخدام هذه البيانات لأغراض متنوعة، بما في ذلك البحث وتطوير الأعمال، مثل تحسين نماذج الذكاء الاصطناعي لفهم تفضيلات العملاء أو تحسين أنظمة الموارد البشرية لتوصيات المرشحين. ومن المهم أن تُشدد الإرشادات على ضرورة إخفاء هوية البيانات وتقليل حجمها للحد من مخاطر الأمن السيبراني وحماية خصوصية المستخدم.
كما تؤكد هذه الإرشادات على أهمية عمليات الرصد والمراجعة المستمرة لضمان الامتثال لمبادئ حماية البيانات وأفضل الممارسات المتطورة. ويُشجع الشركات على تقييم فعالية إجراءات معالجة البيانات لديها بانتظام، لا سيما فيما يتعلق بأنظمة الذكاء الاصطناعي، وإجراء التعديلات اللازمة للحفاظ على خصوصية المستخدمين وثقتهم.
معالجة مخاوف واقتراحات القطاع
يأتي إصدار هذه التوجيهات استجابةً لمخاوف القطاع التي أُثيرت خلال مؤتمر سنغافورة للذكاء الاصطناعي في ديسمبر 2023. وقد أعربت الجهات المعنية، بما في ذلك الكيانات التقنية والقانونية والمالية، عن مخاوفها بشأن خصوصية البيانات في مجال الذكاء الاصطناعي، مما استدعى إجراء مشاورة عامة بقيادة لجنة حماية البيانات الشخصية، والتي اختُتمت في أغسطس 2023. ومن الجدير بالذكر أن شركة كاسبرسكي للأمن السيبراني سلطت الضوء على النقص العام في وعي المستهلكين بشأن جمع البيانات لأغراض تدريب الذكاء الاصطناعي. وأوصت الشركة بالحصول على موافقة صريحة خلال مراحل تطوير واختبار نماذج الذكاء الاصطناعي، إلى جانب منح المستخدمين خيار إلغاء الاشتراك في استخدام بياناتهم لتدريب الذكاء الاصطناعي.
كما رحّب العاملون في هذا القطاع بهذه التوجيهات باعتبارها خطوة نحو بناء ثقة وشفافية أكبر في أنظمة الذكاء الاصطناعي. وباتت الشركات الآن أكثر استعداداً للتعامل مع تعقيدات استخدام البيانات في الذكاء الاصطناعي بطريقة أخلاقية ومسؤولة، مما يعزز ثقافة المساءلة وتمكين المستهلك.
مع استمرار انتشار الذكاء الاصطناعي في مختلف القطاعات، تظل الشفافية والمساءلة في استخدام البيانات الشخصية أمراً بالغ الأهمية. ومن خلال إصدار هذه التوجيهات، تسعى لجنة حماية البيانات الشخصية إلى تحقيق التوازن بين تعزيز ابتكارات الذكاء الاصطناعي وحماية خصوصية المستخدمين. ومع ذلك، لا تزال هناك تحديات في توعية المستهلكين بشكل فعّال حول تعقيدات استخدام بيانات الذكاء الاصطناعي. كيف يمكن للشركات تعزيز فهم المستخدمين وموافقتهم على استخدام بياناتهم الشخصية في تدريب أنظمة الذكاء الاصطناعي مع الحفاظ على ثقتهم؟

