يدعو مسؤولو الاتحاد الأوروبي (EU) إلى اتخاذ تدابير إضافية لتعزيز الشفافية في أدوات الذكاء الاصطناعي (AI)، بما في ذلك ChatGPT من OpenAI، لمعالجة انتشار المعلومات المضللة. وشددت فيرا جوروفا، نائبة dent للقيم والشفافية في المفوضية الأوروبية، على حاجة الشركات التي تنشر أدوات الذكاء الاصطناعي التوليدية لتصنيف محتواها وتنفيذ ضمانات ضد نشر المعلومات المضللة الناتجة عن الذكاء الاصطناعي.
ودعت جوروفا الموقعين، بما في ذلك شركات التكنولوجيا الكبرى مثل مايكروسوفت وجوجل، إلى التعرف على إمكانات الذكاء الاصطناعي التوليدي لتوليد معلومات مضللة واتخاذ خطوات لتصنيف هذا المحتوى بوضوح. تمكن هذه الخطوة المستخدمين من التمييز بين المعلومات الحقيقية وتلك التي يحتمل أن تكون مضللة. تُعد "قواعد الممارسات المتعلقة بالتضليل" الحالية للاتحاد الأوروبي، والتي تم إنشاؤها في عام 2018، بمثابة معيار التنظيم الذاتي لصناعة التكنولوجيا لمكافحة المعلومات المضللة. وقد وقعت العديد من شركات التكنولوجيا البارزة، بما في ذلك جوجل ومايكروسوفت وميتا بلاتفورمز، على مدونة الاتحاد الأوروبي، ومن المتوقع أن تقدم تقريرًا عن ضماناتها الجديدة للمحتوى الناتج عن الذكاء الاصطناعي في يوليو المقبل.
أشارت جوروفا إلى انسحاب تويتر مؤخرًا من الكود وحذرت من أن تصرفات الشركة وامتثالها لقانون الاتحاد الأوروبي سيتم فحصه عن كثب. كما أكد نائب الرئيس dent أهمية التزام تويتر بالمعايير التنظيمية ومواجهة التقييم الدقيق.
تعد هذه المناقشات حول الشفافية ووضع العلامات على المحتوى الناتج عن الذكاء الاصطناعي جزءًا من الجهود الأوسع التي يبذلها الاتحاد الأوروبي لتنظيم استخدام تكنولوجيا الذكاء الاصطناعي. يهدف قانون الذكاء الاصطناعي القادم للاتحاد الأوروبي إلى وضع مبادئ توجيهية شاملة للاستخدام العام للذكاء الاصطناعي والشركات التي تستخدمه. وفي حين أنه من المتوقع أن يتم تنفيذ القوانين الرسمية في العامين أو الثلاثة أعوام المقبلة، فقد شجع مسؤولو الاتحاد الأوروبي الشركات على تبني مدونة سلوك طوعية لمطوري الذكاء الاصطناعي التوليدي في هذه الأثناء.
معالجة المخاوف والحماية من المعلومات المضللة الناتجة عن الذكاء الاصطناعي
مع استمرار تزايد شعبية أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT وBard، ظهرت مخاوف بشأن سوء الاستخدام المحتمل وانتشار المعلومات المضللة. وشددت نائبة رئيس المفوضية الأوروبية، فيرا جوروفا، على أهمية قيام الشركات بوضع علامات على المحتوى الناتج عن الذكاء الاصطناعي لمكافحة نشر الأخبار المزيفة.
وسلطت جوروفا الضوء على ChatGPT من OpenAI المدعوم من Microsoft وBard من Google كأدوات ذكاء اصطناعي توليدية يجب أن تتضمن الضمانات اللازمة لمنع الجهات الفاعلة الخبيثة من استخدامها لتوليد معلومات مضللة. ومن خلال تطبيق التكنولوجيا للتعرف على المحتوى الناتج عن الذكاء الاصطناعي وتصنيفه، تستطيع هذه الشركات تعزيز الشفافية وتمكين المستخدمين من إصدار أحكام مستنيرة حول المعلومات التي يستهلكونها.
تماشيًا مع مدونة ممارسات الاتحاد الأوروبي بشأن المعلومات المضللة، من المتوقع أن تقوم الشركات التي قامت بالتسجيل، بما في ذلك Google وMicrosoft وMeta Platforms، بالإبلاغ عن الضمانات التي وضعتها لمكافحة المعلومات المضللة الناتجة عن الذكاء الاصطناعي. كما حذرت جوروفا تويتر، التي انسحبت مؤخرًا من المدونة، من توقع زيادة التدقيق التنظيمي وشددت على ضرورة امتثال الشركة لقانون الاتحاد الأوروبي.
إن تركيز الاتحاد الأوروبي على معالجة المعلومات المضللة الناتجة عن الذكاء الاصطناعي يتوافق مع جهوده الأوسع لوضع مبادئ توجيهية للاستخدام المسؤول للذكاء الاصطناعي. سيوفر قانون الذكاء الاصطناعي القادم في الاتحاد الأوروبي مبادئ توجيهية شاملة للاستخدام العام للذكاء الاصطناعي والشركات التي تنشره. وفي غضون ذلك، يحث المسؤولون الأوروبيون الشركات على اتخاذ تدابير استباقية واعتماد مدونة سلوك طوعية لضمان التطوير المسؤول ونشر تكنولوجيا الذكاء الاصطناعي التوليدية.