استجابةً للمخاوف المتزايدة بشأن انتشار المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، أعلنت شركات التكنولوجيا الكبرى عن مبادرات تهدف إلى اكتشاف هذا المحتوى وتصنيفه.
تأتي هذه الجهود في أعقاب حوادث dent فضيحة تايلور سويفت الإباحية المزيفة وانتشار الفيديوهات السياسية المزيفة.
تتعاون شركات التكنولوجيا الكبرى لتصنيف المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي والكشف عنه.
أعلنت شركة ميتا، المعروفة سابقًا باسم فيسبوك، عن خططها لوضع علامات على الصور التي يتم إنشاؤها بواسطة الذكاء الاصطناعي على منصاتها، بما في ذلك فيسبوك وإنستغرام وثريدز. تهدف هذه العلامات، والعلامات المرئية، والعلامات المائية غير المرئية، والبيانات الوصفية المضمنة في ملفات الصور، إلى زيادة الشفافية والمساءلة فيما يتعلق بمصادر المحتوى.
من جهة أخرى، انضمت جوجل إلى اللجنة التوجيهية لمبادرة التحقق من صحة المحتوى (C2PA)، مؤيدةً بروتوكول إنترنت مفتوح المصدر مصمم لتوفير "ملصقات معلوماتية" للمحتوى. وتدل هذه الخطوة على جهد تعاوني بين عمالقة التكنولوجيا لوضع معايير على مستوى الصناعة للكشف عن المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي.
تُطبّق OpenAI إجراءات تحديد مصدر المحتوى
وقد اتخذت OpenAI أيضاً إجراءات لمعالجة هذه المشكلة. ستضيف علامات مائية إلى البيانات الوصفية للصور التي تم إنشاؤها باستخدام نماذج الذكاء الاصطناعي الخاصة بها، ChatGPT وDALL-E 3، مما يوفر علامة مرئية تشير إلى مشاركة الذكاء الاصطناعي في إنشاء المحتوى.
على الرغم من أن هذه الأساليب تمثل خطوة إلى الأمام، إلا أنها ليست مضمونة النتائج، حيث لا تزال هناك تحديات في تصنيف واكتشاف الفيديو والصوت والنص الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي.
التحديات والتوقعات المستقبلية
على الرغم من التطورات في مجال تصنيف المحتوى ووضع العلامات المائية، لا تزال هناك قيود تقنية. يمكن تجاوز العلامات المائية في البيانات الوصفية عن طريق التقاط لقطات شاشة، بينما تكون التصنيفات المرئية عرضة للقص أو التعديل. توفر العلامات المائية غير المرئية، مثل SynthID من جوجل، مرونة أكبر، ولكنها لا تخلو من التحديات.
الحاجة إلى أطر تنظيمية
إلى جانب التدابير الطوعية، تكتسب الأطر التنظيمية trac. فمبادرات مثل قانون الذكاء الاصطناعي وقانون الخدمات الرقمية في الاتحاد الأوروبي تلزم بالإفصاح عن المحتوى المُنشأ بواسطة الذكاء الاصطناعي وإزالة المحتوى الضار على وجه السرعة. كما يدرس المشرعون الأمريكيون وضع قواعد ملزمة بشأن التزييف العميق، حيث حظرت لجنة الاتصالات الفيدرالية مؤخراً استخدام الذكاء الاصطناعي في المكالمات الآلية.
رغم أن المبادئ التوجيهية الطوعية تُعد خطوة في الاتجاه الصحيح، إلا أن المخاوف لا تزال قائمة بشأن مساءلة القطاع. ويُثير تاريخ قطاع التكنولوجيا في التنظيم الذاتي شكوكًا حول فعالية التدابير الطوعية. ومع ذلك، تُشير الإعلانات الأخيرة إلى تقدم مُحرز مقارنةً بالتقاعس السابق.

