حذر المدعون العامون وجماعات السلامة من أن الكم الهائل من الصور المزيفة بتقنية الذكاء الاصطناعي ذات المحتوى الجنسي الصريح للأطفال يُصعّب على أجهزة إنفاذ القانون في الولايات المتحدة التمييز بين الأطفال الحقيقيين الذين يتعرضون للإساءة والأطفال المزيفين. وذكرت صحيفة الغارديان أن هذه الصور تبدو واقعية للغاية لدرجة أنه بات من الصعب معرفة ما إذا كان أطفال حقيقيون قد تعرضوا للإيذاء.
اقرأ أيضاً: الدب بو، المدعوم بتقنية ChatGPT، يقرأ قصص ما قبل النوم للأطفال
تقول كريستينا كوروبوف، المحامية الأولى في منظمة "مشروع صفر إساءة" غير الربحية المعنية بسلامة الأطفال ومقرها مينيسوتا، إن المنظمة بدأت تلاحظ تقارير عن صور لأطفال حقيقيين تم إنشاؤها باستخدام الذكاء الاصطناعي، والذين لم يتعرضوا للاعتداء الجنسي. وتضيف: "لكن الآن، وجوههم مثبتة على أطفال تعرضوا للاعتداء".
يقول مدعي عام وزارة العدل إننا "نغرق" بسبب الذكاء الاصطناعي
صحيفة الغارديان: "في بعض الأحيان، نتعرف على الفراش أو الخلفية في مقطع فيديو أو صورة، أو الجاني، أو المسلسل الذي تنتمي إليه، ولكن الآن تم وضع وجه طفل آخر عليها".
تستطيع نماذج الذكاء الاصطناعي إنتاج آلاف الصور ومقاطع الفيديو التي تُحاكي الصور الفوتوغرافية الواقعية يومياً. ووفقاً للتقرير، فقد سهّل هذا الأمر على المجرمين استخدام هذه التقنية لنشر محتوى غير لائق على الإنترنت المظلم والإنترنت العادي.
لقد أصبح الأمر كابوساً بالنسبة للسلطات. وقال مدعٍ عام في وزارة العدل الأمريكية: "من وجهة نظر إنفاذ القانون، تُعد الجرائم ضد الأطفال من أكثر المجالات التي تعاني من نقص الموارد، وسيحدث انفجار في المحتوى الناتج عن الذكاء الاصطناعي"، مضيفاً:
"نحن غارقون في هذه الأمور بالفعل."
المركز الوطني الأمريكي للأطفال المفقودين والمستغلين ( NCMEC ) أن بلاغات إساءة معاملة الأطفال عبر الإنترنت ارتفعت بنسبة 12% في عام 2023 لتصل إلى 36.2 مليون بلاغ. وبينما ارتبطت معظم البلاغات بتداول صور ومقاطع فيديو حقيقية لأطفال تعرضوا للاعتداء الجنسي، تلقى المركز أيضاً 4700 بلاغ عن صور أو مقاطع فيديو مُفبركة بتقنية الذكاء الاصطناعي تتضمن استغلالاً جنسياً للأطفال.
أفاد المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) بأن من أكثر الطرق شيوعًا التي يستخدمها المتحرشون بالأطفال في توظيف الذكاء الاصطناعي، تعديل الصور الموجودة على الإنترنت لجعلها فاضحة. كما يستغل المجرمون برامج الدردشة الآلية التي تعتمد على الذكاء الاصطناعي التوليدي، والتي تقدم تعليمات مصورة حول كيفية تجنيد الأطفال لأغراض الاستغلال الجنسي.
لا تفي القوانين الحالية بالغرض الكافي فيما يتعلق بتقنية التزييف العميق بالذكاء الاصطناعي
يبدو أن هناك فجوة في تعريف الجريمة. ففي العديد من الأنظمة القضائية، يُعدّ حيازة صور تُجسّد الأطفال كأشياء جنسية جريمة، لكن القوانين لم تتطور بعد لتشمل الصور المُولّدة بالذكاء الاصطناعي.
قال المدعي العام بوزارة العدل: "عند توجيه الاتهامات في النظام الفيدرالي، لا يُغيّر الذكاء الاصطناعي ما يُمكننا مقاضاته، ولكن هناك العديد من الولايات التي يجب فيها إثبات أن الطفل حقيقي". وأضاف المدعي العام:
"إن الجدال حول شرعية الصور سيسبب مشاكل في المحاكمات. لو كنت محامي دفاع، لكان هذا بالضبط ما سأجادل به."
حتى في حال سنّ القوانين، ستظل هناك حاجة إلى التكنولوجيا اللازمة للقبض على المجرمين، ويوجد حاليًا نقص كبير في هذا المجال. وقد حذرت منظمات حماية الطفل من أن أقسام الشرطة ستتلقى على الأرجح سيلاً من الطلبات.
اقرأ أيضاً: الأمين العام للأمم المتحدة يحذر من أن الذكاء الاصطناعي يزيد من احتمالية نشوب حرب نووية
بدأت الصور الجنسية الصريحة للأطفال التي تم إنشاؤها باستخدام الذكاء الاصطناعي في زيادة انتشارها على الإنترنت حوالي عام 2022، بالتزامن مع إصدار برنامج ChatGPT من قبل شركة OpenAI، وفقًا لتقرير صحيفة الغارديان.
يتهم المركز الوطني للأطفال المفقودين والمستغلين شركات الذكاء الاصطناعي بالتقصير في منع إنتاج ونشر المحتوى الاستغلالي. ففي العام الماضي، لم تقدم سوى خمس شركات ذكاء اصطناعي تقاريرها طواعيةً إلى المركز، بينما شاركت 70% من منصات التواصل الاجتماعي تقاريرها، بحسب المركز.

