تدعو منظمة UNICEF إلى سن قوانين أكثر صرامة لتجريم المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي والذي يسيء إلى الأطفال

- أشارت منظمة الأمم المتحدة للطفولة (UNI) إلى وجود ارتفاع في حجم الصور الجنسية للأطفال التي يتم إنشاؤها بواسطة الذكاء الاصطناعي والتي تنتشر على الإنترنت.
- دعت الوكالة إلى اتخاذ إجراءات عاجلة من قبل الحكومات والصناعة لمنع إنشاء ونشر المحتوى الجنسي للأطفال الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي.
- جادلت منظمة UNICEF بأن الأطفال يواجهون الخزي والوصم والمزيد من الأحكام من الأقران والبالغين والعزلة الاجتماعية والأذى العاطفي طويل الأمد من هذا المحتوى.
أشارت منظمة الأمم المتحدة للطفولة (UNI) يوم الأربعاء إلى تقارير تفيد بزيادة سريعة في حجم الصور الجنسية المُولّدة بواسطة الذكاء الاصطناعي والمتداولة على الإنترنت. وتضمنت هذه الصور بشكل رئيسي حالات تم فيها التلاعب بصور الأطفال وإضفاء طابع جنسي عليها.
أكدت الوكالة أن تزايد استخدام أدوات توليد الصور والفيديوهات المدعومة بالذكاء الاصطناعي، والتي تُنتج مواد استغلال جنسي للأطفال، يُفاقم المخاطر التي يتعرض لها الأطفال عبر التقنيات الرقمية. كما دعت منظمة UNICEF الحكومات والقطاع الخاص إلى اتخاذ إجراءات عاجلة لمنع إنتاج ونشر المحتوى الجنسي للأطفال المُولّد بالذكاء الاصطناعي.
يتسبب المحتوى الجنسي الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي في أضرار عاطفية طويلة الأمد للأطفال
إساءة استخدام تقنية التزييف العميق هي إساءة استخدام.
تُعدّ الصور أو الفيديوهات أو التسجيلات الصوتية ذات الطابع الجنسي للأطفال، والتي يتم إنشاؤها أو التلاعب بها باستخدام أدوات الذكاء الاصطناعي، موادّ استغلال جنسي للأطفال. وحتى في غياب ضحية محددةdent، فإنّ ذلك يُضفي طابعاً طبيعياً على الاستغلال الجنسي للأطفال.
تدعو منظمة UNICEF إلى اتخاذ إجراءات عاجلة لمنع..
— UNIUNIUNIUNIUNIUNIUNIUNIUNI) 4 فبراير 2026
أشارت منظمة الأمم المتحدة إلى أنه قبل أقل من خمس سنوات، كانت النماذج التوليدية عالية الجودة تتطلب قدرة حاسوبية وخبرة كبيرتين. أما النماذج مفتوحة المصدر الحالية، فتُسهّل على الجناة إنشاء محتوى استغلال جنسي.
ترى الوكالة أنه على الرغم من عدم وجود طفل حقيقي متورط بشكل مباشر، فإن هذا المحتوى يُرسخ استغلال الأطفال جنسياً ويُعقّد عملية تحديد هوية الضحيةdentUNIUNI UNIUNIUNIUNI UNIUNIجادلت منظمة يونيسيف الجناة قادرون على إنشاء صور جنسية واقعية لطفل دون علمه أو مشاركته.
أفادت منظمة UNICEF بأن هذا النوع من المحتوى قد ينتهك حق الطفل في الحماية دون علمه بحدوثه. كما ذكرت المنظمة أن الأطفال يواجهون الخزي والوصم الاجتماعي، ويتعرضون لمزيد من الأحكام المسبقة من أقرانهم والبالغين، بالإضافة إلى العزلة الاجتماعية والأضرار النفسية طويلة الأمد.
UNICEF أيضًا أن ازدياد سهولة الوصول إلى أدوات توليد الصور والفيديوهات المدعومة بالذكاء الاصطناعي قد أدى إلى ارتفاع حاد في إنتاج ونشر مواد الاعتداء الجنسي على الأطفال. ووجدت مؤسسة مراقبة الإنترنت البريطانية (IWF) ما يقارب 14,000 يُشتبه في أنها مُولّدة بالذكاء الاصطناعي على منتدى واحد في الشبكة المظلمة مخصص لمواد الاعتداء الجنسي على الأطفال، وذلك خلال شهر واحد فقط. وأفاد التقرير بأن ثلث هذه المواد كانت مواد إجرامية، وأنها تمثل أولى مقاطع الفيديو الواقعية التي تم إنتاجها بالذكاء الاصطناعي والتي تُظهر الاعتداء الجنسي على الأطفال.
كما اكتشف الاتحاد الدولي للأمن السيبراني 3440 مقطع فيديو بتقنية الذكاء الاصطناعي تُظهر اعتداءً جنسيًا على الأطفال، بزيادة قدرها 26362% عن 13 مقطع فيديو تم العثور عليها في العام السابق. صُنّف 2230 مقطع فيديو (65%) ضمن الفئة (أ) نظرًا لشدة فظاعتها، بينما صُنّف 1020 مقطع فيديو آخر (30%) ضمن الفئة (ب).
منظمة IWFdentاستخدام الذكاء الاصطناعي في استغلال الأطفال جنسياً عبر منصات التواصل الاجتماعي، بما في ذلك صور عارية مزيفة بتقنية التزييف العميق تم إنشاؤها في سياقات تبادل الرسائل بين الأفراد، وتستهدف الفتيات. وأشارت المنظمة أيضاً إلى حالة في كوريا الجنوبية، حيث سجلت زيادة عشرة أضعاف في الجرائم الجنسية التي تستخدم تقنيات الذكاء الاصطناعي والتزييف العميق بين عامي 2022 و2024.
شملت تقنيات الذكاء الاصطناعي والتزييف العميق في الغالب مراهقين، يشكلون غالبية المتهمين. وكشف أن واحداً من كل عشرة مراهقين في الولايات المتحدة على علم بحالات قام فيها أصدقاء بإنشاء صور حميمية اصطناعية لأطفال دون موافقتهم باستخدام أدوات الذكاء الاصطناعي.
UNICEF ومنظمة ECPAT الدولية والإنتربول أن حوالي 1.2 مليون طفل في 11 دولة تعرضوا للتلاعب بصورهم وتحويلها إلى صور جنسية مزيفة باستخدام أدوات الذكاء الاصطناعي في عام 2025. وأفادت أن ما يصل إلى ثلثي الأطفال في حوالي 11 دولة يشعرون بالقلق من إمكانية استخدام الذكاء الاصطناعي لإنشاء صور جنسية مزيفة.
أكدت منظمة UNICEF على ضرورة توعية الآباء ومقدمي الرعاية بشأن الاستغلال والاعتداء الجنسي الذي تُمارسه تقنيات الذكاء الاصطناعي. كما دعت المنظمة المدارس إلى تثقيفdentحول المخاطر المرتبطة بالذكاء الاصطناعي والأضرار التي تُلحقها بالأفراد المتضررين.
تنأى الدول بنفسها عن شركة غروك بسبب مقاطع الفيديو الجنسية التي تروج لها بتقنية التزييف العميق المدعومة بالذكاء الاصطناعي
UNICEF في الوقت الذي أضافت فيه أداة الذكاء الاصطناعي Grok ميزات تمنعها من تعديل صور حقيقية لأشخاص حقيقيين لعرضهم بملابس فاضحة في البلدان التي يُحظر فيها ذلك. وجاءت هذه المبادرة بعد مخاوف واسعة النطاق بشأن التزييف العميق للذكاء الاصطناعي ذي الطابع الجنسي.
دعت الحكومة البريطانية شركة X إلى ضبط تطبيق Grok، بينما صرّحت هيئة تنظيم الاتصالات (Ofcom) بأنها تعمل على مدار الساعة لإصلاح المشكلة. وأوضحت في بيان لها أنها حظرت جغرافياً قدرة جميع المستخدمين على إنشاء صور لأشخاص حقيقيين يرتدون ملابس سباحة أو ملابس داخلية أو ما شابهها عبر حساب Grok وفي تطبيق Grok على منصة X في البلدان التي يُحظر فيها ذلك.
حظرت ماليزيا وإندونيسيا الوصول إلى منصة Grok في وقت سابق من الشهر الماضي بسبب قدرتها على إنتاج محتوى جنسي مزيف بتقنية التزييف العميق. Cryptopolitan وأفاد في وقت سابق من هذا الشهر أن إندونيسيا سمحت لـ Grok باستئناف عملياتها بعد أن تعهدت X بتحسين امتثالها لقوانين البلاد.
هناك حل وسط بين ترك المال في البنك والمجازفة في عالم العملات الرقمية. ابدأ بمشاهدة هذا الفيديو المجاني عن التمويل اللامركزي.
إخلاء مسؤولية: المعلومات الواردة هنا ليست نصيحة استثمارية. Cryptopolitanموقع أي مسؤولية عن أي استثمارات تتم بناءً على المعلومات الواردة في هذه الصفحة. ننصحtrondentdentdentdentdentdentdentdent /أو استشارة مختص مؤهل قبل اتخاذ أي قرارات استثمارية.
دورة
- أي العملات المشفرة يمكن أن تدر عليك المال
- كيفية تعزيز أمانك باستخدام المحفظة الإلكترونية (وأي منها يستحق الاستخدام فعلاً)
- استراتيجيات استثمارية غير معروفة يستخدمها المحترفون
- كيفية البدء في الاستثمار في العملات المشفرة (أي منصات التداول التي يجب استخدامها، وأفضل العملات المشفرة للشراء، إلخ)














