تتجه الحكومة البريطانية إلى تشديد اللوائح المتعلقة باستخدام برامج الدردشة الآلية التي تعمل بالذكاء الاصطناعي لحماية الأطفال بشكل أفضل من المحتوى الضار وغير القانوني.
كشف رئيس الوزراء كير ستارمر عن آلية لسدّ ثغرة قانونية سمحت لمزوّدي برامج الدردشة الآلية بالعمل خارج نطاق قوانين السلامة الإلكترونية الرئيسية. ستُلزم هذه الآلية الشركات التي تُصمّم وتُشغّل برامج الدردشة الآلية المدعومة بالذكاء الاصطناعي بالتصدي بفعالية للمحتوى غير القانوني وضمان سلامة منصاتها للمستخدمين الصغار.
تزعم الحكومة الآن أنها ستُغيّر آلية تطبيق قانون السلامة على الإنترنت، وستُحدد كيفية امتثال برامج الدردشة الآلية للقانون. صُمّم هذا القانون في مراحل مبكرة من عملية إقراره، لكنه كان مُكيّفًا بشكل أساسي مع متطلبات منصات التواصل الاجتماعي والمنتديات العامة التي يُمكن للأفراد نشر محتواهم فيها. لم يحظَ مُشغّلو برامج الدردشة الآلية الخاصة التي تعمل بالذكاء الاصطناعي، ولا مُستخدموها، بتغطية مُتساوية، ولا تزال مسؤولياتهم غير واضحة. وقد وعد ستارمر بسدّ هذه الثغرة القانونية قريبًا.
حذّر من أن شركات برامج الدردشة الآلية يجب أن تلتزم بنفس الالتزامات القانونية التي تلتزم بها الشركات الأخرى على الإنترنت، وإلا ستُعاقب. وتقول الحكومة إن هذا التغيير يجب أن يضمن قيام مزودي برامج الدردشة الآلية بمراقبة أنظمتهم بشكل فعّال وحجب المحتوى غير القانوني. وقبل إعلانه، قال ستارمر إنه لن يتم استثناء أي شركة تقنية من القانون.
تخشى الحكومة أيضاً من أن يؤدي اختلاف معاملة روبوتات الدردشة المدعومة بالذكاء الاصطناعي عن منصات التواصل الاجتماعي إلى جعل الأطفال عرضةً لمحتوى ضار أو غير لائق. ويعتقد المسؤولون أنه لكي تصل روبوتات الدردشة المدعومة بالذكاء الاصطناعي إلى جمهورها المستهدف، ولا سيما المراهقين والشباب، فمن الضروري توفير حماية أقوى لهم.
صلاحيات جديدة لمواجهة التكنولوجيا سريعة التغير
إضافةً إلى سدّ الثغرات القانونية ، ستمنح الحكومة صلاحيات جديدة تُمكّن من اتخاذ إجراءات أسرع عند ظهور المخاطر. فبدلاً من انتظار البرلمان لإقرار قوانين جديدة بالكامل، ستستجيب الجهات التنظيمية للتكنولوجيا بشكل أسرع.
هذه طريقة لضمان مواكبة إجراءات الحماية للتطور السريع في مجال الذكاء الاصطناعي. تتطور أدوات الذكاء الاصطناعي بسرعة وتتوسع لتشمل مجالات جديدة. ونتيجة لذلك، قد تظهر المخاطر فجأة، مما يستدعي من الجهات التنظيمية التحلي بالمرونة اللازمة للتعامل معها.
أشار ستارمر مؤخراً إلى مخاطر المحتوى الضار الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، مثل الحالات التي يتم فيها تسخير التكنولوجيا لإنشاء صور جنسية للأشخاص دون موافقتهم.
وصف هذه الاستخدامات بأنها غير مقبولة، وقال إنه يجب تطبيق القوانين الحالية ضدها. وقالت الحكومة إن تحسين تطبيق القوانين سيجبر الشركات على تصميم أنظمة أكثر أماناً منذ البداية.
قد تشمل هذه الإجراءات حماية مُدمجة في برامج الدردشة الآليةdentالمحتوى غير القانوني ومنعه قبل أن يراه المستخدمون. كما ستتحمل شركات التكنولوجيا مسؤولية سلوك أنظمة الذكاء الاصطناعي الخاصة بها.
وهذا يعني أنهم بحاجة إلى مراقبة المخرجات، وتعزيز ميزات السلامة لجعل الأنظمة أكثر أمانًا، والاستجابة بسرعة عند اكتشاف الأعطال.
الحكومة تتحرك لحماية الأطفال من الأذى
يُعدّ تشديد الرقابة على برامج الدردشة الآلية المدعومة بالذكاء الاصطناعي جزءًا من التحدي الأكبر المتمثل في سلامة الأطفال على جميع المنصات الرقمية تقريبًا. وتدرس الحكومة اتخاذ إجراءات جديدة من شأنها الحدّ من المخاطر بشكل أكبر.
من بين المقترحات قيد الدراسة اشتراط بلوغ المستخدمين سنًا معينة للوصول إلى وسائل التواصل الاجتماعي. كما يبحث المسؤولون في كيفية تأثير تقييد ميزات مثل التمرير اللانهائي على تشجيع الإفراط في استخدام الشاشات، بالإضافة إلى صعوبة ابتعاد الشباب عن المحتوى الضار أو الإدماني .
قد تأتي هذه التغييرات بعد مشاورات عامة حول سلامة الأطفال على الإنترنت. يشعر الآباء والمعلمون وخبراء السلامة بالقلق إزاء تأثير المنصات الرقمية على الصحة النفسية للشباب ومدى تعرضهم للمحتوى غير اللائق.
يتمثل الهدف الأوسع للحكومة في خلق بيئة إلكترونية أكثر أماناً حيث يمكن للأطفال الاستفادة من التكنولوجيا دون التعرض لأضرار جسيمة.

