Die Internet Watch Foundation (IWF) ist besorgt, dass die Verbreitung von KI-generiertem Material über sexuellen Kindesmissbrauch (CSAM) im Internet aufgrund der Fortschritte bei KI-Tools weiter zunehmen könnte.
Lesen Sie auch: KI-Deepfakes erschweren US-Behörden den Schutz von Kindern – Bericht
Die Sicherheitsbehörde hat darauf hingewiesen, dass es mit zunehmender Komplexität generativer KI-Tools immer schwieriger wird, zwischen echten Bildern oder Videos und gefälschten, KI-generierten Inhalten zu unterscheiden. Laut der Organisation wirken KI-generierte Bilder aus dem Jahr 2024 „realistischer“ als jene, die erstmals 2023 auftauchten.
Die Internet Watch Foundation verzeichnet einen Anstieg von CSAM (Computer-Sexual Assault Monitoring)
Die IWF befürchtet, dass vermehrt KI-generierte CSAM-Videos im Internet kursieren könnten, die Fortschritte in der KI-Technologie ausnutzen Tools einfacher zu bedienen und weiter verbreitet werden. Die Sicherheitsorganisation hat bereits einen Anstieg KI-generierter CSAM-Videos im Internet festgestellt.
Die Organisation hat bereits Fälle von Manipulation von CSAM (Children's Substance Animated Content) festgestellt, während in anderen Fällen Erwachsenenpornografie mit dem Gesicht eines Kindes verwendet wurde. Laut IWF (International Family Foundation) handelte es sich bei einigen der Inhalte um Videos mit einer Länge von etwa 20 Sekunden.
Der Chief Technology Officer des IWF, Dan Sexton, erklärte, dass die Chancen gut stünden, dass mehr KI-gestützte CSAM-Systeme entstehen würden, wenn KI-Videotools dem gleichen Trend wie KI-Bildgenerierungstools folgten, da sich die Technologie rasant entwickle.
„Ich würde vorsichtig sagen, dass wir, wenn sich die Entwicklung in den gleichen Bahnen fortsetzt, mehr Videos sehen werden“, sagte er.
Sexton fügte hinzu, dass die Chancen auch hoch seien, dass zukünftige KI-Videos von „höherer Qualität und größerem Realismus“ sein werden
Laut IWF-Analysten handelte es sich bei den meisten Videos, die die Organisation in einem Darknet-Forum für Pädophile überprüfte, um teilweise Deepfakes. In diesem Fall wurden frei verfügbare KI-Modelle aus dem Internet verwendet, um die Bilder, darunter auch die bekannter Opfer von sexuellem Kindesmissbrauch, in bestehenden Videos mit sexuellem Kindesmissbrauch und Erwachsenenpornografie zu manipulieren.
Die Organisation fand neun solcher Videos, während eine kleine Anzahl vollständig KI-generierter Videos von grundlegender Qualität war.
(1/4) #KI- generiertes Material zu sexuellem Kindesmissbrauch – Letztes Jahr gehörten wir zu den Ersten, die vor der Verbreitung realistischer , #KI -generierter Bilder von sexuellem Kindesmissbrauch warnten… pic.twitter.com/s4igkjHH78
— Internet Watch Foundation (IWF) (@IWFhotline) 22. Juli 2024
Die Aufsichtsbehörde will die Herstellung von CSAM unter Strafe stellen
Die IWF setzt sich nun für Gesetze ein, die die Herstellung solcher Inhalte unter Strafe stellen, einschließlich der Erstellung von Anleitungen zu deren Produktion. Auch die Entwicklung von Werkzeugen und Plattformen, die die Erstellung von CSAM ermöglichen, sollte unter Strafe gestellt werden.
Dies geschieht vor dem Hintergrund einer in diesem Jahr durchgeführten Studie in einem einzigen Darknet-Forum, die ergab, dass innerhalb eines Monats 12.000 neue, KI-generierte Bilder veröffentlicht wurden.
Laut IWF waren neun von zehn dieser Bilder realistisch, und sie könnten nach den gleichen britischen Gesetzen, die auch für echten CSAM gelten, strafrechtlich verfolgt werden.
Lesen Sie auch: Mann aus Texas wegen Kauf von Kinderpornografie mit Kryptowährung verurteilt
Das Nationale Zentrum für vermisste und ausgebeutete Kinder (NCMEC) gab letztes Jahr bekannt, erhalten zu haben , die KI auf unterschiedliche Weise nutzten, beispielsweise um mithilfe von Texteingaben Bilder von Kindesmissbrauch zu erstellen. In einigen Fällen veränderten die Täter bereits hochgeladene Bilder, um sie sexuell explizit und missbräuchlich zu gestalten.
IWF-CEO Susie Hargreaves betonte die Notwendigkeit, generative KI-Tools zu regulieren, um die Verbreitung von CSAM einzuschränken.
„Ohne angemessene Kontrollmechanismen bieten generative KI-Tools Online-Pädophilen eine Spielwiese, um ihre perversesten und widerwärtigsten Fantasien auszuleben“, sagte Hargreaves.
Hargreaves fügte hinzu, dass die IWF zunehmend feststelle, dass CSAM auf kommerziellen Websites für sexuellen Kindesmissbrauch geteilt und verkauft werde.
Laut The Guardian gab eine andere Organisation, die eine Hotline zur Meldung von Missbrauch betreibt, bekannt, dass sie KI-generiertes CSAM auf Online-Plattformen zum Verkauf durch Täter gefunden hat.

