Die schiere Menge an sexuell expliziten KI-generierten Deepfakes von Kindern erschwert es den US-amerikanischen Strafverfolgungsbehörden, echte Kinder in Not von simulierten Fällen zu unterscheiden, warnen Staatsanwälte und Kinderschutzorganisationen. Die Bilder seien so lebensecht, dass es schwierig geworden sei, festzustellen, ob tatsächlich Kinder missbraucht wurden, berichtet der Guardian.
Lesen Sie auch: Der von ChatGPT betriebene Teddybär Poe liest Kindern Gutenachtgeschichten vor
Kristina Korobov, leitende Anwältin der in Minnesota ansässigen Kinderschutzorganisation Zero Abuse Project, berichtet, dass der Gruppe vermehrt Berichte über mithilfe von KI erstellte Bilder echter Kinder aufgefallen sind, die nicht sexuell missbraucht wurden. „Doch nun prangt ihr Gesicht auf dem Gesicht eines missbrauchten Kindes“, erklärt sie.
Ein Staatsanwalt des US-Justizministeriums sagt, dass wir aufgrund von KI „ertrinken“
„Manchmal erkennen wir die Bettwäsche oder den Hintergrund in einem Video oder Bild, den Täter oder die Serie, aus der es stammt, aber jetzt wird das Gesicht eines anderen Kindes darauf abgebildet“, sagte Korobov laut Guardian.
KI-Modelle können täglich Tausende von Bildern und Videos erzeugen, die echten Fotos täuschend ähnlich sehen. Laut dem Bericht erleichtert dies Pädophilen die Nutzung dieser Technologie, um anstößige Inhalte im Darknet und im normalen Internet zu verbreiten.
Für die Behörden ist es zu einem Albtraum geworden. „Aus Sicht der Strafverfolgungsbehörden gehören Verbrechen gegen Kinder zu den ressourcenärmsten Bereichen, und es wird eine Flut von KI-generierten Inhalten geben“, sagte ein Staatsanwalt des US-Justizministeriums und fügte hinzu:
„Wir ertrinken schon jetzt in diesem Zeug.“
Das US-amerikanische Nationale Zentrum für vermisste und ausgebeutete Kinder ( NCMEC ) berichtet, dass die Meldungen über Online-Kindesmissbrauch im Jahr 2023 um 12 % auf 36,2 Millionen gestiegen sind. Während sich die meisten Meldungen auf die Verbreitung von Fotos und Videos von sexuell missbrauchten Kindern bezogen, gingen beim Zentrum auch 4.700 Meldungen über KI-generierte Deepfake-Bilder oder -Videos ein, die die sexuelle Ausbeutung von Kindern thematisieren.
Laut NCMEC gehört die Bearbeitung vorhandener Online-Bilder, um diese explizit zu machen, zu den häufigsten Methoden, mit denen Pädophile KI einsetzen. Kriminelle nutzen außerdem generative KI-Chatbots, die detaillierte Anweisungen zur Rekrutierung von Kindern für Missbrauchszwecke geben.
Die derzeitigen Gesetze reichen in Bezug auf KI-Deepfakes nicht weit genug
Es scheint eine Lücke in der Definition von Straftat zu geben. In vielen Rechtsordnungen ist der Besitz von Bildern, die Kinder sexuell objektivieren, strafbar, doch die Gesetze sind noch nicht so weit, KI-generierte Bilder einzubeziehen.
„Bei Anklagen im Bundesrechtssystem“, sagte der Staatsanwalt des Justizministeriums, „ändert KI nichts daran, was wir strafrechtlich verfolgen können, aber es gibt viele Bundesstaaten, in denen man nachweisen muss, dass es sich um ein reales Kind handelt.“ Der Staatsanwalt fügte hinzu:
„Streitigkeiten über die Echtheit von Bildern werden im Prozess Probleme verursachen. Wenn ich Verteidiger wäre, würde ich genau das argumentieren.“
Selbst wenn die Gesetze verabschiedet werden, wird die entsprechende Technologie zur Verbrechensbekämpfung weiterhin benötigt, und derzeit besteht hier eine große Lücke. Kinderschutzorganisationen warnten davor, dass die Polizeibehörden mit Anfragen überflutet werden dürften.
Lesen Sie auch: UN-Chef warnt: KI erhöht die Wahrscheinlichkeit eines Atomkriegs
Laut einem Bericht des Guardian begannen mit KI erzeugte sexuell explizite Bilder von Kindern etwa ab dem Jahr 2022 online immer häufiger aufzutauchen
Das NCMEC wirft KI-Unternehmen vor, nicht genug gegen die Entstehung und Verbreitung ausbeuterischer Inhalte zu unternehmen. Im vergangenen Jahr hätten lediglich fünf KI-Firmen freiwillig Berichte an das Zentrum übermittelt. Im Vergleich dazu hätten 70 % der Social-Media-Plattformen ihre Berichte veröffentlicht.

