Ein überparteilicher Gesetzentwurf mit dem Titel „AI Fraud Deterrence Act“ wurde von zwei Abgeordneten eingebracht und zielt darauf ab, den zunehmenden Missbrauch künstlicher Intelligenz bei Betrugsfällen, insbesondere solchen mit Deepfakes, die auf Bundesbeamte abzielen, zu bekämpfen.
Diese Gesetzgebung zielt darauf ab, die bestehenden US-Betrugsgesetze zu modernisieren, um der Rolle Rechnung zu tragen, die die Technologie der künstlichen Intelligenz bei jüngsten aufsehenerregendendentgespielt hat, bei denen KI-generierte Audio- oder Videodateien Beamte oder die Öffentlichkeit getäuscht haben.
Mehr zum überparteilichen Gesetzentwurf
Der von den Abgeordneten Ted Lieu (Demokrat aus Kalifornien) und Neal Dunn (Republikaner aus Florida) eingebrachte Gesetzentwurf, zwei Gesetzgeber, die genug haben von der Leichtigkeit und Dreistigkeit, mit der Kriminelle heutzutage KI für ihre betrügerischen Machenschaften einsetzen, zielt darauf ab, die Strafen für KI-Betrug und die Nachahmung von Bundesbeamten mithilfe von KI unter Strafe zu stellen.
„Da sich die KI-Technologie rasant weiterentwickelt, müssen auch unsere Gesetze Schritt halten“, erklärte Dunn in einer Stellungnahme zur Ankündigung des Gesetzentwurfs. „Das Gesetz zur Bekämpfung von KI-Betrug verschärft die Strafen für Betrugsdelikte, die mithilfe von KI begangen werden. Ich bin stolz darauf, diesen Gesetzentwurf mitinitiiert zu haben, um diedentder Öffentlichkeit zu schützen und den Missbrauch dieser innovativen Technologie zu verhindern.“
Lieu stimmt dem zu und sagte letzte Woche gegenüber NBC News, dass die Mehrheit der Amerikaner „vernünftige Leitplanken für KI“ wolle, da sie einen „völligen Wilden Westen“ nicht für hilfreich halte.
Dem Gesetzesentwurf soll die Höchststrafe für Betrug von 1 Million auf 2 Millionen US-Dollar verdoppelt werden, wenn KI vorsätzlich zur Begehung der Straftat eingesetzt wird. Zudem würde KI-gestützte Täuschung in die Definitionen von Post- und Überweisungsbetrug aufgenommen defi wodurch Personen, die KI für beide Betrugsarten nutzen, strafrechtlich verfolgt werden könnten.
In beiden Fällen drohen Kriminellen Geldstrafen in Millionenhöhe und Haftstrafen von bis zu zwei Jahrzehnten für Postbetrug und drei Jahren für Überweisungsbetrug.
Der Entwurf missbilligt auch die Nachahmung von Bundesbeamten mithilfe von KI-Deepfakes und hebt Fälle hervor, in denen KIs eingesetzt wurden, um Anfang dieses Jahres die Stabschefin des Weißen Hauses, Susie Wiles, und Außenminister Marco Rubio nachzuahmen.
Betrug gibt es, seit es Menschen gibt, aber Experten sagen, dass dank KI die Qualität der betrügerischen Ergebnisse gestiegen ist.
Im Dezember warnte das FBI, dass „generative KI den Zeit- und Arbeitsaufwand reduziert, den Kriminelle aufwenden müssen, um ihre Ziele zu täuschen“, und fügte hinzu, dass KI „menschliche Fehler korrigieren kann, die andernfalls als Warnzeichen für Betrug dienen könnten“.
Maura R. Grossman, Forschungsprofessorin für Informatik an der Universität Waterloo in Ontario und Anwältin, glaubt ebenfalls, dass KI eine neue Ära der Täuschung ermöglicht: „KI bietet ein Ausmaß, einen Umfang und eine Geschwindigkeit für Betrug, die sich sehr, sehr von Betrugsfällen in der Vergangenheit unterscheiden.“
KI-Modelle sind fortschrittlicher geworden.
Dass es Kriminalität begünstigt, ist jedoch nicht das größte Problem. Beobachter befürchten nun, dass bestehende Institutionen wie die Gerichte Schwierigkeiten haben, mit der rasanten Entwicklung im KI-Sektor Schritt zu halten.
„KI-Jahre sind Hunde-Jahre“, sagte Hany Farid, Professor für Informatik an der University of California, Berkeley, und Mitbegründer von GetReal Security, einem führenden Unternehmen für digitale Medienauthentifizierung, über die Geschwindigkeit des KI-Fortschritts.
Früher war es nicht allzu schwierig, KI-generierte Inhalte von realen Inhalten zu unterscheiden, insbesondere bei Bildern; heute sind sie jedoch deutlich fortschrittlicher geworden, und selbst die erfahrensten Nutzer haben Schwierigkeiten festzustellen, ob ein Medienbeitrag echt oder generiert ist.
Die Warnung des FBI im Dezember riet dazu, auf Unstimmigkeiten in Bildern und Videos zu achten, um KI-generierte Mediendent: „Achten Sie auf subtile Unvollkommenheiten in Bildern und Videos, wie zum Beispiel verzerrte Hände oder Füße.“
Farid hält diesen alten Rat jedoch für falsch und sogar schädlich. „Der Trick mit den mehreren Händen funktioniert nicht mehr“, sagte Farid. „Man kann nicht nach Händen oder Füßen suchen. Nichts davon bringt etwas.“
Der von Lieu und Dunn eingebrachte Gesetzentwurf unterstreicht die Wichtigkeit der Kennzeichnung KI-generierter Inhalte. Er stellt außerdem klar, dass KI-generierte Medien einen bestimmten Zweck erfüllen müssen. Wird ein Inhalt beispielsweise als satirisch gekennzeichnet, verdeutlicht dies, dass er nicht authentisch ist und daher nicht strafrechtlich verfolgt wird.

