Das US-Handelsministerium unter der Biden-Administration plant eine neue Initiative zur weiteren Einschränkung des Exports von Open-Source- und proprietären KI-Modellen. Ziel dieser Initiative ist der Schutz der US-Interessen und der KI-Technologie vor Russland und China. Sie ergänzt die in den letzten zwei Jahren ergriffenen Maßnahmen zur Blockierung des chinesischen Zugangs zu modernsten Computerchips.
Laut einem Reuters-Bericht, der sich auf drei mit der Angelegenheit vertraute Quellen beruft, zielen die US-Bemühungen darauf ab, die Kernsoftware großer Sprachmodelle, die Anwendungen wie ChatGPT ermöglichen, stärker zu schützen. Während Reuters behauptet, dass Forscher aus dem privaten Sektor und der Regierung befürchten, dass US-Gegner die Technologie für aggressive Cyberangriffe und die Entwicklung biologischer Waffen nutzen könnten, hat die chinesische Botschaft den Schritt als einseitige Nötigung und wirtschaftlichen Druck kritisiert.
Deepfakes sind eine tödliche Desinformationswaffe
Die USA fürchten zahlreiche Bedrohungen, die von nichtstaatlichen Akteuren mit staatlicher Unterstützung ausgehen können. Deepfakes eignen sich als wirksame Propagandawaffe, da sie realistische, aber mithilfe von KI-Tools erstellte, gefälschte Videos verwenden.
Diese Art von Videos taucht bereits in den sozialen Medien auf. Zwar gibt es solche Medieninhalte schon seit einigen Jahren, erstellt mit Animations- und Rendering-Software, doch generative KI-Tools haben die Produktion für jedermann vereinfacht, und skrupellose Akteure können sie leichter denn je nutzen, um die öffentliche Meinung zu sensiblen Themen, insbesondere während Wahlkämpfen, zu manipulieren.
Soziale Medien wie YouTube, Facebook und Twitter haben bereits Maßnahmen ergriffen, um Deepfakes einzudämmen. Die Methoden zu ihrer Entwicklung und Verbreitung verändern sich jedoch mit dem technologischen Fortschritt. Aktuell können Tools von Unternehmen wie Microsoft und OpenAI genutzt werden, um Inhalte zur Verbreitung von Desinformation zu erstellen.
Eine weitaus größere Sorge besteht laut Forschern der Rand Corporation und von Gryphon Scientific darin, dass KI-Modelle Informationen zur Entwicklung biologischer Waffen preisgeben können. US-Geheimdienste, akademische Experten und Thinktanks befürchten, dass KI in die Hände von Schurken gerät.
Die Gryphon-Studiedent, wie LLM-Absolventen Expertenwissen und Wissen auf Doktorandenniveau hervorbringen können, das zur Entwicklung von Viren mit pandemischen Fähigkeiten beitragen kann und von nichtstaatlichen Akteuren als biologische Waffen eingesetzt werden kann.
Verstärkte Cyberangriffe durch KI-Modelle
Das US-Heimatschutzministerium äußerte zudem Bedenken, dass Cyberangriffe auf kritische Infrastrukturen wie Eisenbahnen und Pipelines mithilfe von KI durchgeführt werden könnten, indem neue Werkzeuge entwickelt werden, die in der Lage sind, Cyberangriffe in größerem Umfang und komplexer und schneller durchzuführen.
Die Behörde gab außerdem an, dass China künstliche Intelligenz-Software entwickle, die für Malware-Angriffe eingesetzt werden könne, und dass es auch an KI-Technologien arbeite, die potenziell die Cyberabwehr des Landes sabotieren könnten.

Bereits im Februar veröffentlichte Microsoft einen Bericht, in dem das Unternehmen feststellte, dass es Cybergruppendenthat, die an Hacking-Aktivitäten beteiligt sind und ihre Hacking-Kampagnen mithilfe von LLMs perfektionieren. Diese Gruppen unterhalten Verbindungen zum Militärgeheimdienst Russlands, den Regierungen Nordkoreas und Chinas sowie den Revolutionsgarden des Iran.
Das Unternehmen kündigte ein Verbot für staatlich finanzierte Cybergruppen , die seine KI-Produkte und -Dienstleistungen nutzen. Am Mittwoch legte eine Gruppe von Politikern einen Gesetzentwurf vor, der die Biden-Regierung bei der Durchsetzung von Exportkontrollen für KI-Modelle unterstützen soll, um deren Zugriff durch potenzielle Gegner zu verhindern.
Experten zufolge versucht Washington, übermäßige Regulierungen zu vermeiden, die Innovationen hemmen könnten, und gleichzeitig Innovationen sowie mögliche Lösungen für die mit KI verbundenen Risiken zu fördern. Sie betonten zudem, dass eine zu strenge Regulierung des KI-Fortschritts ein Vakuum für ausländische Wettbewerber schaffen und sich negativ auf Infrastruktur, nationale Sicherheit und die Arzneimittelforschung auswirken würde.

