Cyberkriminelle nutzen künstliche Intelligenz, um immer komplexere Betrugsmaschen durchzuführen. Sie zielen auf alles ab, von Altersvorsorgegeldern bis hin zu Firmengeheimnissen, und ihre Methoden werden immer schwerer zu erkennen.
Dieselbe Technologie, die Werbung auf Online-Käufer zuschneidet, wird nun von Betrügern genutzt, um persönliche Daten zu sammeln und blitzschnell maßgeschneiderte Betrugsmaschen zu starten. Wirklich blitzschnell.
Führende KI-Unternehmen wie Anthropic, OpenAI und Google berichten, dass Kriminelle ihre Plattformen missbrauchen, um komplexe Phishing-Angriffe durchzuführen, Schadsoftware zu entwickeln und diverse Cyberangriffe auszuführen. Sicherheitsexperten warnen zudem davor, dass Kriminelle gefälschte Audio- und Videoclips von Unternehmensleitern erstellen, um Mitarbeiter zur Preisgabe sensibler Informationen zu verleiten.
Unternehmen und Regierungsbehörden könnten schon bald mit Schwärmen von KI-gestützten Systemen konfrontiert sein, die Schwachstellen in Computernetzwerken aufspüren und dann Angriffe fast ohne menschliche Hilfe planen und durchführen können.
Die Technologie verändert die Vorgehensweise von Kriminellen im Internet. Alice Marwick leitet die Forschungsabteilung von Data & Society, einemdent Technologieforschungsinstitut. Gegenüber dem Wall Street Journal erklärte sie, die größte Veränderung liege in Umfang und Reichweite. „Der eigentliche Wandel betrifft Ausmaß und Umfang. Betrugsmaschen sind größer, gezielter und überzeugender.“
Brian Singer istdent an der Carnegie Mellon University. Er erforscht den Einsatz großer Sprachmodelle bei Cyberangriffen und -abwehrmaßnahmen. Seine Schätzung: Die Hälfte bis drei Viertel aller weltweiten Spam- und Phishing-Nachrichten stammen mittlerweile von KI-Systemen.
Die Angriffe selbst wirken immer glaubwürdiger. KI-Systeme, die mit Unternehmenskommunikation trainiert wurden, können Tausende von Nachrichten generieren, die natürlich klingen und dem Stil des Unternehmens entsprechen. Sie imitieren den Schreibstil von Führungskräften und beziehen sich auf aktuelle, öffentlich zugängliche Nachrichten.
Die Technologie hilft ausländischen Betrügern auch dabei, sprachliche Fehler zu verbergen, die ihre Betrugsversuche früher verraten hätten. Kriminelle können sich mithilfe gefälschter Videos und kopierter Stimmen. Sie nutzen dieselbe falschedent, um mehrere Personen gleichzeitig anzugreifen.
John Hultquist ist Chefanalyst bei der Google Threat Intelligence Group. Er beschreibt die wichtigste Veränderung als „Glaubwürdigkeit in großem Umfang“
Kriminelle werden auch immer besser darin, ihre Opfer auszuwählen. Sie nutzen KI, um soziale Medien zu durchsuchen und Menschen in schwierigen Lebenslagen aufzuspüren. Dazu gehören Scheidung, Todesfälle in der Familie, Arbeitsplatzverlust und Situationen, die jemanden anfälliger für Liebesbetrug, Anlagebetrug oder gefälschte Stellenangebote machen.
Darknet-Märkte senken die Markteintrittsbarrieren
Die Einstiegshürden für Cyberkriminalität sind gesunken. Auf Untergrundmärkten verkauft KI-Tools für kriminelle Zwecke bereits ab 90 US-Dollar pro Monat
Er erklärte, dass diese Plattformen unterschiedliche Preisstufen und Kundensupport anbieten. „Entwickler verkaufen Abonnements für Angriffsplattformen mit gestaffelten Preisen und Kundensupport.“
Diese Dienste treten unter Namen wie WormGPT, FraudGPT und DarkGPT auf. Sie können Schadsoftware und Phishing-Kampagnen erstellen. Einige bieten sogar Lehrmaterialien zu Hacking-Techniken an.
Margaret Cunningham istdent für Sicherheits- und KI-Strategie bei Darktrac, einem Sicherheitsunternehmen. Sie sagt, es sei ganz einfach: „Man muss nicht programmieren können, sondern nur wissen, wo man das entsprechende Tool findet.“
Eine neue Entwicklung namens vibevibevibe vibevibevibevibe vibevibe-Hacking könnte es angehenden Kriminellen ermöglichen, mithilfe von KI eigene Schadprogramme zu erstellen, anstatt diese aus dem Untergrund zu beziehen. Anthropic gab Anfang des Jahres bekannt, mehrere Versuche von „Kriminellen mit geringen technischen Kenntnissen“ vereitelt zu haben, die KI Claude zur Erstellung von Ransomware zu nutzen.
Die kriminellen Machenschaften selbst verändern sich. Laut Experten funktioniert Cyberkriminalität seit Jahren wie ein Marktplatz. Eine typische Ransomware-Aktion involviert verschiedene Gruppen: Zugangsvermittler, die in Unternehmensnetzwerke eindringen und Zugang verkaufen; Eindringlingsteams, die sich durch Systeme bewegen und Daten stehlen; und Ransomware-as-a-Service-Anbieter, die die Schadsoftware verbreiten, die Verhandlungen führen und das Lösegeld aufteilen.
Geschwindigkeit und Automatisierung verändern kriminelle Netzwerke
(KI) hat die Geschwindigkeit, den Umfang und die Verfügbarkeit dieses Systems erhöht. Arbeiten, die zuvor von Fachkräften ausgeführt wurden, können nun automatisiert werdenmaticDadurch können diese Gruppen mit weniger Personal, geringerem Risiko und höheren Gewinnen arbeiten. „Man kann es sich als die nächste Stufe der Industrialisierung vorstellen. KI steigert den Durchsatz, ohne dass mehr Fachkräfte benötigt werden“, erklärt Christin.
Kann KI Angriffe völlig selbstständig durchführen? Noch nicht ganz. Experten vergleichen die Situation mit der Entwicklung vollautonomer Fahrzeuge. Die ersten 95 % sind erreicht. Doch der letzte Schritt, der es einem Auto ermöglichen würde, jederzeit und überall selbstständig zu fahren, ist noch nicht in Sicht.
Forscher testen die Hacking-Fähigkeiten von KI in Laborumgebungen. Ein Team der Carnegie Mellon University, unterstützt von Anthropic, nachgestellt . Singer leitete die Arbeiten am CyLab Security and Privacy Institute der Carnegie Mellon University. Er bezeichnet dies als „einen großen Fortschritt“.
Kriminelle nutzen KI für schädliche Zwecke. KI-Unternehmen argumentieren jedoch, dass dieselben Tools Organisationen dabei helfen können, ihre digitale Verteidigung zu stärken.
Anthropic und OpenAI entwickeln KI-Systeme, die Softwarecode kontinuierlich auf Schwachstellen untersuchen, die Kriminelle ausnutzen könnten. Korrekturen müssen jedoch weiterhin von Menschen freigegeben werden. Ein kürzlich von Forschern der Stanford University entwickeltes KI-Programm schnitt bei der Suche nach Sicherheitsproblemen in Netzwerken besser ab als einige menschliche Tester.
Auch KI wird nicht alle Sicherheitslücken verhindern. Deshalb müssen sich Unternehmen laut Hultquist darauf konzentrieren, robuste Netzwerke zu schaffen, die auch während Angriffen funktionsfähig bleiben.

