Wenn die Absicht falsch ist, kann künstliche Intelligenz in den falschen Händen zu einem tödlichen Werkzeug werden. Stellen Sie sich vor, Sie haben Nachtdienst und erhalten einen Anruf von zu Hause, dass ein Mann mit einer Waffe vor Ihrer Tür steht. Ihre gesamte Familie befindet sich im Haus. Wie würden Sie sich fühlen, und wen würden Sie bevorzugen? Einen Kriminellen oder einen Polizisten?
Dasselbe gilt für KI, die bereits an unsere Türen klopft – oder besser gesagt, in unsere Häuser eingedrungen ist. Wir alle kennen ChatGPT, oder? Doch die KI, die hinter ChatGPT steckt, hat auch eine dunkle Seite, die weitaus finsterer ist, als wir denken. Willkommen im Darknet. Es gibt zahlreiche KI-Tools, die ChatGPT ähneln, aber speziell für die kriminellen Machenschaften des Marktes entwickelt wurden. Beispiele hierfür sind BadGPT und FraudGPT. Experten zufolge wird Cyberkriminalität, insbesondere E-Mail-Phishing, in den kommenden Jahren weiter zunehmen.

Was genau sind BadGPTs und ähnliche Begriffe?
Hierbei handelt es sich im Grunde Chatbots , jedoch nicht um die, die Sie täglich für Ihre Routineaufgaben nutzen. Diese unzensierten Chatbots funktionieren ohne jegliche Sicherheitsvorkehrungen und stehen Kunden zur Verfügung, die sie nach ihren eigenen Bedürfnissen einsetzen möchten. Sie werden häufig für Phishing-E-Mails oder die Entwicklung von Schadsoftware für Cyberangriffe verwendet, um Hackern die Arbeit zu erleichtern. Unternehmen sind durch das Aufkommen dieser Dienste in höchster Alarmbereitschaft und einem größeren Risiko als je zuvor ausgesetzt.
Forscher der Indiana University haben kürzlich über 200 Hacking-Dienste entdeckt, die große Sprachmodelle (KI) nutzen und bereits auf dem Markt sind. Die ersten dieser Dienste tauchten Anfang 2023 auf, und seitdem ging es rasant bergauf.

Die meisten dieser Tools für den Darknet-Markt nutzen Open-Source-KI-Modelle oder gecrackte Versionen von Programmen wie Anthropic. Mithilfe einer Technik namens Prompt Injection werden diese Modelle manipuliert und ihre Sicherheitsfilter umgangen, sodass Hacker sie ohne jegliche Sicherheitsprüfungen einsetzen können.
Ein Sprecher von OpenAI erklärte, dass sein Unternehmen sein Bestes tue, um seine Produkte vor missbräuchlicher Verwendung zu schützen, und dass dies der Fall sei
„Wir arbeiten ständig daran, wie wir unsere Systeme widerstandsfähiger gegen diese Art von Missbrauch machen können.“
Quelle: WSJ
Die negativen Auswirkungen von BadGPT und wie man sich davor schützen kann
Sie fragen sich vielleicht, ob diese Taktiken wirklich effektiv sind und ob sie jemanden tatsächlich überzeugen können. Fakt ist jedoch, dass mit diesen Tools verfasste betrügerische E-Mails schwer zu erkennen sind und Hacker ihre Modelle anhand von Erkennungstechniken trainieren, die sie aus Cybersicherheitssoftware gewinnen.
In einem kürzlich geführten Interview mit govttech äußerte Jeff Brown, CISO (Chief Information Security Officer) des Bundesstaates Connecticut, seine Besorgnis darüber, dass BadGPT und FraudGpt bei Cyberkriminalität eingesetzt werden, und sagte, dass es einen deutlichen Anstieg von Betrugsfällen per E-Mail gebe.

Man kann sich vor solchen Angriffen schützen, indem man besonders vorsichtig ist, wenn man seine persönlichen Daten weitergibt. Geben Sie Ihre Informationen nicht offen preis, weder gegenüber Personen noch auf Webseiten, es sei denn, es ist unbedingt notwendig – und selbst dann nur mit Vorsicht. Überprüfen Sie die Webseite immer zuerst, bevor Sie Ihre Daten preisgeben, da bösartige Seiten heutzutage sehr professionell wirken und keinerlei Anzeichen von Schadsoftware erkennen lassen.

