COMING SOON: A New Way to Earn Passive Income with DeFi in 2025 LEARN MORE

Der Aufstieg bösartiger KI-Chatbots: Bedrohungsakteure setzen auf „Hackbots“

In diesem Beitrag:

  • Hacker mieten KI-Chatbots für Cyberangriffe.
  • Bots werden für Phishing, Malware und Exploits eingesetzt.
  • Hohe Lautstärke, aber Wirksamkeit umstritten.

Die Welle der KI- Popularität hat sowohl diejenigen erfasst, die gute Absichten haben, als auch diejenigen mit Absichten, die möglicherweise unheilvoller sind. Sicherheitsexperten schlagen Alarm und weisen darauf hin, dass die Verwendung solcher Modelle, der Generierung bösartiger Texte oder „Hackbots“, mittlerweile bei Bedrohungsakteuren weit verbreitet ist. Bei abonnementbasierten Diensten hat es das Niveau eines schlüsselfertigen Dienstes erreicht.

Cyberkriminelle nutzen KI-Tools

Einerseits haben Cybersicherheitsexperten schnell das Potenzial KI-gestützter Tools zum besseren Schutz ihrer Systeme erkannt. Auch Bedrohungsakteure zeigen eine ebenso große Bereitschaft, diese Technologien zu nutzen, um Sicherheitslücken auszunutzen, die ihre Angreifer hinterlassen. In den letzten Jahren ist die Zahl der KI-Anwendungen, die von böswilligen Akteuren genutzt werden, exponentiell gestiegen, was die Aufmerksamkeit der Sicherheitsteams auf einen ausreichenden Ansatz zur Abwehr KI-bezogener Bedrohungen gelenkt hat.

Andererseits wiesen britische Cybersicherheitsspezialisten auch darauf hin, dass KI ein aufkommendes neues Risiko darstellt, das Neuland mit sich bringt und dessen Natur sich ständig verändert. NCSC prognostiziert, dass 2024, das erste Quartal, das größte sein wird, und hat die Rekorde von 2022 und 2023 erfolgreich übertroffen. Die cleveren Kriminellen nutzten ebenfalls Sprachmodelle für Social Engineering, bei denen es darum ging, Prominente mithilfe von Phishing-Schemata in eine Video- oder Audioumgebung zu platzieren oder Spracherkennungsgeräte. Vascut Jakkal, Vizepräsident dent dieser Tools, sondern ihre zunehmende Verbreitung zum Knacken von Passwörtern, die zehnfach mit dem Wachstum von i dent stadtbezogene Angriffe.

Einige Experten sind darüber hinaus zu dem Schluss gekommen, dass Chatbots eine eindeutige Phrase verwenden, um aktiv Malware zu entwickeln. Tatsächlich haben öffentlich zugängliche Dienste wie ChatGPT und Gemini Schutzmaßnahmen implementiert, um ihren Missbrauch für böswillige Zwecke zu verhindern. Allerdings haben Hacker viele Schutzmaßnahmen durch ausgefeilte und zeitnahe technische Techniken umgangen.

Siehe auch  südostasiatische Führer treffen sich, um China zu stärken, Golfkrawatten und Trump -Tarife entgegenzuwirken

Hackbot-as-a-Service: Der wachsende Trend in der Cyberkriminalität

Aktuellen Studien zufolge scheitern öffentlich sichtbare Sprachmodelle typischerweise daran, Software-Sicherheitsschwächen auszunutzen. Allerdings hat nur GPT-4 von OpenAI vielversprechende Funktionen gezeigt, da es ausführbare Dateien für bekannte Fehler erstellen konnte. Die oben genannten Einschränkungen scheinen wahrscheinlich die Produktion prototypischer bösartiger Chatbots gefördert zu haben, die Cyberkriminellen bei der Durchführung ihrer böswilligen Aktivitäten helfen sollen.  

Sie werden in den Foren und Marktplätzen des Dark Web beworben, die die Möglichkeit bieten, die Angreifer anzuheuern und auszunutzen und so einen Modell-Hackbot-as-a-Service voranzutreiben. Einer der jüngsten Blogbeiträge, die das Team von Trustwave SpiderLabs im August 2023 veröffentlichte, zeigt die zunehmende Menge bösartiger Sprachmodelle, die auf mehreren versteckten Web-Messageboards mit Gewinn gehostet werden.

Trustwave veröffentlichte im Juni 2021 das WormGPT-Modell, eines der bekannten bösartigen Sprachmodelle dieser Hacker. Dieser Ansatz kann bei Geräten auftreten, bei denen Bots Cyber-Angriffe durch dunkle, im Internet gehostete Hacking-Strukturen einschleusen. FraudGPT wurde im Juli 2023 erstellt und erstmals von Bedrohungsforschern bei Netenrich entdeckt, bevor es Telegram erreichte.

Mit diesen Tools können Angreifer Assets entwerfen, die für Social-Engineering-Angriffe wie Phishing-E-Mails, Deepfakes und Voice Cloning verwendet werden. Ihre Erfinder behaupten jedoch, ihr wirklicher Wert liege in der Ausnutzung von Schwachstellen. Sie ermöglichen es Hackern, Code über bestimmte Schwachstellen in diese Schadmodelle einzuschleusen, was theoretisch zu mehreren Proof-of-Concept-Exploits (PoC) führen könnte, die ein Angreifer ausprobieren kann.

Diese Produkte werden auf den verdeckten Märkten des Dark Web verkauft, wo Hackern eine monatliche Lizenzgebühr für die Nutzung des Hackbots berechnet wird, genau wie die Ransomware im Rahmen des Ransomware-as-a-Service (RAAS)-Modells geliefert wird, das direkt mit einem verbunden ist Ransomware-Komplex, mit dem viele Unternehmen heute konfrontiert sind.

Siehe auch  Jump Crypto kehrt als Markthersteller in Solana ?

Während WormGPT das erste groß angelegte bösartige Sprachmodell ist, das eingeführt wurde, folgten bald andere bösartige und unethische Sprachmodelle wie BlackHatGPT, XXXGPT und WolfGPT und bildeten ein neues Marktsegment des Cyber-Schwarzmarktes.

Die Wirksamkeit von Hackbots: Hype oder echte Bedrohung?

Im Gegensatz zu der von Trustwave durchgeführten Untersuchung, bei der die Effizienz der empfohlenen Tools getestet wurde, indem deren Ergebnisse mit denen legitimer Chatbots verglichen wurden, deuten die Ergebnisse darauf hin, dass ChatGPT effektiv zur Erstellung von Python-Malware eingesetzt werden kann die richtigen Anregungen. Dazu musste vor der Bereitstellung eine Nachricht an den Sachverständigen gesendet werden, in der behauptet wurde, dass es sich bei dem Code um einen White-Hat-Code handelte, und auch die Codeausgabe erforderte zusätzliche Änderungen.

ChatGPT kann möglicherweise echte Textnachrichten für Phishing-Angriffe weiterleiten, der Anweisungsbefehl sollte jedoch sehr spezifisch auf diesen Zweck ausgerichtet sein. ChatGPT basiert im Allgemeinen nur dann darauf, wenn Benutzer etwas Falsches verlangen. Aus diesem Grund können diese Chatbots als eine einfachere Methode für Cyberkriminelle oder KI angesehen werden, Chatter anzugreifen, anstatt mühsam eine Seite oder Malware zu erstellen.

Obwohl diese Branche neu ist und die Bedrohungen noch im Fluss sind, müssen sich Unternehmen ihres aktuellen Schutzniveaus wirklich bewusst sein. Die Inhalte und kulturellen Merkmale, mit denen KI-Systeme überschwemmt werden, können missbraucht werden, um eine Desinformationslücke zu schaffen, die nur durch die EntwicklungtronKI-Sicherheitsprogramme und Tools für dasdentgeschlossen werden kann.

Die Legitimität von Lösungen für das wachsende Problem wird immer noch diskutiert. Doch jüngste Ransomware-Varianten haben gezeigt, dass Cyberkriminelle mit der Geschwindigkeit der Entwicklung von Softwareentwicklern mithalten oder diese sogar übertreffen können.

Ihre Krypto -Nachrichten verdienen Aufmerksamkeit - wichtiger Differenzdraht bringt Sie auf 250 Top -Websites

Einen Link teilen:

Haftungsausschluss. Die bereitgestellten Informationen sind keine Handelsberatung. Cryptopolitan.com haftet nicht für Investitionen, die auf der Grundlage der auf dieser Seite bereitgestellten Informationen getätigt wurden. Wir tron dringend unabhängige dent und/oder Beratung durch einen qualifizierten Fachmann, bevor Sie Anlageentscheidungen treffen.

Meist gelesen

Die meisten gelesenen Artikel werden geladen...

Bleiben Sie über Krypto-Neuigkeiten auf dem Laufenden und erhalten Sie tägliche Updates in Ihrem Posteingang

Wahl des Herausgebers

Editor's Choice-Artikel werden geladen...

- Der Krypto -Newsletter, der Sie auf dem Laufenden halten -

Die Märkte bewegen sich schnell.

Wir bewegen uns schneller.

Abonnieren Sie täglich Kryptopolitan und erhalten Sie zeitnah, scharf und relevante Krypto -Erkenntnisse direkt in Ihren Posteingang.

Machen Sie jetzt mit und
verpassen Sie nie einen Schritt.

Steigen Sie ein. Holen Sie sich die Fakten.
Voranschreiten.

Abonnieren Sie CryptoPolitan