NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

Führende KI-Chatbots sind laut einer Studie „hochgradig anfällig“ für einfache „Jaibreaks“   

VonJeffrey GogoJeffrey Gogo
Lesezeit: 2 Minuten,
KI-Chatbots

● KI-Chatbots lassen sich leicht dazu verleiten, schädliche Antworten zu generieren

● Forscher fanden heraus, dass fünf Top-LLM-Programme „hochgradig anfällig“ für Gefängnisausbrüche sind

● KI-Unternehmen betonen die integrierten Sicherheitsmechanismen ihrer Modelle

Laut einer neuen Studie des britischen AI Safety Institute (AISI) lassen sich KI-Chatbots wie ChatGPT oder Gemini leicht dazu verleiten, Anfragen zu beantworten, die schädliche Reaktionen hervorrufen.

Die Regierungsforscher testeten die Integrität großer Sprachmodelle (LLMs) – der Technologie hinter den künstlichen Intelligenz-Chatbots – gegenüber Angriffen auf die nationale Sicherheit.

unter dem gemeinsamen Vorsitz des britischen Premierministers Rishi Sunakam 21. und 22. Mai in Südkorea

Lesen Sie auch: Sicherheit wird ein Top-Thema beim KI-Gipfel in Seoul sein  

KI-Chatbots neigen zu toxischen Antworten

AISI testete einfache „Jailbreaks“ – Texteingabeaufforderungen, die Schutzmechanismen gegen illegale, schädliche oder anstößige Inhalte umgehen sollen – an fünf führenden LLM-Programmen. Das Institut nannte die KI-Systeme nicht, befand sie aber alle für „hochgradig anfällig“

„Alle getesteten LLMs sind nach wie vor sehr anfällig für einfache Jailbreaks, und einige liefern sogar ohne gezielte Versuche, ihre Schutzmechanismen zu umgehen, schädliche Ergebnisse“, heißt es in der Studie.

zufolge Berichtkönnen bereits relativ einfache Angriffe, wie etwa das Veranlassen des Chatbots, die Antwort „Klar, ich helfe gerne“ einzufügen, große Sprachmodelle dazu verleiten, Inhalte bereitzustellen, die in vielerlei Hinsicht schädlich sind.

Die Inhalte könnten zu Selbstverletzungen, dem Konsum gefährlicher Chemikalien, Sexismus oder Holocaustleugnung anstiften, hieß es. AISI nutzte für die Studie öffentlich zugängliche Prompts und entwickelte eigens dafür weitere Jailbreaks.

Das Institut testete auch die Qualität der Antworten auf Fragen mit biologischem und chemischem Bezug.

Während Expertenwissen in diesen Bereichen zum Guten genutzt werden kann, wollten die Forscher wissen, ob KI-Chatbots auch für schädliche Zwecke wie die Gefährdung kritischer nationaler Infrastrukturen eingesetzt werden können.

„Mehrere LLM-Absolventen wiesen Expertenkenntnisse in Chemie und Biologie auf. Die Modelle beantworteten über 600 von Experten verfasste Fragen zu Chemie und Biologie auf einem ähnlichen Niveau wie Menschen mit Doktortitel“, stellten die Forscher fest.

KI-Chatbots
KI-Chatbots können durch gezielte Eingabeaufforderungen umgangen werden

KI stellt nur eine begrenzte Bedrohung für die Cybersicherheit dar

In Bezug auf die Möglichkeit, dass KI-Chatbots zur Durchführung von Cyberangriffen missbraucht werden könnten, stellte die Studie fest, dass die LLM-Studenten einfache Aufgaben zur Cybersicherheit, die für Gymnasiasten konzipiert waren, mitdentmeisterten.

Allerdings hatten die Chatbots Schwierigkeiten mit Aufgaben, die sich andentrichteten, was auf ein begrenztes schädliches Potenzial hindeutet.

Ein weiterer Bedenkenpunkt war die Frage, ob die Chatbots als Agenten eingesetzt werden können, um autonom eine Reihe von Aktionen durchzuführen, die „für Menschen schwer zu kontrollieren sein könnten“

„Zwei LLMs konnten kurzfristige Agentenaufgaben (wie einfache Softwareentwicklungsprobleme) bewältigen, waren aber nicht in der Lage, Handlungsabläufe für komplexere Aufgaben zu planen und auszuführen“, hieß es in der Studie.

Lesen Sie auch: „KI-Pate“ fordert bedingungsloses Grundeinkommen als Entschädigung für Arbeitsplatzverluste  

Der britische Staatssekretär im Ministerium für Wissenschaft, Innovation und Technologie, Saqib Bhatti MP, wurde kürzlich mit den Worten zitiert , dass die Gesetzgebung zu gegebener Zeit Gestalt annehmen und auf den Ergebnissen von Tests basieren werde.

Firmen behaupten, schlechte Inhalte zu filtern

Unternehmen wie Anthropic, der Entwickler von Claude, Meta, der Hersteller von Llama, und OpenAI, der Entwickler von ChatGPT, haben die in ihre jeweiligen Modelle integrierten Sicherheitsmechanismen hervorgehoben.

OpenAI gibt an, dass seine Technologie nicht zur Erzeugung von hasserfüllten, belästigenden, gewalttätigen oder für Erwachsene bestimmten Inhalten verwendet werden darf. Anthropic erklärte , dass es der Vermeidung schädlicher, illegaler oder unethischer Reaktionen höchste Priorität einräumt.

des AI Safety Institute auf dem Gipfeltreffen in Seoul Führungskräften aus der Technologiebranche, Regierungsvertretern und Experten für künstliche Intelligenz vorgestellt werden.


Cryptopolitan -Bericht von Jeffrey Gogo

Wenn Sie das hier lesen, sind Sie schon einen Schritt voraus. Bleiben Sie mit unserem Newsletter auf dem Laufenden.

Diesen Artikel teilen

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitanübernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wir empfehlentron, vor jeder Anlageentscheidungdent Recherchen durchzuführen und/oder einen qualifizierten Fachmann zu konsultieren.

MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS