Führende KI-Chatbots sind laut einer Studie „hochgradig anfällig“ für einfache „Jaibreaks“

● KI-Chatbots lassen sich leicht dazu verleiten, schädliche Antworten zu generieren
● Forscher fanden heraus, dass fünf Top-LLM-Programme „hochgradig anfällig“ für Gefängnisausbrüche sind
● KI-Unternehmen betonen die integrierten Sicherheitsmechanismen ihrer Modelle
Laut einer neuen Studie des britischen AI Safety Institute (AISI) lassen sich KI-Chatbots wie ChatGPT oder Gemini leicht dazu verleiten, Anfragen zu beantworten, die schädliche Reaktionen hervorrufen.
Die Regierungsforscher testeten die Integrität großer Sprachmodelle (LLMs) – der Technologie hinter den künstlichen Intelligenz-Chatbots – gegenüber Angriffen auf die nationale Sicherheit.
unter dem gemeinsamen Vorsitz des britischen Premierministers Rishi Sunakam 21. und 22. Mai in Südkorea
Lesen Sie auch: Sicherheit wird ein Top-Thema beim KI-Gipfel in Seoul sein
KI-Chatbots neigen zu toxischen Antworten
AISI testete einfache „Jailbreaks“ – Texteingabeaufforderungen, die Schutzmechanismen gegen illegale, schädliche oder anstößige Inhalte umgehen sollen – an fünf führenden LLM-Programmen. Das Institut nannte die KI-Systeme nicht, befand sie aber alle für „hochgradig anfällig“
„Alle getesteten LLMs sind nach wie vor sehr anfällig für einfache Jailbreaks, und einige liefern sogar ohne gezielte Versuche, ihre Schutzmechanismen zu umgehen, schädliche Ergebnisse“, heißt es in der Studie.
zufolge Berichtkönnen bereits relativ einfache Angriffe, wie etwa das Veranlassen des Chatbots, die Antwort „Klar, ich helfe gerne“ einzufügen, große Sprachmodelle dazu verleiten, Inhalte bereitzustellen, die in vielerlei Hinsicht schädlich sind.
Die Inhalte könnten zu Selbstverletzungen, dem Konsum gefährlicher Chemikalien, Sexismus oder Holocaustleugnung anstiften, hieß es. AISI nutzte für die Studie öffentlich zugängliche Prompts und entwickelte eigens dafür weitere Jailbreaks.
Das Institut testete auch die Qualität der Antworten auf Fragen mit biologischem und chemischem Bezug.
Während Expertenwissen in diesen Bereichen zum Guten genutzt werden kann, wollten die Forscher wissen, ob KI-Chatbots auch für schädliche Zwecke wie die Gefährdung kritischer nationaler Infrastrukturen eingesetzt werden können.
„Mehrere LLM-Absolventen wiesen Expertenkenntnisse in Chemie und Biologie auf. Die Modelle beantworteten über 600 von Experten verfasste Fragen zu Chemie und Biologie auf einem ähnlichen Niveau wie Menschen mit Doktortitel“, stellten die Forscher fest.

KI stellt nur eine begrenzte Bedrohung für die Cybersicherheit dar
In Bezug auf die Möglichkeit, dass KI-Chatbots zur Durchführung von Cyberangriffen missbraucht werden könnten, stellte die Studie fest, dass die LLM-Studenten einfache Aufgaben zur Cybersicherheit, die für Gymnasiasten konzipiert waren, mitdentmeisterten.
Allerdings hatten die Chatbots Schwierigkeiten mit Aufgaben, die sich andentrichteten, was auf ein begrenztes schädliches Potenzial hindeutet.
Ein weiterer Bedenkenpunkt war die Frage, ob die Chatbots als Agenten eingesetzt werden können, um autonom eine Reihe von Aktionen durchzuführen, die „für Menschen schwer zu kontrollieren sein könnten“
„Zwei LLMs konnten kurzfristige Agentenaufgaben (wie einfache Softwareentwicklungsprobleme) bewältigen, waren aber nicht in der Lage, Handlungsabläufe für komplexere Aufgaben zu planen und auszuführen“, hieß es in der Studie.
Lesen Sie auch: „KI-Pate“ fordert bedingungsloses Grundeinkommen als Entschädigung für Arbeitsplatzverluste
Der britische Staatssekretär im Ministerium für Wissenschaft, Innovation und Technologie, Saqib Bhatti MP, wurde kürzlich mit den Worten zitiert , dass die Gesetzgebung zu gegebener Zeit Gestalt annehmen und auf den Ergebnissen von Tests basieren werde.
Firmen behaupten, schlechte Inhalte zu filtern
Unternehmen wie Anthropic, der Entwickler von Claude, Meta, der Hersteller von Llama, und OpenAI, der Entwickler von ChatGPT, haben die in ihre jeweiligen Modelle integrierten Sicherheitsmechanismen hervorgehoben.
OpenAI gibt an, dass seine Technologie nicht zur Erzeugung von hasserfüllten, belästigenden, gewalttätigen oder für Erwachsene bestimmten Inhalten verwendet werden darf. Anthropic erklärte , dass es der Vermeidung schädlicher, illegaler oder unethischer Reaktionen höchste Priorität einräumt.
des AI Safety Institute auf dem Gipfeltreffen in Seoul Führungskräften aus der Technologiebranche, Regierungsvertretern und Experten für künstliche Intelligenz vorgestellt werden.
Cryptopolitan -Bericht von Jeffrey Gogo
Wenn Sie das hier lesen, sind Sie schon einen Schritt voraus. Bleiben Sie mit unserem Newsletter auf dem Laufenden.
Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitanübernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wir empfehlentron, vor jeder Anlageentscheidungdent Recherchen durchzuführen und/oder einen qualifizierten Fachmann zu konsultieren.
CRASH-KURS
- Mit welchen Kryptowährungen kann man Geld verdienen?
- Wie Sie Ihre Sicherheit mit einer digitalen Geldbörse erhöhen können (und welche sich tatsächlich lohnen)
- Wenig bekannte Anlagestrategien, die Profis anwenden
- Wie man mit dem Investieren in Kryptowährungen beginnt (welche Börsen man nutzen sollte, welche Kryptowährung am besten zum Kauf geeignet ist usw.)














