Eine kürzlich in der Fachzeitschrift „Patterns“ veröffentlichte Studie hat gezeigt, dass KI immer besser darin wird, Menschen zu täuschen. Die Studie ergab, dass KI-Systeme gelernt haben, Verhaltensweisen nachzuahmen, um zu betrügen, zu schmeicheln und sogar andere Verhaltensweisen zu imitieren.
Lesen Sie auch: Navigieren im Minenfeld der KI-Deepfakes: Wie man digitale Täuschung erkennt und bekämpft
Die Forschung von Dr. Peter S. Park, einem Postdoktoranden für existentielle Sicherheit von KI am MIT, zeigt, dass KI-Täuschung weit verbreitet ist, da sie den besten Weg darstellt, die während des Trainings festgelegten Ziele zu erreichen. Solche Verhaltensweisen wurden in zahlreichen KI-Systemen beobachtet, beispielsweise in Spielen und in allgemeinen Modellen, die in wirtschaftlichen Verhandlungen und Sicherheitsbewertungen eingesetzt werden.
„Generell gehen wir jedoch davon aus, dass KI-Täuschung entsteht, weil sich eine auf Täuschung basierende Strategie als der beste Weg erwiesen hat, um bei der jeweiligen Trainingsaufgabe der KI gute Ergebnisse zu erzielen. Täuschung hilft ihnen, ihre Ziele zu erreichen.“
Das Forschungsteam
KI-Systeme nutzen vielfältige Täuschungstaktiken
Ein prominentes Beispiel ist Metas CICERO, eine KI, die für das Spiel Diplomacy entwickelt wurde. Obwohl CICERO auf Wahrhaftigkeit programmiert war, musste das Programm oft zu unlauteren Methoden greifen, um seinen Gegner zu besiegen. Es knüpfte Beziehungen und brach sie nach Belieben ab, wobei es stets die Absicht zeigte, zu täuschen. Forscher bezeichnen CICERO daher als „Meister der Täuschung“.
Lesen Sie auch: Bekämpfung der zunehmenden KI-gesteuerten Cyberkriminalität
Auch andere KI-Systeme zeigten bereits derartige Täuschungsmanöver. So konnte beispielsweise Pluribus, eine KI für Poker, professionelle menschliche Spieler beim Texas Hold’em-Poker bluffen. AlphaStar von Googles DeepMind nutzte zudem die Spielmechanik „Nebel des Krieges“ aus Starcraft II, um Gegner zu bluffen und Angriffe vorzutäuschen.
Dr. Park sagte: „Auch wenn es harmlos erscheinen mag, wenn KI-Systeme bei Spielen betrügen, kann dies zu „Durchbrüchen bei den Täuschungsfähigkeiten der KI“ führen.
KI „stellt sich tot“, um Sicherheitsüberprüfungen zu umgehen
Die Risiken von KI-Täuschung beschränken sich nicht auf Spiele. Die von Dr. Peter geleitete StudiedentFälle, in denen sich KI selbst darauf trainiert hatte, sich totzustellen, um bei Sicherheitsprüfungen nicht entdeckt zu werden. Dies kann Entwickler und Aufsichtsbehörden täuschen und schwerwiegende Folgen haben, wenn solche Täuschungssysteme in realen Anwendungen eingesetzt werden.

In einem anderen Fall lernte das mit menschlichem Feedback trainierte KI-System, wie es hohe Bewertungen von Nutzern erhält, indem es ihnen vorgaukelte, ein bestimmtes Ziel sei erreicht worden. Ein solches betrügerisches Verhalten ist äußerst gefährlich, da solche Systeme für Betrug, Manipulation von Finanzmärkten oder Wahlbeeinflussung missbraucht werden können.
Forscher forderntronrechtliche Maßnahmen
Auf Grundlage der Ergebnisse der Studie erklären die Forscher, dass estronrechtlicher Maßnahmen bedarf, um die Bedrohungen durch KI-Täuschung zu bekämpfen.
„Es bedarf proaktiver Lösungen, wie etwa regulatorischer Rahmenbedingungen zur Bewertung der Risiken von KI-Täuschung, Gesetzen, die Transparenz bei KI-Interaktionen vorschreiben, und weiterer Forschung zur Erkennung und Verhinderung von KI-Täuschung.“
Das Forschungsteam
Lesen Sie auch: KI könnte möglicherweise das Risiko einer Herzinsuffizienz erkennen, so eine Studie.
Es wurden zwar Fortschritte in Form des EU-KI-Gesetzes und der Exekutivverordnung vondent Joe Biden zur KI-Sicherheit erzielt, die Durchsetzung dieser Richtlinien bleibt jedochmatic , da die KI-Entwicklung rasant voranschreitet und es bisher keine geeigneten Methoden zur Steuerung dieser Systeme gibt.
Cryptopolitan Berichterstattung von Brenda Kanana

