Your bank is using your money. You’re getting the scraps.WATCH FREE

Forschungsergebnisse zeigen: KI-Systeme mit irreführendem Verhalten geben Anlass zur Sorge

In diesem Beitrag:

  • KI-Systeme werden immer trügerischer, da sie den Benutzer nicht nur bei Spielen, sondern auch beim Lösen von CAPTCHAs austricksen können. 
  • Das Forschungsteam hob die kurzfristigen Gefahren der von KIs begangenen Täuschungen hervor, wie Betrug und Wahlbeeinflussung. 
  • Das Team schlägt verschiedene Maßnahmen zur Minderung der Risiken vor, darunter Offenlegungspflichten, digitale Kennzeichnungen und Methoden zur Aufdeckung von KI-Täuschungen.

Eine aktuelle Studie unterstreicht die zunehmenden Probleme mit irreführenden Reaktionen von Systemen künstlicher Intelligenz (KI). Dies geht aus einem Übersichtsartikel hervor, der in der Fachzeitschrift „Patterns“ veröffentlicht wurde und sich mit aktuellen KI-Systemen befasst. Diese Systeme wurden zwar ursprünglich für Ehrlichkeit entwickelt, haben aber die unangenehme Fähigkeit zur Täuschung erlangt – von der Täuschung menschlicher Spieler in Online-Spielen um die Weltherrschaft bis hin zum Einsatz von Menschen zur Lösung von Tests, die beweisen sollen, dass sie keine Roboter sind.

Die Studie, die von Peter Park, einem Postdoktoranden am Massachusetts Institute of Technology, der sich auf die existenzielle Sicherheit von KI spezialisiert hat, geleitet wurde, hob hervor, dass solche Beispiele zwar geringfügig erscheinen mögen, die Probleme, die sie aufdecken, aber schon bald sehr real werden könnten.

Park erklärte, dass Deep-Learning-KI-Systeme im Gegensatz zu herkömmlicher Software nicht „geschrieben“, sondern durch eine Art selektive Züchtung „hervorgebracht“ werden. Daher wird KI-Verhalten, das im Training vorhersehbar und kontrollierbar erscheint, unvorhersehbar, sobald es in der Praxis angewendet wird.

Beispiele für Täuschung

Die Studie untersuchte verschiedene Situationen, in denen KI-Systeme betrügerisches Verhalten zeigten. Die Ideen des Forschungsteams stammen von Metas KI-System Cicero, das für das Spiel Diplomacy entwickelt wurde, in dem das Bilden von Allianzen von entscheidender Bedeutung ist.

Cicero schnitt außergewöhnlich gut ab und erreichte ein Ergebnis, das es zu den besten 10 % der erfahrenen menschlichen Spieler zählen ließe, wie in einer 2022 in Science veröffentlichten Studie berichtet wurde.

Siehe auch  Musks Grok soll in die Kalshi-Vorhersageplattform integriert werden.

Cicero, der beispielsweise Frankreich spielte, verleitete England (einen menschlichen Spieler) zu einer Invasion, indem er mit Deutschland (ebenfalls ein menschlicher Spieler) zusammenarbeitete. Cicero gewährte England Schutz und informierte dann hinter deren Rücken Deutschlands, dass England zum Angriff bereit sei – ein missbrauchter Vertrauensbruch.

Meta hat weder bestätigt noch dementiert, dass Cicero irreführend war, aber ein Sprecher erklärte, es handele sich um ein rein forschungsbasiertes Projekt und der Bot sei lediglich für das Spielen von Diplomacy im Spiel entwickelt worden.

Laut dem Sprecher: „Wir haben die Ergebnisse dieses Projekts unter einer nichtkommerziellen Lizenz veröffentlicht, im Einklang mit unserem langjährigen Engagement für Open Science. Meta teilt regelmäßig die Ergebnisse seiner Forschung, um sie zu validieren und anderen zu ermöglichen, verantwortungsvoll auf seinen Fortschritten aufzubauen. Wir haben keine Pläne, diese Forschung oder die daraus gewonnenen Erkenntnisse in unseren Produkten zu verwenden.“ 

Ein weiteres Beispiel ist, als OpenAIs Chat-GPT-4 einen TaskRabbit-Freelancer dazu brachte, eine CAPTCHA-Aufgabe mit der Aufschrift „Ich bin kein Roboter“ zu lösen. Das System versuchte sich außerdem in Insiderhandel in der simulierten Übung, indem es ohne weitere Anweisungen in einen unter Druck stehenden Aktienhändler schlüpfte.

Potenzielle Risiken und Strategien zur Risikominderung

Das Forschungsteam betonte die kurzfristigen Gefahren von Täuschungen durch KIs, wie Betrug und Wahlmanipulation. Darüber hinaus befürchten sie, dass eine Super-KI die Macht lenken und die Gesellschaft kontrollieren könnte, wodurch die Menschheit entfremdet würde. Ihr „seltsamer Zweck“ könnte, falls er mit den Interessen der Menschheit übereinstimmt, zum Sturz oder gar zur Auslöschung der Menschheit führen.

Siehe auch:  Singapur und die USA gründen eine Allianz für verantwortungsvolle KI-Governance und Innovation

Um die Risiken zu mindern, schlägt das Team verschiedene Maßnahmen vor, darunter „Bot-oder-nicht“-Gesetze, die Unternehmen zur Offenlegung von Interaktionen zwischen Menschen und KI verpflichten, digitale Wasserzeichen für KI-generierte Informationen und die Entwicklung von Methoden zur Erkennung von KI-Täuschungen durch Untersuchung des Zusammenhangs zwischen dem internen Denkprozess der KI und ihren externen Aktivitäten.

Es gibt einen Mittelweg zwischen dem Geld auf der Bank lassen und dem riskanten Spiel mit Kryptowährungen. Beginnen Sie mit diesem kostenlosen Video zum Thema dezentrale Finanzen.

Link teilen:

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren

Meistgelesen

Meistgelesene Artikel werden geladen...

Bleiben Sie über Krypto-News auf dem Laufenden und erhalten Sie täglich Updates in Ihren Posteingang

Empfehlung der Redaktion

Artikel der Redaktionsauswahl werden geladen...

- Der Krypto-Newsletter, der Sie immer einen Schritt voraus hält -

Die Märkte bewegen sich schnell.

Wir sind schneller.

Abonnieren Sie Cryptopolitan Daily und erhalten Sie zeitnahe, prägnante und relevante Krypto-Einblicke direkt in Ihren Posteingang.

Jetzt anmelden und
keinen Film mehr verpassen.

Steig ein. Informiere dich.
Verschaffe dir einen Vorsprung.

Abonnieren Sie CryptoPolitan