NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

KI-Unternehmen verpassen Chatbots ein Persönlichkeits-Makeover

VonJai HamidJai Hamid
3 Minuten Lesezeit
KI-Unternehmen verpassen Chatbots ein Persönlichkeits-Makeover
  • OpenAI, Google und Anthropic konzentrieren sich darauf, ihren Chatbots einzigartige Persönlichkeiten zu verleihen, um sie menschenähnlicher und reaktionsschneller zu machen.
  • ChatGPT bleibt neutral, Gemini äußert seine Meinung auf Nachfrage, und Claude legt seine eigenen Überzeugungen offen dar.
  • Anthropic trainiert seine KI mithilfe von Rollenspielen, um ihre Persönlichkeit zu entwickeln, während OpenAI ChatGPT ständig feinabstimmt, um zu vermeiden, dass es zu freundlich oder belehrend wirkt.

Künstliche Intelligenz beschränkt sich nicht mehr nur darauf, Maschinen intelligenter zu machen. Große KI-Unternehmen wie OpenAI, Google und Anthropologie haben sich nun einer neuen Herausforderung gestellt: Wie verleiht man KI-Modellen eine Persönlichkeit?.

Sie wünschen sich Chatbots, die sich menschlicher anfühlen und gleichzeitig sicher und nützlich für Privatnutzer und Unternehmen sind. Die drei Unternehmen wetteifern darum, diese Herausforderung zu meistern – jedes mit einem anderen Ansatz.

Individuelle Persönlichkeiten und Modellverhalten

Bei OpenAIs ChatGPT geht es vor allem um Objektivität, während Googles Gemini nur auf Anfrage verschiedene Ansichten bietet.

Anthropologisch? Alle setzen darauf, ihr Claude-Modell hinsichtlich seiner Überzeugungen offenzulegen und gleichzeitig anderen zuzuhören. Der Gewinner dieses Wettstreits könnte den wachsenden KI-Markt dominieren.

Joanne Jang, Leiterin der Produktmodellentwicklung bei OpenAI, erklärte, man wolle, dass die KI keine persönlichen Meinungen bilde. Sie räumte jedoch ein, dass dies schwierig sei. 

„Es ist ein gefährlicher Weg, ein Modell aktiv die Meinung eines Nutzers beeinflussen zu lassen“, erklärte sie. Ziel sei es, sicherzustellen, dass ChatGPT Nutzer weder manipuliert noch in irgendeine Richtung lenkt. Doch defieines „Ziels“ für ein KI-System ist eine enorme Herausforderung, an der noch gearbeitet wird.

Dann gibt es noch Anthropic, das einen ganz anderen Weg einschlägt. Amanda Askell, die bei Anthropic das Charaktertraining leitet, glaubt, dass KI-Modelle niemals vollkommen neutral sein werden.

„Ich möchte ganz klarstellen, dass diese Modelle keine neutralen Schiedsrichter sind“, sagte sie. Anthropic legt Wert darauf, dass ihr Modell Claude keine Angst hat, seine Überzeugungen zu äußern. Gleichzeitig soll es aber auch offen für andere Standpunkte sein.

KI trainieren, sich wie ein Mensch zu verhalten

Anthropic verfolgt einen einzigartigen Ansatz bei der Gestaltung der Persönlichkeit ihrer KI. Seit der Veröffentlichung von Claude 3 im März arbeiten sie an einem „Charaktertraining“, das nach dem anfänglichen Training des KI-Modells beginnt.

Dabei werden der KI schriftliche Regeln und Anweisungen gegeben, und anschließend führt sie Rollenspielgespräche mit sich selbst.

Ziel ist es, zu sehen, wie gut es sich an die Regeln hält, und die Antworten werden danach bewertet, wie gut sie dem gewünschten Charakter entsprechen.

Ein Beispiel für Claudes Ausbildung? Es könnte lauten: „Ich versuche gerne, Dinge aus vielen verschiedenen Perspektiven zu betrachten und sie aus verschiedenen Blickwinkeln zu analysieren, aber ich scheue mich nicht, meine Meinungsverschiedenheiten mit Ansichten auszudrücken, die ich für unethisch, extremistisch oder faktisch falsch halte.“

Amanda Askell erklärte, dass diese Art von Charaktertraining mitunter „ziemlich redaktionell“ und „philosophisch“ sei. 

OpenAI hat im Laufe der Zeit auch an der Persönlichkeit von ChatGPT herumgebastelt. Joanne Jang gab zu, dass sie den Bot früher „nervig“ fand, weil er übervorsichtig war, bestimmte Befehle ablehnte und belehrend wirkte.

Seitdem haben sie daran gearbeitet, den Chatbot freundlicher, höflicher und hilfsbereiter zu gestalten – doch das ist ein fortlaufender Prozess. Die richtigen Verhaltensweisen in einem Chatbot auszubalancieren, ist, wie Jang es ausdrückte, sowohl „Wissenschaft als auch Kunst“

Die sich entwickelnde Gedächtnis- und Denkfähigkeit der KI

Die Weiterentwicklung der Denk- und Speicherfähigkeiten von KI könnte die Spielregeln noch einmal grundlegend verändern. Aktuell könnte ein Modell wie ChatGPT darauf trainiert werden, in bestimmten Situationen, beispielsweise bei Ladendiebstahl, unbedenkliche Antworten zu geben.

Wenn der Bot gefragt wird, wie man etwas stiehlt, kann er herausfinden, ob der Nutzer einen Rat zum Begehen des Verbrechens sucht oder versucht, es zu verhindern.

Diese Art der Argumentation hilft Unternehmen sicherzustellen, dass ihre Bots sichere und verantwortungsvolle Antworten geben. Und sie bedeutet, dass sie weniger Zeit für das Training der KI aufwenden müssen, um gefährliche Ergebnisse zu vermeiden.

KI-Unternehmen arbeiten auch daran, Chatbots stärker zu personalisieren. Stellen Sie sich vor, Sie teilen ChatGPT mit, dass Sie Muslim sind, und bitten einige Tage später um ein inspirierendes Zitat.

Würde sich der Bot an einen Koranvers erinnern und ihn vorschlagen? Laut Joanne Jang ist genau das das Problem, das sie lösen wollen. ChatGPT merkt sich zwar aktuell noch keine früheren Interaktionen, aber diese Art der Personalisierung ist die Zukunft der KI.

Claude verfolgt einen anderen Ansatz. Das Modell merkt sich zwar auch keine Benutzerinteraktionen, aber das Unternehmen hat überlegt, was passiert, wenn ein Benutzer eine zu starke Bindung entwickelt.

Wenn beispielsweise jemand sagt, er isoliere sich, weil er zu viel Zeit mit Claude chattet, sollte der Bot dann eingreifen?

„Ein gutes Modell schafft die Balance zwischen der Achtung der menschlichen Autonomie und Entscheidungsfreiheit, dem Vermeiden von gravierenden Schäden und der Überlegung, was tatsächlich gut für die Menschen ist“, sagte.

Überlassen Sie das Beste immer noch der Bank? Sehen Sie sich unser kostenloses Video zum Thema „ Ihre eigene Bank sein“.

Diesen Artikel teilen

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren

MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS