NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

OpenAI entwickelt Nachfolger für GPT-4 trotz Sicherheitsbedenken  

VonJeffrey GogoJeffrey Gogo
Lesezeit: 2 Minuten
GPT-4o mini
  • OpenAI trainiert ein neues KI-System, das GPT-4 ablösen soll.
  • Dem Modell geht ein Sicherheitsausschuss unter der Leitung von CEO Sam Altman voraus.
  • OpenAI steht unter Druck, sein Engagement für Sicherheit unter Beweis zu stellen.

OpenAI trainiert ein neues KI-System, das GPT-4 ablösen soll, um sein Image aufzupolieren. Dem Modell geht ein Sicherheitsausschuss unter der Leitung von CEO Sam Altman und drei weiteren Vorstandsmitgliedern voraus. 

Lesen Sie auch: ChatGPT verbreitet weiterhin Falschinformationen, sagt die EU-Datenschutzbehörde.

Das in San Francisco ansässige Unternehmen steht unter Druck, sein Engagement für Sicherheit unter Beweis zu stellen. Die kürzlich zurückgetretenen Risikoforscher Jan Leike und Gretchen Krueger deckten die angeblich mangelhafte Sicherheitskultur auf X (ehemals Twitter) auf.

OpenAI trainiert „Next Frontier Model“

In einem am Dienstag veröffentlichten Blogbeitrag erklärte:

„OpenAI hat vor Kurzem mit dem Training seines nächsten Spitzenmodells begonnen, und wir gehen davon aus, dass die daraus resultierenden Systeme uns auf dem Weg zur künstlichen allgemeinen Intelligenz (AGI) auf die nächste Stufe der Fähigkeiten bringen werden.“

OpenAI gab weder den Veröffentlichungstermin des Nachfolgers von GPT-4 noch dessen Funktionen bekannt. Das Unternehmen, dessen Wert auf 80 Milliarden US-Dollar geschätzt wird, wagte mit seinem äußerst beliebten KI-Chatbot ChatGPT, während etablierte Unternehmen wie Google aufgrund von Reputationsrisiken zurückhaltend agierten.

Während OpenAI im Wettlauf um generative künstliche Intelligenz, der von Anthropic, Google, Microsoft und anderen hart umkämpft wird, eine führende Rolle einnimmt, hat das Unternehmen ethischen Prüfungen nicht immer standgehalten.

In einem Beitrag auf X, in dem er seinen Rücktritt von OpenAI bekannt gab, enthüllte , dass „in den vergangenen Jahren die Sicherheitskultur und -prozesse hinter glänzenden Produkten zurückstehen mussten“.

Krueger schrieb , das Unternehmen müsse „mehr tun, um grundlegende Dinge wie Entscheidungsprozesse, Verantwortlichkeit, Transparenz, Durchsetzung von Richtlinien und die Sorgfalt, mit der wir unsere eigene Technologie einsetzen, zu verbessern.“

eine Taskforce der Europäischen Union verschärfte die Kritik, indem sie berichtete, dass ChatGPT, das Flaggschiffprodukt des Unternehmens, die eigenen Genauigkeitsstandards nicht erfülle.

OpenAI

Unternehmen hebt KI-Sicherheit als zentrales Verkaufsargument hervor

Unterdessen sorgte das jüngste Update des GPT-4-Modells umgehend für einen Aufsehen erregenden Streit, als die Schauspielerin Scarlett Johansson dem Unternehmen die unerlaubte Verwendung ihrer Stimme vorwarf.

Lesen Sie auch: OpenAI stellt ChatGPT Voice nach Scarlett-Johansson-Kontroverse ein

Das Unternehmen nutzt seinentracnun auch für den Waschsalon-Markt und positioniert Sicherheit als Hauptverkaufsargument seines kommenden KI-Programms. Zudem ist es dem Unternehmen wichtig, von den Regulierungsbehörden als Entwickler verantwortungsvoller KI wahrgenommen zu werden. In seinem Blogbeitrag fügte OpenAI hinzu:

„Wir sind stolz darauf, Modelle zu entwickeln und auf den Markt zu bringen, die in puncto Leistungsfähigkeit und Sicherheit branchenführend sind, begrüßen aber gleichzeitig eine intensive Debatte in diesem wichtigen Moment.“

Der neue Sicherheitsausschuss wird von den Direktoren Altman, Bret Taylor (Vorsitz), Adam D'Angelo und Nicole Seligman geleitet. Dem Ausschuss gehören außerdem der Leiter der Abteilungen für Katastrophenschutz, Sicherheitssysteme, Ausrichtungswissenschaft, Sicherheit und der wissenschaftliche Leiter des Unternehmens an.

OpenAI teilte mit, dass der Ausschuss in den nächsten drei Monaten „Prozesse und Schutzmaßnahmen evaluieren und weiterentwickeln“ und den drei anderen Direktoren Bericht erstatten werde.

Das Unternehmen löste sein Sicherheitsteam Anfang dieses Monats nach dem Ausscheiden des Teamleiters und OpenAI-Mitbegründers Ilya Sutskever auf.


Cryptopolitan -Bericht von Jeffrey Gogo

Lesen Sie Krypto-News nicht nur, sondern verstehen Sie sie. Abonnieren Sie unseren Newsletter. Er ist kostenlos.

Diesen Artikel teilen

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren

MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS