NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

Sind die Austrittsdokumente von OpenAI zu restriktiv für ausscheidende Mitarbeiter?

VonAamir SheikhAamir Sheikh
Lesezeit: 4 Minuten
OpenAI
  • Die Austrittsdokumente von OpenAI verhindern, dass ausscheidende Mitarbeiter das Unternehmen kritisieren und damit den Verlust ihrer Anteile riskieren.
  • Die Sicherheitsvorkehrungen des Unternehmens im Bereich der KI stehen nach dem Ausscheiden wichtiger Persönlichkeiten bereits in der Kritik.
  • Sam Altman, der sich öffentlich für die restriktiven Ausstiegsbedingungen entschuldigt hat, wird für Handlungen kritisiert, die als im Widerspruch zu seinen Aussagen stehend wahrgenommen werden.

Ausscheidende Mitarbeiter von OpenAI müssen eine restriktive Austrittsvereinbarung unterzeichnen. OpenAI-CEO Sam Altman sagte, ein Teil dieser Vereinbarung hätte niemals zustande kommen dürfen, und es sei einer der seltenen Fälle, in denen ihn die Führung von OpenAI wirklich in Verlegenheit gebracht habe.

Nach dem Ausscheiden einiger hochrangiger Mitarbeiter des OpenAI-Sicherheitsteams wurde bekannt, dass die Vereinbarung Klauseln zur Nichtverunglimpfung und Geheimhaltung enthält, die den ausscheidenden Mitarbeitern für den Rest ihres Lebens verbieten, OpenAI zu kritisieren, berichtete Vox am Samstag.

Und das ist noch nicht alles; die Vereinbarung sieht sogar den Entzug der Firmenanteile von Mitarbeitern vor, sollten diese ihren ehemaligen Arbeitgeber in einer Weise kritisieren, die OpenAI als wertmindernd ansieht. Auch über die Austrittsbedingungen dürfen sie nicht sprechen, da dies ebenfalls zum Verlust ihrer Anteile führt.

Was geschieht bei OpenAI?

Bei der kürzlich erfolgten Ankündigung von ChatGPT-4o erhielt das Flaggschiffprodukt des Unternehmens die Fähigkeit zu sprechen und visuelle Reize zu erkennen. Für die Technikbegeisterten und Anhänger wurde der ganze Wirbel um das Produkt-Upgrade jedoch von der Tatsache überschattet, dass ausscheidende Mitarbeiter des Unternehmens zwar visuelle Reize erkennen, aber nicht sprechen dürfen.

„In den letzten Jahren wurden Sicherheitskultur und -prozesse zugunsten glänzender Produkte vernachlässigt.“ Jan Leike.

Kurz nach der Markteinführung von ChatGPT-4o verließ Ilya Sutskever, Mitbegründer und leitender Wissenschaftler von OpenAI, das Unternehmen. Sutskever leitete auch das Superalignment-Team, das sich um die Sicherheitsaspekte der KI-Produkte des Unternehmens kümmert.

Lesen Sie auch: OpenAI stellt Chatgpt-4o vor: Kostenloser Zugriff mit Einschränkungen

Wenige Stunden nach Sutskevers Ausscheiden verließ auch Jan Leike, ein weiterer Co-Leiter des Superalignment-Teams, das Unternehmen. Der Weggang beider Sicherheitsexperten ließ die Möglichkeit aufkommen, dass OpenAI seine Sicherheitsrichtlinien ändern könnte, und es wurde spekuliert, dass sie aus Protest zurückgetreten sein könnten.

Altman hat sich für Fehltritte in der Gleichstellungspolitik entschuldigt

Viele Beobachter werfen Altman vor, ein guter Mann für die Abgabe öffentlicher Erklärungen zu sein, kritisieren ihn aber gleichzeitig dafür, dass er praktisch genau das Gegenteil von dem tut, was er sagt.

Heute veröffentlichte Altman auf X einen Beitrag darüber, wie das Unternehmen mit den Mitarbeiterbeteiligungen umgeht. Er erwähnte, dass in den früheren Dokumenten eine Klausel zur möglichen Vernichtung von Mitarbeiterbeteiligungen enthalten war, diese aber nie in Anspruch genommen wurden. Seiner Meinung nach hätte diese Klausel in keinem der Dokumente stehen dürfen.

Altman erklärte außerdem, sein Team habe die Austrittspapiere bereits seit einem Monat korrigiert, und jeder, der das Unternehmen mit alten, unterschriebenen Dokumenten verlasse, könne sich zur Korrektur an ihn wenden. Er fügte hinzu, es sei einer der wenigen Momente, in denen ihm die Leitung des Unternehmens peinlich sei.

Wie bereits erwähnt, wurde Altman im historischen Kontext jedoch Widersprüchen zwischen seinen Worten und Taten vorgeworfen. So wird ihm beispielsweise vorgeworfen, Saudi-Arabien dazu gebracht zu haben, Milliarden in die Entwicklung von KI-Beschleunigern zu investieren – wohl wissend, dass es sich bei dem Land um eine Monarchie handelt und mächtige Personen Technologie zur Kontrolle der Gesellschaft nutzen können. 

Dies geschah zeitgleich mit seiner Befürwortung der KI-Sicherheit und der Unterzeichnung eines Briefes an die US-Regierung, in dem er forderte, die rasante Entwicklung von KI zu stoppen, um die Menschheit vor Schaden zu bewahren. Er war zudem so clever, eine gemeinnützige Organisation in ein technokratisches Start-up umzuwandeln und die Kommerzialisierung anschließend massiv voranzutreiben. Das ist keine einfache Angelegenheit und erfordert eine gewisse Täuschung, um dies zu erreichen.

Bei OpenAI ist nicht alles einfach

Auch die Vorgeschichte spielt eine Rolle. Als CEO Sam Altman letztes Jahr vom Aufsichtsrat des Unternehmens entlassen wurde, bevor er schnell wieder in seine Position zurückkehrte, war Sutskever ebenfalls Mitglied des Aufsichtsrats, der diese Entscheidung traf. 

Doch Sutskever änderte seine Meinung schnell und bereute seine Entscheidung; er begann sogar, mit den Mitarbeitern zusammenzuarbeiten, die Altman zurück im Unternehmen wollten. Sutskever unterzeichnete auch den Brief, in dem Altmans Rückkehr gefordert wurde. 

Seit Altmans Rückkehr ins Unternehmen blieb Sutskevers Position unklar, und er wurde, wie viele andere nach Altmans Rückkehr, auch aus dem Vorstand entfernt. Altman zeigte sich betrübt über Sutskevers Ausscheiden und sagte:

„Ilya und OpenAI werden getrennte Wege gehen. Das bedauere ich sehr; Ilya ist zweifellos einer der größten Köpfe unserer Generation, eine Leitfigur in unserem Fachgebiet und ein lieber Freund.“ Quelle: OpenAI.

Der ehemalige Chef-Wissenschaftler erklärte, er verlasse OpenAI aus einem ihm persönlich wichtigen Grund. Obwohl wir nicht wissen, worum es sich dabei handelt, scheint es, als ob es um die Sicherheit von KI geht, die mutmaßlich der Hauptfokus von Sutskever während seiner gesamten Tätigkeit bei OpenAI war.

Lesen Sie auch: Der CEO von OpenAI äußert sich zu einem potenziellen KI-gestützten sozialen Sicherheitsnetz

Leikes Ankündigung hingegen war unkompliziert: Er sagte lediglich: „Ich habe gekündigt“ und erläuterte seine Bedenken später in mehreren Beiträgen auf X. Altman zufolge wird an der Korrektur der Austrittspapiere gearbeitet. Ein anderer ehemaliger Mitarbeiter des Unternehmens, Daniel Kokotaijlo, gab jedoch an, seine Anteile verloren zu haben, weil er die Vereinbarung nicht unterzeichnet hatte. Er erklärte, er habe das Unternehmen verlassen, weil er „im Zusammenhang mit AGI das Vertrauen in dessen verantwortungsvolles Handeln verloren“ habe

Altman hat zwar erklärt, dass sich jeder ehemalige Mitarbeiter an sie wenden könne und dass man sich um die Behebung des Problems kümmern werde, aber wir können nicht sicher sein, wie sich dies konkret entwickeln wird, da derzeit eine Abwanderungswelle unter den Mitarbeitern stattfindet und diese Fragen zu den sich ändernden KI-Sicherheitspraktiken des Unternehmens aufwerfen.


Cryptopolitan Berichterstattung von Aamir Sheikh

Lesen Sie Krypto-News nicht nur, sondern verstehen Sie sie. Abonnieren Sie unseren Newsletter. Er ist kostenlos.

Diesen Artikel teilen

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtronempfehlen dringend, vor jeder Anlageentscheidung eigene Recherchen durchzuführendent oder einen qualifizierten Fachmann zu konsultieren

MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS