Der ehemalige Chefentwickler von OpenAI, Ilya Sutskever, gründet nur einen Monat nach seinem Ausscheiden bei OpenAI ein neues KI-Unternehmen. „Ich gründe ein neues Unternehmen“, verkündete er am späten Mittwochabend mit dem Namen Safe Superintelligence Inc. (SSI).
Lesen Sie auch: OpenAIs Chef-Wissenschaftler Ilya Sutskever verabschiedet sich
SSI hat seinen Sitz in Amerika und unterhält Büros in Palo Alto und Tel Aviv. In einer offiziellen Mitteilung erklärte das Startup, es habe „ein Ziel und ein Produkt: eine sichere Superintelligenz“.
„Wir werden die Entwicklung sicherer Superintelligenz geradlinig verfolgen, mit einem Fokus, einem Ziel und einem Produkt. Wir werden dies durch revolutionäre Durchbrüche erreichen, die von einem kleinen, hochkarätigen Team erzielt werden“, sagte Sutskever.
„Unsere konsequente Fokussierung bedeutet keinetrac“, sagt SSI
SSI wird derzeit von Sutskever, Daniel Gross und einem weiteren ehemaligen OpenAI-Forscher, Daniel Levy, geleitet. Die Investoren des Startups sind zum jetzigen Zeitpunkt noch unbekannt.
Das Unternehmen betonte jedoch in der Ankündigung, dass das gesamte Team, die Investoren und das Geschäftsmodell auf die Entwicklung einer „sicheren Superintelligenz“ ausgerichtet seien. Diese Bemerkung wirkt etwas wie ein Seitenhieb auf OpenAI, das einst von Elon Musk verklagt wurde, weil es den Profit über die Menschlichkeit gestellt und seine ursprüngliche Mission aufgegeben hatte.
„Unsere konsequente Fokussierung bedeutet, dass wir nicht durch Managementaufwand oder Produktzyklentracwerden, und unser Geschäftsmodell stellt sicher, dass Sicherheit und Fortschritt vor kurzfristigem kommerziellen Druck geschützt sind.“
SSI
Sutskever gab am 15. Mai seinen Abschied von OpenAI bekannt, nachdem er fast zehn Jahre für das führende KI-Unternehmen gearbeitet hatte. Zuvor hatte er sich nach einem gescheiterten Versuch, CEO Sam Altman im Dezember letzten Jahres von OpenAI zu verdrängen, nicht mehr geäußert.
Nach fast einem Jahrzehnt habe ich mich entschlossen, OpenAI zu verlassen. Die Entwicklung des Unternehmens war geradezu phänomenal, und ich bin überzeugt, dent @sama , @gdb , @miramurati und nun auch unter der Leitung von … eine AGI entwickeln wird, die sowohl sicher als auch nützlich ist
— Ilya Sutskever (@ilyasut) 14. Mai 2024
Nach Sutskever trat auch Jan Leike, eine weitere Führungskraft von OpenAI, zurück. Beide leiteten gemeinsam das Superalignment-Team bei OpenAI, das dafür verantwortlich ist, zu verhindern, dass superintelligente KI-Modelle außer Kontrolle geraten.
Lesen Sie auch: Ein weiterer OpenAI-Manager, Jan Leike, verlässt das Unternehmen.
Sutskever nannte keine klaren Gründe für seinen Weggang von OpenAI. Leike hingegen verwies auf Sicherheitsbedenken im Unternehmen und erklärte: „In den vergangenen Jahren wurden Sicherheitskultur und -prozesse zugunsten glänzender Produkte vernachlässigt.“
„Ich bin beigetreten, weil ich OpenAI für den weltweit besten Ort für diese Forschung hielt“, sagte Leike. „Allerdings gab es schon seit Längerem Meinungsverschiedenheiten mit der OpenAI-Führung hinsichtlich der Kernprioritäten des Unternehmens, bis wir schließlich einen Punkt erreichten, an dem es zum Bruch kam“, fügte er hinzu.
SSI ist nicht das erste Unternehmen, das sich von OpenAI abgespalten hat
Leike wechselte am 28. Mai als ML-Forscher zu Anthropic, einem Konkurrenten von OpenAI, während Sutskever sich selbstständig machte, um sein eigenes KI-Unternehmen aufzubauen – was sich mittlerweile zu einem wiederkehrenden Phänomen entwickelt hat.
Bemerkenswert ist, dass SSI nicht das erste Unternehmen ist, das sich von OpenAI abspaltet. Im Jahr 2021 verließen zwei ehemalige Mitarbeiter von OpenAI die Firma, um Anthropic mitzugründen, das nach der Finanzierungsrunde am 13. Mai mit 18,4 Milliarden US-Dollar bewertet wurde.
Die Gründer von Anthropic hatten OpenAI ebenfalls aufgrund von Meinungsverschiedenheiten mit Sam Altman über die sichere Entwicklung von KI verlassen.
Cryptopolitan Berichterstattung von Ibiam Wayas

