Der ehemalige Chefwissenschaftler von OpenAI, Ilya Sutskever, gründet ein neues KI-Unternehmen, kaum einen Monat nachdem er seinen Abschied von OpenAI bekannt gegeben hat. „Ich gründe ein neues Unternehmen“ namens Safe Superintelligence Inc. (SSI), gab er am späten Mittwoch bekannt.
Lesen Sie auch: Der Chefwissenschaftler von OpenAI, Ilya Sutskever, verabschiedet sich
SSI hat seinen Sitz in Amerika und verfügt über Niederlassungen in Palo Alto und Tel Aviv. In einem offiziellen Beitrag sagte das Startup, es habe „ein Ziel und ein Produkt: eine sichere Superintelligenz“.
„Wir werden sichere Superintelligenz gezielt anstreben, mit einem Fokus, einem Ziel und einem Produkt. Wir werden es durch revolutionäre Durchbrüche schaffen, die von einem kleinen, talentierten Team hervorgebracht werden“, sagte Sutskever.
„Unser einzigartiger Fokus bedeutet keine trac “, sagt SSI
SSI wird derzeit von Sutskever, Daniel Gross und einem weiteren ehemaligen OpenAI-Forscher, Daniel Levy, geleitet. Die Investoren hinter dem Startup sind zum Zeitpunkt des Schreibens noch unbekannt.
Allerdings stellte das Unternehmen in der Ankündigung fest, dass das gesamte „Team, die Investoren und das Geschäftsmodell alle darauf ausgerichtet sind, „eine sichere Superintelligenz“ zu erreichen.“ Die Bemerkung wirkt bei OpenAI, das einst von Elon Musk verklagt wurde, weil es den Profit über die Menschheit stellte und seine ursprüngliche Mission aufgab, irgendwie als Schattenseiten.
„Unser einzigartiger Fokus bedeutet, dass wir nicht durch Verwaltungsaufwand oder Produktzyklen trac , und unser Geschäftsmodell sorgt dafür, dass Sicherheit und Fortschritt von kurzfristigen kommerziellen Zwängen isoliert sind.“
SSI
Sutskever gab am 15. Mai bekannt, dass er OpenAI verlässt, nachdem er fast ein Jahrzehnt beim führenden KI-Unternehmen gearbeitet hatte. Zuvor war er im Radio verstummt, nachdem im Dezember letzten Jahres der Versuch gescheitert war, den CEO Sam Altman von OpenAI zu verdrängen.
Nach fast einem Jahrzehnt habe ich die Entscheidung getroffen, OpenAI zu verlassen. Die Entwicklung des Unternehmens war geradezu wundersam, und ich bin zuversichtlich, dent @sama , @gdb , @miramurati und jetzt unter der Führung von … eine AGI aufbauen wird, die sowohl sicher als auch nützlich ist.
— Ilya Sutskever (@ilyasut) 14. Mai 2024
Ein weiterer OpenAI-Manager, Jan Leike, trat nach Sutskever zurück. Beide leiteten gemeinsam das Superalignment-Team bei OpenAI, das dafür verantwortlich ist, zu verhindern, dass superintelligente KI-Modelle abtrünnig werden.
Lesen Sie auch: Ein weiterer OpenAI-Manager, Jan Leike, gibt auf
Sutskever hat seine Gründe für den Ausstieg aus OpenAI nicht klar dargelegt. Allerdings verwies Leike auf Sicherheitsbedenken im Unternehmen und sagte, dass „Sicherheitskultur und -prozesse in den letzten Jahren gegenüber glänzenden Produkten in den Hintergrund gerückt sind.“
„Ich bin beigetreten, weil ich dachte, dass OpenAI der beste Ort der Welt wäre, um diese Forschung durchzuführen“, sagte Leike. „Allerdings war ich schon seit geraumer Zeit anderer Meinung mit der Führung von OpenAI über die Kernprioritäten des Unternehmens, bis wir schließlich an einem Bruchpunkt angelangt sind“, fügte er hinzu.
SSI ist nicht der erste, der von OpenAI abzweigt
Leike kam am 28. Mai als ML-Forscher zum OpenAI-Konkurrenten Anthropic, während Sutskever sein neues KI-Unternehmen aufbaute – was mittlerweile schon wieder vorkommt.
Bemerkenswert ist, dass SSI nicht das erste Unternehmen sein wird, das von OpenAI abzweigt. Im Jahr 2021 verließen zwei ehemalige Mitarbeiter von OpenAI das Unternehmen, um Anthropic mitzugründen, das zum 13. Mai nach der Finanzierung nun einen Wert von 18,4 Milliarden US-Dollar hat.
Anthropic-Gründer hatten OpenAI auch aufgrund von Meinungsverschiedenheiten mit Sam Altman über die sichere Entwicklung von KI verlassen.
Kryptopolitische Berichterstattung von Ibiam Wayas
Von Null zu Web3 Pro: Ihr 90-Tage -Karrierestartplan