NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

Silicon-Valley-Tech-Giganten vernachlässigen die KI-Sicherheit zugunsten von Produktgewinnen

VonCollins J. OkothCollins J. Okoth
3 Minuten Lesezeit
  • Technologieunternehmen im Bereich der künstlichen Intelligenz priorisieren Produkte gegenüber Forschung, doch Branchenexperten sind um die Sicherheit besorgt.
  • James White, CTO von Calypso, sagte, dass KI-Modelle zwar immer besser würden, aber wahrscheinlich auch eine negative Seite hätten.
  • zurückstehen mussten „glänzenden“ Produkten

Das Silicon Valley war einst der Hotspot für innovative KI-Forschung weltweit. Experten warnen jedoch, dass sich die Dinge geändert haben und KI heute vor allem auf das Produkt fokussiert ist. KI-Forscher und -Experten sind zudem der Ansicht, dass die Technologiebranche seit der Veröffentlichung von ChatGPT durch OpenAI Ende 2022 die Kommerzialisierung gegenüber der Forschung priorisiert und sich auf die Entwicklung marktreifer KI-Produkte konzentriert.

Analysten von Morgan Stanley prognostizierten , dass die KI-Branche bis 2028 das Potenzial hat, einen Jahresumsatz von 1 Billion US-Dollar zu erreichen. Branchenexperten äußerten Bedenken hinsichtlich der Sicherheit, da führende Akteure die Entwicklung künstlicher allgemeiner Intelligenz (AGI) vorantreiben.

Die KI-Forschung rückt wieder in den Fokus der Profitmaximierung, da das Silicon Valley Produkte über Sicherheit stellt

OpenAI, 2015 als gemeinnütziges Forschungslabor gegründet, befindet sich laut CEO Sam Altman mitten in den Bemühungen, sich in ein gewinnorientiertes Unternehmen umzuwandeln. Jan Leike, die ehemalige Leiterin des Bereichs „Alignment“ bei OpenAI, dessen Team sich auf KI-Sicherheit konzentrierte, trat letztes Jahr zurück und erklärte, dass in den vergangenen Jahren „Sicherheitskultur und -prozesse hinter glänzenden Produkten zurückstehen mussten“.

James White, Technologiechef des Cybersicherheits-Startups Calypso, argumentierte, dass Technologieunternehmen bei der rigorosen Prüfung ihrer KI-Modelle vor der Veröffentlichung immer häufiger Abstriche machen. Er merkte an, dass neuere KI-Modelle die Sicherheit zugunsten der Qualität – also besserer Antworten der KI-Chatbots – opfern. 

„Die Modelle werden zwar besser, aber sie neigen auch eher dazu, schlechte Dinge zu tun. Es ist einfacher, sie dazu zu verleiten, schlechte Dinge zu tun.“

– James White, Chief Technology Officer bei Calypso.

Im März schien Google mit der Veröffentlichung seines neuesten KI-Modells Gemini 2.5, das als das intelligenteste KI-Modell des Unternehmens angepriesen wurde, dem Produkt Vorrang vor der Sicherheit einzuräumen. Das Unternehmen versäumte es jedoch wochenlang, die Modellkarte von Gemini 2.5 zu veröffentlichen, sodass es bei der Veröffentlichung keine Informationen über die Funktionsweise des KI-Modells, seine Grenzen und potenziellen Gefahren preisgab.

Das Unternehmen räumte am 2. April ein, dass es seine fortschrittlichsten Modelle vor der Markteinführung auf potenziell gefährliche Funktionen prüft. Google aktualisierte den Blogbeitrag später und entfernte die Formulierung „vor der Markteinführung“.

Das Unternehmen veröffentlichte am 16. April eine unvollständige Modellkarte und aktualisierte diese am 28. April, mehr als einen Monat nach der Veröffentlichung des KI-Modells, um Informationen über die Gefahrenpotenzialbewertungen von Gemini2.5 aufzunehmen.

KI-Technologieunternehmen verlagern ihren Fokus von der Forschung hin zu umsatzgenerierenden Produkten

Ehemalige Mitarbeiter von Meta gaben an, nicht überrascht gewesen zu sein, als Joelle Pineau, Vizepräsidentin von Metadent Leiterin der FAIR-Abteilung des Unternehmens, ankündigte . Sie erwähnten, dass sie dies als Bestätigung des Kurswechsels des Unternehmens weg von der KI-Forschung hin zur Priorisierung der Entwicklung praktischer Produkte werteten.

Pineau leitet FAIR seit 2023, und laut Mitarbeitern von Metakönnten kleine Forschungsteams an verschiedenen Spitzentechnologien arbeiten, deren Erfolg ungewiss ist. Der Wandel begann, als das Technologieunternehmen Ende 2022 21.000 Mitarbeiter, also fast ein Viertel seiner Belegschaft, entließ. Ehemalige Mitarbeiter, die mit der Angelegenheit vertraut sind, gaben an, dass die FAIR-Forscher im Rahmen der Kostensenkungsmaßnahmen angewiesen wurden, enger mit den Produktteams zusammenzuarbeiten.

Zwei mit der Angelegenheit vertraute Personen gaben an, dass Kim Hazelwood, eine der Direktorinnen von FAIR, das Unternehmen Anfang des Jahres im Zuge von Metas Plan, 5 % der Belegschaft abzubauen, verlassen hat. Die Personen merkten an, dass die Veröffentlichung von ChatGPT durch OpenAI bei Meta den Druck erhöht habe, mehr Ressourcen in große Sprachmodelle (LLMs) zu investieren.

Die Informanten enthüllten außerdem, dass Chris Cox, Chief Product Officer von Meta, die FAIR-Gruppe leitet, um die Kluft zwischen Forschung und der produktorientierten GenAI-Gruppe zu überbrücken. Sie fügten hinzu, dass GenAI unter Cox' Führung aufgrund seines höheren Stellenwerts im Unternehmen vermehrt Computerressourcen und Teammitglieder von FAIR abzieht. 

Meta veröffentlichte Sicherheits- und Schutztools für Entwickler, die Apps mit den KI-Modellen von Llama 4 erstellen möchten. Laut Meta tragen die Tools dazu bei, das Risiko zu minimieren, dass Llama 4 unbeabsichtigt sensible Informationen preisgibt oder schädliche Inhalte erzeugt.

Wenn Sie das hier lesen, sind Sie schon einen Schritt voraus. Bleiben Sie mit unserem Newsletter auf dem Laufenden.

Diesen Artikel teilen
MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS