Mark Zuckerberg treibt Meta mit Mango, einem neuen Bild- und Videomodell, das neben Metas nächstem Textmodell Avocado steht, direkt zurück in den KI-Wettkampf. Alle drei wurden entwickelt, um es mit Googles neuen Gemini-Tools und den Bildsystemen von OpenAI aufzunehmen.
Meta plant, beide Modelle in der ersten Hälfte des Jahres 2026 auf den Markt zu bringen, wie Alexandr Wang, Chief AI Officer des Unternehmens, in einer internen Fragerunde mit Chris Cox erklärte.
Alexandr sagte , dass Meta mit der Arbeit an frühen Weltmodellen beginnt, was bedeutet, dass KI-Systeme lernen, indem sie visuelle Daten aus ihrer Umgebung aufnehmen.
Meta hat im Sommer seine gesamte KI-Struktur umgestaltet. Das Unternehmen stellte Alexandr ein, um eine Abteilung namens Meta Superintelligence Labs zu leiten. Zuckerberg startete daraufhin eine großangelegte Einstellungsoffensive und holte über zwanzig Forscher von OpenAI ab.
Er baute ein Team von über fünfzig Mitarbeitern mit fundierten KI-Kenntnissen auf. Meta versucht, massiv auf Spezialisten zu setzen, da die Bildgenerierung mittlerweile zu einem der Hauptkampfgebiete zwischen großen Modellierungsunternehmen geworden ist.
Die Modelle von Google und OpenAI werden schwer zu übertreffen sein.
Meta veröffentlichte im September einen Videogenerator namens Vibe. Das Tool wurde mit Midjourney entwickelt. Wenige Tage später brachte OpenAI mit Sora sein eigenes Produkt auf den Markt, um mitzuhalten. Dieser Wettlauf verdeutlichte, wie schnell die beiden Unternehmen reagieren.
Google hatte bereits Anfang des Jahres mit Nano Banana eine weitere Welle ausgelöst, die die monatlichen Nutzerzahlen von Gemini von 450 Millionen im Juli auf über 650 Millionen Ende Oktober steigerte. Dieser Sprung erhöhte den Druck auf die Konkurrenz zusätzlich.
Die Spannungen verschärften sich im November erneut, als Google die dritte Version von Gemini veröffentlichte. Kurz darauf rief Sam Altman laut Aussagen von Mitarbeitern von OpenAI den Alarmzustand aus, um das Unternehmen zu Höchstleistungen bei den Modelltests zu bewegen. OpenAI veröffentlichte daraufhin eine neue Version von ChatGPT Images.
Sam traf später Journalisten und erklärte, die Bildgestaltung sei mittlerweile einer der Hauptgründe, warum Nutzer zu KI-Apps zurückkehren; er bezeichnete sie als ein „einprägsames“ Merkmal. Die Botschaft war eindeutig: Der Kampf um die besten Bilder geht weiter.
Google hat am Mittwoch den Gemini 3 Flash vorgestellt. Das Modell ist auf höhere Geschwindigkeit und geringere Kosten ausgelegt und für den breiten Einsatz gedacht. Es bietet viele der Analysefunktionen des Gemini 3 Pro, jedoch in einem kompakteren System.
Der ganze Plan ist einfach. Anstatt die besten Tools hinter Unternehmensplänen zu verstecken, möchte Google diese Modelle in Massenmarkt-Apps integrieren.
Alphabet-CEO Sundar Pichai sagte: „Mit dieser Veröffentlichung wird die nächste Generation der künstlichen Intelligenz von Gemini 3 nun für alle unsere Produkte, einschließlich der Gemini App und des KI-Modus in der Suche, eingeführt. Entwickler können sie in der Gemini API, Google AI Studio, Gemini CLI und Google Antigravity nutzen, und Unternehmen können sie in Vertex AI und Gemini Enterprise einsetzen.“

