Der KI-Wettbewerb zwischen Google und OpenAI hat sich innerhalb von nur zwei Monaten des Jahres 2024 weiter verschärft. Am 15. Februar kündigte OpenAI Sora an, den wohl besten KI-Videogenerator, der je entwickelt wurde. Am Mittwoch präsentierte Google mit Gemma ein neues, bahnbrechendes Produkt.
Gemma ist eigentlich kein einzelnes Produkt, sondern eine Familie zweier großer Sprachmodelle. Google selbst formuliert es so: „Gemma ist eine Familie von schlanken, offenen Modellen, die auf der Forschung und Technologie basieren, die Google zur Entwicklung der Gemini-Modelle verwendet hat.“
Laut Ankündigung steht Gemma Entwicklern weltweit zur Verfügung. Die Modelle können zur Entwicklung verschiedener Tools wie Chatbots und praktisch allem anderen, was LLMs leisten können, verwendet werden, bieten aber einige einzigartige Vorteile.
Hier sind einige Details, die Sie über Gemma wissen sollten.
1. Gemma Open Models
Gemma ist Googles erstes großes Modell, das speziell für die offene Entwickler- und Forschergemeinschaft entwickelt wurde. Google hat bei seinen KI-Produkten, einschließlich Gemini, dem fortschrittlichsten Modell des Unternehmens, das einige seiner Produkte wie Bard (jetzt Gemini) antreibt, bisher größtenteils einen geschlossenen Zugangsansatz verfolgt.
Googles geschlossene Vorgehensweise hat Kritik von Open-Source-Befürwortern wie Meta-Chefentwickler Yann LeCun hervorgerufen, der argumentierte, dass DeepMind, Googles KI-Entwicklungsabteilung, „immer weniger offen wird. […] Ich denke, das wird den Fortschritt im gesamten Bereich verlangsamen. Daher bin ich nicht sehr glücklich darüber.“
Gemmas eigentlicher Quellcode oder ihre Trainingsdaten werden nicht als „Open Model“ für die Öffentlichkeit zugänglich gemacht, aber die „Gewichte“ oder vortrainierten Parameter des Modells werden zur Verfügung gestellt, berichtete Forbes unter Berufung auf Google-Sprecherin Jane Park.
2. Gemma Modellgewichte sind in zwei Größen erhältlich
Gemma ist in zwei Gewichtsklassen verfügbar – Gemma 2B und Gemma 7B. Laut Ankündigung wird jede Größe mit vortrainierten und instruktionsoptimierten Varianten veröffentlicht. Die Parameter repräsentieren die Verbindungen und Gewichtungen innerhalb des Modells, die es ihm ermöglichen, Nuancen und Zusammenhänge in den Daten zu erfassen.
Je mehr Parameter ein Modell hat, desto besser kann es komplexe Muster lernen und komplizierte Aufgaben bewältigen, wie zum Beispiel Sprachen übersetzen, verschiedene Arten von kreativen Textformaten schreiben oder komplexe Fragen verstehen.
3. Gemma ist laptopfreundlich
Gemma ist zwar ein leistungsstarkes Sprachmodell, wurde aber speziell für einen effizienten Betrieb und den Einsatz in weniger anspruchsvollen Umgebungen im Vergleich zu anderen großen Sprachmodellen entwickelt. Laut Google ist das Modell plattformübergreifend kompatibel und kann auf verschiedenen Geräten wie Laptops, Desktop-PCs, IoT-Geräten, Mobilgeräten und in der Cloud ausgeführt werden, wodurch KI-Funktionen breit zugänglich gemacht werden.
„Vorab trainierte und auf Anweisungen abgestimmte Gemma-Modelle können auf Ihrem Laptop, Ihrer Workstation oder in der Google Cloud ausgeführt werden und lassen sich einfach auf Vertex AI und Google Kubernetes Engine (GKE) bereitstellen“, heißt es in der Ankündigung.

