Wird geladen...

KI-System der nächsten Generation verspricht dent Skalierbarkeit

TL;DR

  • AI21 enthüllt Jamba, ein leistungsstarkes Hybrid-KI-Modell, das Mamba- und Transformer-Technologie vereint.
  • Jamba zeichnet sich durch seine Skalierbarkeit aus und bietet bis zu 140.000 Kontexte auf einer einzigen GPU.
  • Die Open-Source-Version des Modells und die Integration mit der NVIDIA-API vereinfachen die Bereitstellung.

Jambo unterstützt die One-Stop-Shop-Geschäftslösung AI21 und übertrifft gleichzeitig alle bekannten Weltmodelle in puncto Produktivität. Damit ist Jambo das erste Modell, das auf einer Mamba-basierten Methode in Produktionsqualität verfügbar ist. Mit der Integration der Mamba SSM-Technologie und den Elementen einer alten Transformer-Architektur steht Jamba für eine neue Vision bei der Gestaltung des größeren Sprachmodells ( LLM ).

LLMs revolutionieren

Das Erscheinen von Jamba weist auf einen Ärawechsel bei LLMs hin, die effizient mit den Einschränkungen der regulären SSM- und Transformers-Architekturtypen umgehen. Jamba wagt sich an Kontextfenstergrößen von bis zu 256 KB heran und hat bei unterschiedlichen Benchmarks einen großen Vorsprung gegenüber anderen Modellen in ähnlichen Regionen, wodurch die neue Messlatte als Maßstab für die beste Effizienz und Leistung gesetzt wird.

Die Architektur von Jamba weist viele Aspekte auf, die sie zu einem Hybridsystem aus Transformern, Mambas und einer Mischung von Experten (MoE) machen, die synergetisch zusammenarbeiten. Diese Integration implementiert eine Optimierung der Speichernutzung zusammen mit dem Durchsatz, der bei einer umfangreichen Sprachaufgabe im Mittelpunkt steht, und verschiebt die Grenzen der erreichbaren Leistung.

Skalierbarkeit ist die DNA von Jamba, was bedeutet, dass es mit nur einer GPU über 140.000 Kontexte verarbeiten kann. Diese Skalierbarkeit kann den Betrieb und die Beteiligung auf Distanz halten, das Lernen und Erkunden unterstützen, neues Wissen generieren und Innovationen innerhalb der KI-Community fördern.

Meilensteine

Die Einführung von Jamba markiert nicht nur ein bahnbrechendes Phänomen, sondern auch einen bahnbrechenden Schritt nach vorn im Bereich der LLM-Forschung. Erstens ist es gelungen, die Mamba- und die Transformer-Architektur so zu verschmelzen, dass die beiden wie Symbionten zusammenarbeiten, deren Kombination sich als wirklich mächtiger erweist als die einzelnen Hälften. Darüber hinaus stellt der Text eine hybride SSM-Transformer-Version vor, die die Leistung und Geschwindigkeit anderer bestehender SSM-Transformer mit der Fähigkeit kombiniert, in neuen Kontexten besser zu arbeiten.

Dagan hingegen, VP of Product bei AI21, äußerte sich unglaublich und behielt Jambas gemischte Architekturstruktur im Vordergrund. Er erklärte, wie die Agilität von Jamba eine schnelle Bereitstellung von Anwendungsfällen mit großen Volumina ermöglicht, die Schnelligkeit in Echtzeit unterstützt und sogar die Einführung kritischer Anwendungsfälle beschleunigt.

Open-Source-Zusammenarbeit

Jambas Open-Weights-Veröffentlichung mit einer Apache 2.0-Lizenz impliziert, dass AI21 diese Art von Auftrag in der Open-Source-Community implementieren kann. AI21 setzt sich dafür ein, ein Umfeld zu schaffen, in dem neue Fortschritte durch die Förderung weiterer Beiträge und Ideen gefördert werden können.

Die Kapselung einer NVIDIA- GPU-Pipeline als NIM-Inferenz-Microservice vereinfacht die Zugänglichkeit von Jamba für Unternehmensanwendungen. Humanisierung: Die reibungslose Integration ermöglicht eine schnelle und problemlose Bereitstellung bei gleichzeitiger Aktualisierung der Jampa-Anwendungen in praktisch allen täglichen Szenarien.

Die Veröffentlichung von Jamba durch AI21 stellt einen wichtigen Meilenstein im Bereich der Unternehmens-KI dar. Jamba ist bereit, die Sprachmodellbranche zu verändern, indem es eine innovative Hybridarchitektur, unübertroffene Skalierbarkeit und außergewöhnliche Modellintegrationsfunktionen bietet. Dadurch sind Kunden in der Lage, ihre anspruchsvollen Sprachaufgaben einfacher und schneller als bisher zu bewältigen.

AI21 hat auch seine Unterstützung für Open-Source-Zusammenarbeit und Geschäftspartnerschaften mit führenden KI-Unternehmen wie NVIDIA unter Beweis gestellt, was sein Engagement für die Beschleunigung des technologischen Fortschritts und die Steigerung der Einführung hocheffizienter KI-Lösungen in verschiedenen Bereichen unterstreicht.

Jamba sichert sich jedoch seinen Platz in der breiteren KI-Landschaft, wenn es um die Sprachverarbeitung geht; Daher werden die Auswirkungen weit über den Rahmen herkömmlicher Sprachverarbeitungsplattformen hinaus spürbar sein und eine neue Ordnung KI-gestützter Geschäftslösungen einleiten.

Haftungsausschluss. Die bereitgestellten Informationen sind keine Handelsberatung. Cryptopolitan.com haftet nicht für Investitionen, die auf der Grundlage der auf dieser Seite bereitgestellten Informationen getätigt wurden. Wir tron dringend unabhängige dent und/oder Beratung durch einen qualifizierten Fachmann, bevor Sie Anlageentscheidungen treffen.

Einen Link teilen:

Benson Mawira

Benson ist ein Blockchain-Reporter, der sich mit Branchennachrichten, On-Chain-Analysen, nicht fungiblen Token (NFTs), künstlicher Intelligenz (KI) usw. beschäftigt hat. Sein Fachgebiet sind die Kryptowährungsmärkte sowie grundlegende und technische Analysen Mit seiner Berichterstattung über alles im Bereich Finanztechnologien hat Benson eine weltweite Leserschaft gewonnen.

Meist gelesen

Die meisten gelesenen Artikel werden geladen...

Bleiben Sie über Krypto-Neuigkeiten auf dem Laufenden und erhalten Sie tägliche Updates in Ihrem Posteingang

Ähnliche Neuigkeiten

Apfel
Kryptopolitan
Abonnieren Sie CryptoPolitan