Die AWS (Amazon Web Services) von Amazon wird die Marktdominanz von NVIDIA im KI -Chipsektor herausfordern, da er durch Graviton4 CPUs und Trainiums -Beschleuniger in seine benutzerdefinierte Chip -Strategie eindringt. Die benutzerdefinierten Chips sind so konstruiert, dass sie die Gewinnmargen bei KI -Workloads maximieren, indem die Datenübertragungskosten in Cloud -Umgebungen gesenkt werden.
AWS kündigte ein Update für seinen Graviton4 -Chip an, das 600 Gigabit pro Sekunde der Netzwerkbandbreite enthält, die das Unternehmen das höchste Angebot in der öffentlichen Cloud bezeichnet. Ali Saidi, ein Ingenieur von AWS, verglich die Geschwindigkeit mit einer Maschine, die 100 Musik -CDs pro Sekunde las. Die Graviton4 -CPU ist eines von vielen Chip -Produkten von Annapurna Labs von Amazon in Austin, Texas, und es ist ein Sieg für die kundenspezifische Strategie des Unternehmens und stellt sie gegen traditionelle Spieler wie Intel und AMD vor.
Mit dem Upgrade von Graviton4 am Horizon- und Project Rainier's Trainium -Chips demonstrierte Amazon seinen Ehrgeiz, den gesamten KI -Infrastrukturstapel von der Networking über das Training bis hin zu Inferenz zu kontrollieren. Da mehr größere KI-Modelle wie Claude 4 bewiesen haben, dass sie erfolgreich auf Nicht-Nvidia-Hardware trainieren konnten, stand nicht die Frage, ob AWS mit dem Chip-Riesen konkurrieren konnte, sondern wie viel Marktanteil es dauern könnte.
Laut Hutt wird Amazon billigere Alternativen zum GPUS von Nvidia bieten
AWS Senior Director für Kunden- und Produkttechnik Gadi Hutt sagte, Amazon wollte die KI -Schulungskosten senken und Alternativen zu den teuren Grafikverarbeitungseinheiten (GPUs) von NVIDIA Laut AWS wurde das Claude Opus 4 AI -Modell von Anthropic im Trainium2 GPUs und Project Rainier mit über 500.000 Chips angetrieben - eine Bestellung, die im Allgemeinen nach Nvidia gegangen wäre.
Hutt sagte, dass Nvidias Blackwell zwar ein höherer Leistungs-Chip als Trainium2 war, der AWS-Chip jedoch eine bessere Kostenleistung bot. Er wies auch darauf hin, dass Trainium3 in diesem Jahr ansteht und die Leistung von Trainium2 verdoppelte und Energie um weitere 50%sparen würde. Rami Sinno, Direktor für Ingenieurwesen bei AWS 'Annapurna Labs, sagte, die Nachfrage nach diesen Chips habe das Angebot bereits übertroffen.
"Unser Angebot ist sehr, sehr groß, aber jeder einzelne Service, den wir bauen, hat einen Kunden."
- Rami Sinno , Ingenieurdirektor bei AWS 'Annapurna Labs
Das AWS -Team betonte, dass das Unternehmen zwar spezifische Lücken anerkannte, es jedoch lieber mit kleineren, innovativen Startups wie Anthropic, Skala KI und Geiger zusammenarbeitete, anstatt sich auf große Anbieter zu verlassen. Amazon unterstützt diese Unternehmen häufig durch strategische Investitionen und bildet sich gegenseitig vorteilhafte Beziehungen als Gegenleistung für die Bereitstellung von Kapital oder Infrastruktur, wie im Fall von Anthropic. AWS kündigte an der Erfindungskonferenz 2024 im vergangenen Dezember im vergangenen Dezember an, dass das Projekt Rainier - ein AI -Supercomputer für Startup -Anthropic gebaut wurde, und Berichten zufolge 8 Mrd. USD in den Backing -Anthropic gesteckt hat.
AWS 'Graviton4 und Trainium3 -Chips versprechen eine verbesserte Leistung und Effizienz
Das Amazon -Team gab bekannt , dass die für den späten 2025 eingestellten verbesserten Graviton4- und Trainium3 -Chips einen 4 -fachen Leistungssprung und 40% bessere Energieeffizienz versprachen, was die Nvidia -Margen weiter komprimierte. Es fügte hinzu, dass dies nicht nur ein Sieg für AWSs Top-Line-Wachstum war, sondern ein direkter Angriff auf die GPU-Prämie von Nvidia.
Rahul Kulkarni, Direktor für Produktmanagement von Amazon bei Compute und AI, sagte, der verbesserte Graviton4 habe versprochen, das Dreifache der Rechenleistung und des Speichers des Vorgängers, 75% mehr Speicherbandbreite und 30% bessere Leistung zu liefern. Er fügte hinzu, dass es kollektiv erwartet wurde, mehr Preisleistung zu liefern, was bedeutet, dass die Benutzer für jeden ausgegebenen Dollar viel mehr Leistung erhielten.
Patrick Moorhead, der CEO und Chief Analyst bei Moor Insights & Strategy, sagte, alle KI -Unternehmen gaben viel Geld für die Entwicklung von Chips aus und fügten hinzu, dass sie riesige F & E -Budgets hätten, obwohl sie nicht die genauen Zahlen dafür offenlegten, wie viel investiert wurde. Moorhead, der über ein Jahrzehnt als Vizepräsident bei AMD verbrachte dent fügte hinzu , dass Nvidia immer noch ein dominierender Spieler im AI -Chips -Markt blieb. Es gab jedoch genügend Nachfrage, um mehrere Wettbewerber, einschließlich AWS, zu unterstützen.
Ihre Krypto -Nachrichten verdienen Aufmerksamkeit - wichtiger Differenzdraht bringt Sie auf 250 Top -Websites