In diesem Beitrag:
- io.net, ein GPU-Cloud-Netzwerk, hat sich mit Phala Network zusammengetan, um dezentrale KI und sichere Berechnungen zu revolutionieren.
- Die strategische Allianz wird Phala Network über IO Cloud, das Cloud-Netzwerk von io.net, mit GPU-Hardware ausstatten.
- Phala Network hat seit seinem Mainnet im Jahr 2021 eine Infrastruktur mit 40.000 TEE-CPU-Knoten (Trusted Execution Environment) aufgebaut.
In einer am 26. September veröffentlichten Erklärung kündigte das GPU-Cloud-Netzwerk io.net seine strategische Zusammenarbeit mit Phala Network an, um dezentrale KI und sichere Berechnungen voranzutreiben. Phala würde über das Cloud-Netzwerk von io.net, IO Cloud, mit GPU-Hardware ausgestattet, um seine dezentralen KI-Funktionen zu erweitern.
Der Aussage zufolge würde Phalas verbesserte Fähigkeit, TE-CPU-Knoten zu unterstützen, eine Umgebung und die notwendige Infrastruktur bereitstellen, um rechentechnisch komplexe dApps zu gedeihen. Derzeit verlässt sich Phala Network auf Nvidia H100- und H200-GPUs, um seine TEE-Technologie zu betreiben, aber die Partnerschaft mit io.net würde Phalas Zugang zu den „wesentlichen GPUs, die den Grundstein seines dezentralen KI-Ökosystems bilden“ sicherstellen.
Die IO Cloud von io.net unterstützt den On-Demand-GPU-Zugriff von Phala
In der io.net-Erklärung wurde klargestellt, dass IO Cloud es Phala ermöglichen würde, dezentrale GPU-Cluster bei Bedarf bereitzustellen und zu verwalten. Phala Network könnte auf leistungsstarke GPU-Ressourcen zugreifen, ohne in kostspielige Hardware zu investieren oder eine komplexe Infrastruktur verwalten zu müssen.
IO Cloud demokratisiert den GPU-Zugriff für ML-Entwickler und -Ingenieure, indem es ein Cloud-ähnliches Erlebnis bietet, um fortschrittliches Computing zugänglicher und bis zu 90 % günstiger im Vergleich zu herkömmlichen Cloud-Diensten zu machen, heißt es in der Erklärung. Phala und io.net würden ihre Anstrengungen beim Benchmarking, der Forschung und dem Testen modernster Technologie bündeln, beginnend mit den Nvidia H100s und H200s.
Der Erklärung zufolge waren die Partner daran interessiert, den Einsatz der autonomen KI- trac und KI-Agenten von Phala Network zu prüfen und die TEE-Hardware und -Worker von Phala in das GPU-Netzwerk des IO zu integrieren.
Phala setzt neue Maßstäbe für TEE-fähige GPUs
Wie in der Pressemitteilung angegeben, hat Phala Network im August seine ersten TEE-fähigen GPUs einem Benchmarking unterzogen, um neue dezentrale KI-Standards zu setzen. Die Partnerschaft mit io.net stellte sicher, dass wichtige KI-Arbeitslasten sicher mit fortschrittlichem kryptografischem Schutz verarbeitet wurden, indem TEE um KI-Beschleuniger wie GPUs erweitert wurde, heißt es in der Erklärung.
In der Erklärung wurde erklärt, dass die Sicherheitsebene von Phala durch sicheres Booten und mit verschlüsseltem Speicher ausgestattete Nvidia H100 Tensor Core GPUs weiter verbessert würde. Darüber hinaus wäre Phala in der Lage, Rechenleistung für die Ausführung und Schulung großer KI-Modelle wie Microsoft Phi und LLaMa 3 bereitzustellen, indem es auf die IO Cloud der Nvidia H100- und H200-GPUs zugreift.
Laut Aussage hat Phala Network seit seinem Mainnet-Start im Jahr 2021 eine robuste Infrastruktur mit 40.000 TEE-CPU-Knoten aufgebaut, um Web3-Entwicklern die reibungslose Übertragung komplexer Berechnungen von Smart trac in das sichere Off-Chain-Netzwerk von Phala zu ermöglichen. Die Erklärung bestätigte, dass die Knoten für die Aufrechterhaltung der Sicherheit und des Datenschutzes von entscheidender Bedeutung seien. In der Erklärung heißt es, dass sie darüber hinaus überprüfbare Orakel und Beweise zur Unterstützung verschiedener Web3-Anwendungen lieferten, die von KI-gesteuerten Agenten bis hin zu sozialen Apps reichen.