Hugging Face erhält eine Vielzahl von KI-Modellen zum Testen und Evaluieren, die anfällig für Hackerangriffe sind. Die Anpassungsrate künstlicher Intelligenz ist beispiellos. Dieser Boom hat zwar zur Entwicklung vieler nützlicher Tools beigetragen, gleichzeitig aber Hackern einen schnelleren und einfacheren Weg zur Umsetzung ihrer Angriffe eröffnet. So konnten Hacker beispielsweise bei Hugging Face durch das Ausführen eigener Codes auf Benutzerinformationen zugreifen.
Laut Forschern des Cloud-Sicherheitsunternehmens WIZ wies die Systemarchitektur, in der ML-Modelle (Maschinelles Lernen) ausgeführt wurden, zwei gravierende Schwachstellen auf. Diese Schwachstellen – das Risiko der Übernahme einer gemeinsam genutzten Inferenzinfrastruktur sowie das Risiko der Übernahme einer gemeinsam genutzten CI/CD-Infrastruktur – machten die Nutzer schutzlos Hackern ausgeliefert. Vereinfacht ausgedrückt: Diese Schwachstellen ermöglichten es Hackern, ihren Code heimlich hochzuladen und so die Registry zu manipulieren.
Die Partnerschaft zwischen Hugging Face und WIZ zur Untersuchung der Mängel
Hacker konnten unbefugt auf die Daten anderer Nutzer zugreifen, indem sie eigene, schädliche KI-Modelle hochluden. Dies stellte ein erhebliches Problem dar und hätte dem Ruf von Hugging Face dent von KI-Modellen im Rahmen von KI-as-a-Service (AaaS) genutzt werden. WIZ kooperierte mit AaaS-Unternehmen, um Sicherheitslücken in diesen Plattformen aufzudecken. Im Fall von Hugging Face führte die immense Popularität und weite Verbreitung dazu, dass die Plattform ins Visier von Hackern geriet. Die Zusammenarbeit mit WIZ bot Hugging Face eine gute Gelegenheit, die Schwachstellen im System zu beheben und die Sicherheitsmaßnahmen der Plattform zu verstärken.
Wie bekannt, benötigen KI-Modelle eine höhere GPU-Leistung, um ihre Funktionen auszuführen. Startups und kleinere Anbieter sind daher auf KI-Dienstleister angewiesen. Die Schnittstellen-API von Hugging Face bietet genau diesen Service. WIZ Research setzte jedoch ein eigenes, bösartiges KI-Modell mit schädlichen Funktionen ein, das den Hugging-Face-Service beeinträchtigte. Dadurch wurde das System angreifbar, und WIZ konnte auf die Modelle anderer Kunden zugreifen, die den Hugging-Face-Service nutzten.
Lösungen und Abhilfemaßnahmen zum Schutz auf Alaas-Plattformen
WIZ erklärte in seinem Blog, dass diese Mängel und Erkenntnisse nicht nur Hugging Face betreffen, sondern weitreichendere Folgen für die gesamte KI-as-a-Service-Branche haben. Alle Akteure der Branche sind gefährdet, da Hacker sie als eine Art GitHub für KI-Modelle betrachten und versuchen, sich illegalen Zugriff auf diese zu verschaffen.
Hugging Face und Wiz schlugen gemeinsam einige Vorsichtsmaßnahmen zur Verhinderung von Sicherheitslücken vor. Sie empfahlen strenge Sicherheitskontrollen und die regelmäßige Überwachung der Aktivitäten. Außerdem schlugen sie die Verwendung sicherer Registries und die Bereitstellung einer Sandbox-Umgebung für die Ausführung von Benutzeranwendungen vor, indem die Speicherorte für den Quellcode besser geschützt werden, um den Zugriff durch andere Benutzer zu verhindern.

