Die britischen Aufsichtsbehörden arbeiten mit Hochdruck daran, die von Anthropics neuestem KI-Modell ausgehende Gefahr zu bewerten, nachdem die Beamten zu dem Schluss gekommen waren, dass dessen Fähigkeit, versteckte Softwarefehler aufzuspüren, ein direktes Risiko für Banken, Versicherer, Börsen und das gesamte Finanzsystem darstellen könnte.
Laut Financial Times sind an den Gesprächen die Bank of England, die Financial Conduct Authority, das britische Finanzministerium und das National Cyber Security Centre beteiligt, die Schwachstellen in IT-Systemen im gesamten britischen Finanzsektor untersuchen.
Britische Banken, Versicherer und Börsen werden innerhalb der nächsten zwei Wochen vor den Risiken im Zusammenhang mit Claude Mythos Preview, der neuesten Veröffentlichung von Anthropic, gewarnt, über Cryptopolitanbereits berichtet hatte. Die britische Reaktion folgt einer Einberufung durch US-Finanzminister Scott Bessent, der führende Vertreter großer Wall-Street-Banken zu demselben Thema einbestellt hatte.
Letzte Woche, als Anthropic Mythos für ausgewählte Kunden freigab, erklärte das 380 Milliarden Dollar schwere Start-up-Unternehmen aus San Francisco, das System habe bereits „Tausende von schwerwiegenden Sicherheitslücken gefunden, darunter einige in jedem wichtigen Betriebssystem und Webbrowser“, darunter auch einige, die jahrzehntelang unbemerkt geblieben waren.
Aufsichtsbehörden bereiten Warnungen an Banken vor, da das Cybersicherheitsmodell von Anthropic alte Systemschwächen offenlegt
Das Thema steht auf der Tagesordnung der nächsten Sitzung der Cross Market Operational Resilience Group (CMORG), in der britische Aufsichtsbehörden und Finanzunternehmen Bedrohungen für den Sektor erörtern. Den Vorsitz der CMORG führen gemeinsam Duncan Mackinnon, Exekutivdirektor für Aufsichtsrisiken der Bank of England, und David Postings, Leiter des Bereichs Finanzen in Großbritannien.
Die Gruppe umfasst hochrangige Vertreter von acht der größten britischen Banken, vier Anbietern von Finanzinfrastruktur, zwei Versicherern sowie des NCSC, der FCA und des britischen Finanzministeriums. Der Telegraph berichtete zuerst über die Tagesordnung. Die Bank of England lehnte eine Stellungnahme ab.
Anthropic erklärte: „Es würde nicht lange dauern, bis sich solche Fähigkeiten verbreiten, möglicherweise auch über Akteure hinaus, die sich zu deren sicherem Einsatz verpflichtet haben.“ Weiterhin warnte die Organisation: „Die Folgen für Wirtschaft, öffentliche Sicherheit und nationale Sicherheit könnten gravierend sein.“
Die Behörden prüfen, ob solche Tools Schwachstellen in Zahlungssystemen, Handelsplattformen, Versicherungsnetzwerken und anderen Kernbereichen des Marktes aufdecken könnten. David Raw, Geschäftsführer für Resilienz bei UK Finance, sagte: „Wir sind uns der Presseberichte über die Entwicklung von Anthropic AI und der damit verbundenen Risiken bewusst.“
Er fügte hinzu: „UK Finance tauscht sich mit seinen Mitgliedern und im Rahmen seiner öffentlich-privaten Partnerschaften über alle wesentlichen operationellen Risiken aus, die die Widerstandsfähigkeit des britischen Finanzdienstleistungssektors beeinträchtigen könnten.“
Die Bank von England kann im Falle einer dringenden Bedrohung auch innerhalb von ein bis zwei Stunden die separate Cross Market Business Continuity Group einberufen, hat dies hier aber nicht getan.
OpenAI pausiert Stargate UK, während Großbritannien mit Energiekosten und Unsicherheit bezüglich der KI-Regeln zu kämpfen hat
Gleichzeitig gestaltet sich das Umfeld im KI-Sektor schwierig. OpenAI, ein Konkurrent von Anthropic, setzt sein milliardenschweres britisches Rechenzentrumsprojekt Stargate UK aus. Geplant war ein großer Standort im Nordosten Englands sowie der Zugang zu leistungsstarken Chips durch Partnerschaften mit Nvidia und Nscale.
Es war Teil eines umfassenderen britischen Technologieinvestitionspakets in Höhe von 31 Milliarden Pfund. Am Donnerstag erklärte ein Sprecher von OpenAI, das Unternehmen werde erst dann weitermachen, wenn die „richtigen Bedingungen“ langfristige Infrastrukturinvestitionen ermöglichten
Der Sprecher sagte: „Wir sehen enormes Potenzial für die KI-Zukunft Großbritanniens. London beherbergt unser größtes internationales Forschungszentrum, und wir unterstützen das Bestreben der Regierung, eine führende Rolle im Bereich KI einzunehmen.“ Er fügte hinzu:
„KI-Rechenleistung ist die Grundlage für dieses Ziel. Wir erforschen Stargate UK weiterhin und werden voranschreiten, sobald die richtigen Rahmenbedingungen, wie etwa regulatorische Vorgaben und Energiekosten, langfristige Infrastrukturinvestitionen ermöglichen.“
Als OpenAI das Projekt im September ankündigte, hieß es, es werde die „souveränen Rechenkapazitäten“ Großbritanniens stärken und die Entwicklung einheimischer KI fördern. Zudem werde das Projekt dazu beitragen, die zukünftige Wirtschaft anzukurbeln, die Wettbewerbsfähigkeit zu steigern und den nationalen Aktionsplan für KI-Chancen zu unterstützen.
Doch schon vor dem Iran-Krieg lagen die Energiepreise in Großbritannien weit über denen in den USA, und es herrscht weiterhin Unsicherheit darüber, ob das Gesetz geändert wird, um KI-Firmen zu ermöglichen, Modelle anhand urheberrechtlich geschützter Werke zu trainieren, indem ein „Opt-out“-System für Urheber eingeführt wird.

