NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

FCA kooperiert mit Nvidia, um eine KI-Sandbox zur Förderung von Innovationen im Bankwesen einzuführen

VonCollins J. OkothCollins J. Okoth
3 Minuten Lesezeit
FCA kooperiert mit Nvidia, um eine KI-Sandbox zur Förderung von Innovationen im Bankwesen einzuführen
  • Die britische Finanzaufsichtsbehörde FCA kündigte in Zusammenarbeit mit dem US-amerikanischen Chiphersteller Nvidia einen Testraum an.
  • Das Unternehmen erklärte, die neue Initiative ziele darauf ab, Banken dabei zu helfen, sicher mit KI zu experimentieren.
  • Die Banken zögerten, ihren Kunden fortschrittliche neue KI-Tools zur Verfügung zu stellen, da sie Bedenken hinsichtlich der Risiken in Bezug auf Datenschutz und Betrug hatten.

Die britische Finanzaufsichtsbehörde FCA gab am Montag eine Partnerschaft mit dem US-amerikanischen Chiphersteller Nvidia bekannt, um Banken sichere Experimente mit künstlicher Intelligenz zu ermöglichen. Die Behörde kündigte die Einrichtung einer optimierten Testumgebung an, die Unternehmen Zugang zu besseren Daten, technischem Know-how und regulatorischer Unterstützung bieten soll, um Innovationen zu beschleunigen.

Die FCA erklärte , dass Finanzdienstleistungsinstitute in Großbritannien ab Oktober mit KI experimentieren dürfen. Die Unternehmen werden dabei auf die Rechenleistungs- und KI-Unternehmenssoftwareprodukte von Nvidia zurückgreifen.

Die FCA bietet eine Lösung für die KI-Herausforderungen von Banken

Die Finanzaufsichtsbehörde wies darauf hin, dass die Initiative für Unternehmen in der Entdeckungs- und Experimentierphase mit KI konzipiert ist. Die FCA bestätigte außerdem, dass für Unternehmen, die in der KI-Entwicklung bereits weiter fortgeschritten sind, ein separater Testservice existiert.

Die Behörde erklärte, die neue Sandbox löse ein zentrales Problem für Banken, die Schwierigkeiten hatten, ihren Kunden fortschrittliche KI-Tools bereitzustellen, da Bedenken hinsichtlich Datenschutz und Betrug bestanden. Große Sprachmodelle von Unternehmen wie OpenAI und Google senden Daten an ausländische Rechenzentren, deren Speicherung und Verarbeitung von Datenschutzbehörden kritisiert wurden.

„Diese Zusammenarbeit wird all jenen helfen, die KI-Ideen testen möchten, aber nicht über die nötigen Fähigkeiten verfügen. Wir werden Unternehmen dabei unterstützen, KI zum Nutzen unserer Märkte und Verbraucher einzusetzen und gleichzeitig das Wirtschaftswachstum zu fördern.“

Jessica Rusu, Chief Data, Intelligence and Information Officer bei FCA. 

Es wird erwartet, dass Jensen Huang, CEO von Nvidia, am Montagmorgen auf einer Technologiekonferenz in London eine Keynote-Rede halten wird.

Edward Achtner, Leiter der Abteilung für generative KI bei HSBC, sagte letztes Jahr auf einer Londoner Technologiekonferenz, er sehe „viel Erfolgstheater“ im Zusammenhang mit künstlicher Intelligenz. 

Achtner deutete an, dass einige Finanzdienstleistungsunternehmen Fortschritte im Bereich KI bewerben, ohne dass sich daraus konkrete Produktinnovationen ergeben. Er erwähnte außerdem, dass Banken wie HSBC zwar schon seit vielen Jahren KI einsetzen, neue generative KI-Tools wie ChatGPT von OpenAI jedoch mit spezifischen Compliance-Risiken verbunden sind.

Italien hat als erstes westliches Land ChatGPT verboten und begründet . Die italienische Datenschutzbehörde ordnete OpenAI an, die Verarbeitung von Daten italienischer Nutzer vorübergehend einzustellen, da gegen das Unternehmen wegen des Verdachts auf einen Verstoß gegen die strengen europäischen Datenschutzbestimmungen ermittelt wird.

Großbritannien plant die Regulierung künstlicher Intelligenz

Der britische Technologieminister Peter Kyle kündigte letzte Woche an, in der nächsten Parlamentssitzung einen Gesetzentwurf zur Künstlichen Intelligenz (KI) einzubringen, um Bedenken hinsichtlich Sicherheit und Urheberrecht auszuräumen. Zuvor hatten Minister einen Kurzentwurf geplant, der Unternehmen verpflichtet hätte, große KI-Modelle wie ChatGPT dem britischen Institut für KI-Sicherheit (AI Security Institute) zum Testen zur Verfügung zu stellen. 

Der Gesetzentwurf befasste sich mit der Befürchtung, dass KI-Modelle so fortschrittlich werden könnten, dass sie eine Gefahr für die Menschheit darstellen. Die Verabschiedung des Gesetzes verzögerte sich, da die Minister beschlossen, abzuwarten und sich der US-Regierung von Donald Trump anzuschließen. Hintergrund waren Befürchtungen, dass jegliche Regulierung dietracGroßbritanniens für KI-Unternehmen schwächen könnte.

Die britische Regierung und das Oberhaus streiten bereits über Urheberrechtsbestimmungen in einem separaten Datenschutzgesetz. Dieses würde es KI-Unternehmen erlauben, ihre Modelle mithilfe urheberrechtlich geschützten Materials zu trainieren, sofern der Rechteinhaber dem nicht widerspricht. Am Mittwoch stimmten die Mitglieder des Oberhauses mit 221 zu 116 Stimmen für einen Änderungsantrag, der KI-Unternehmen zur Transparenz hinsichtlich des verwendeten Trainingsmaterials verpflichten soll.

Die Regierung argumentierte, das Datenschutzgesetz sei nicht das richtige Instrument, um die Urheberrechtsfrage zu lösen, und versprach, eine Wirtschaftlichkeitsanalyse sowie eine Reihe technischer Berichte zu Urheberrechts- und KI-Fragen zu veröffentlichen. Die parteilose Abgeordnete Beeban Kidron erklärte, die Minister hätten die Kreativwirtschaft im Stich gelassen und den zweitgrößten Industriezweig Großbritanniens dezimiert.

Nun droht dem Gesetzentwurf die Streichung, falls das Unterhaus den Änderungsantrag von Kidron nicht annimmt oder einen Alternativvorschlag unterbreitet.

Die Ministerin des Oberhauses für digitale Wirtschaft und Online-Sicherheit, Maggie Jones, hatte die Peers dringend aufgefordert, gegen den Kidron-Änderungsantrag zu stimmen, nachdem die Regierung in letzter Minute Zugeständnisse angeboten hatte, um eine weitere Niederlage zu verhindern.

Kidron erklärte ihren Kollegen, dies sei ihre letzte Chance, die Regierung um eine sinnvolle Lösung zu bitten, und forderte die Minister außerdem auf, konkrete Schritte einzuleiten, um KI-Unternehmen den Urheberrechtsbestimmungen zu unterwerfen.

Die klügsten Köpfe der Krypto-Szene lesen bereits unseren Newsletter. Möchten Sie auch dabei sein? Dann schließen Sie sich ihnen an.

Diesen Artikel teilen

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren

MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS