NEUESTE NACHRICHTEN
FÜR SIE AUSGEWÄHLT
WÖCHENTLICH
BLEIBEN SIE AN DER SPITZE

Die besten Krypto-Einblicke direkt in Ihren Posteingang.

Das Weiße Haus erwägt eine Vorabprüfung von KI-Modellen und beschreitet damit neue Wege in der Technologieaufsicht

VonIbiam WayasIbiam Wayas
3 Minuten gelesen
Das Weiße Haus will nun KI-Modelle überprüfen, bevor sie der Öffentlichkeit zugänglich gemacht werden
  • Das Weiße Haus will nun KI-Modelle überprüfen, bevor sie der Öffentlichkeit zugänglich gemacht werden.
  • Die Regierung erwägt angeblich die Veröffentlichung einer Exekutivanordnung zur Einrichtung einer Arbeitsgruppe für Künstliche Intelligenz, die die Aufsichtsverfahren für KI überwachen soll.
  • Die Regulierungsbehörden befürchten, dass KI-Systeme mittlerweile zahlreiche Schwachstellen in Betriebssystemen und Webbrowsern aufdecken können.

Das Weiße Haus erwägt einen Plan, einige der leistungsstärksten Systeme künstlicher Intelligenz zu überprüfen, bevor sie der Öffentlichkeit zugänglich gemacht werden.

Der Vorschlag, berichtete über den die New York Times , sieht eine staatliche Aufsicht in einer kritischen Phase des KI-Lebenszyklus vor, kurz vor dessen Einsatz. Behörden befürchten zunehmend, dass fortschrittliche Modelle mittlerweile in der Lage sind,dentSchwachstellen in der Software, die der kritischen Infrastruktur zugrunde liegt,

veröffentlichte Analyse The Conversation liefert zunehmend Hinweise darauf, dass moderne KI-Systeme zahlreiche Sicherheitslücken in Betriebssystemen und Webbrowsern aufdecken können. Diese Fähigkeit ist zwar wertvoll für die Verteidigung, birgt aber auch Risiken, falls solche Tools missbraucht werden oder in falsche Hände geraten.

Die Leistungsfähigkeit des Modells regt zum Umdenken in der Politik an

Die Diskussion um die Sicherheitsrichtlinien gewann an Dringlichkeit, nachdem Anthropologie die Markteinführung seines neuesten Modells Mythos. Interne Tests hatten fortschrittliche Cybersicherheitsfunktionen offenbart, darunter die Fähigkeit, zahlreiche ausnutzbare Schwachstellen zudent. Daraufhin beschränkte das Unternehmen im Rahmen seiner Initiative „Project Glasswing“ den Zugriff auf eine begrenzte Anzahl von Organisationen, die für kritische Infrastrukturen verantwortlich sind.

Laut The Conversationschaltete sich das Weiße Haus ein, als Anthropic eine Ausweitung des Zugangs prüfte. Dies deutet auf einen aktiveren Ansatz bei der KI-Aufsicht hin, obwohl die allgemeine Technologiepolitik weiterhin relativ marktorientiert geblieben ist.

Die Bedenken beschränken sich nicht auf ein einzelnes Unternehmen oder System. Das britische AI ​​Safety Institute berichtete in einer Evaluierung im April, dass OpenAI GPT-5.5 bei anspruchsvollen Cybersicherheitsaufgaben eine vergleichbare Leistung erbrachte.

In einem vom Institut hervorgehobenen Test analysierte das Modell eine speziell angefertigte virtuelle Maschine und löste eine komplexe Herausforderung in wenigen Minuten – weit schneller als ein menschlicher Experte mit professionellen Werkzeugen.

„Eine Schlüsselfrage war, ob dies einen Durchbruch speziell für ein einzelnes Modell darstellte oder Teil eines umfassenderen Trends war“, schrieb das Institut in seinem Bericht. „Ergebnisse eines frühen Kontrollpunkts von GPT-5.5 deuten auf Letzteres hin.“

Zusammengenommen deuten die Ergebnisse darauf hin, dass diese Fähigkeiten eher zu einem gemeinsamen Merkmal führender KI-Systeme werden als ein isolierter Durchbruch.

Die Sicherheitsbedenken im Bereich der KI nehmen eine geopolitische Dimension an

Die Auswirkungen reichen über die Technologie hinaus bis in die nationale Sicherheit. Forscher, die von The Conversation , warnen davor, dass staatsnahe Gruppen ähnliche Werkzeuge für Cyberoperationen einsetzen könnten, die möglicherweise Infrastrukturen oder Wirtschaftssysteme ins Visier nehmen.

Es gibt bereits erste Anzeichen für diesen Wandel. Anthropic berichtete, dass mutmaßlich staatlich unterstützte Akteure seine Modelle für Spionagekampagnen gegen Dutzende von Organisationen einsetzen. Gleichzeitig erklärten Microsoft und OpenAI im Jahr 2024, dass regierungsnahe Gruppen KI nutzen, um Cyberangriffe zu verstärken.

Gleichzeitig ringen Forscher weiterhin mit der Frage, wie diese Systeme zuverlässig kontrolliert werden können. Studien, die von The Conversation , legen nahe, dass nach dem Training angewendete Sicherheitsfilter umgangen werden können, während einige Modelle zwar konform erscheinen mögen, riskante Funktionen aber nicht vollständig eliminieren.

Dies hat bei politischen Entscheidungsträgern zu der zunehmenden Ansicht geführt, dass Sicherheitsmaßnahmen möglicherweise bereits bei der Modellentwicklung integriert und nicht erst später hinzugefügt werden sollten.

Politische Aussichten: fragmentierte Rahmenbedingungen, zunehmender Druck

Der US-Vorschlag nimmt Gestalt an im Kontext eines breiteren, sich noch entwickelnden globalen Regulierungsrahmens:

  • Der EU-KI-Gesetzentwurf sieht einen risikobasierten Rahmen mit strengen Anforderungen für Hochrisikoanwendungen vor, schreibt jedoch keine zentrale Genehmigung für Spitzenmodelle vor.
  • Großbritannien hat sich auf die freiwillige Zusammenarbeit über das UK AI Safety Institute gestützt und konzentriert sich dabei auf Test- und Bewertungspartnerschaften mit Entwicklern.
  • Der sich abzeichnende Ansatz der USA scheint in Richtung einer direkten Überwachung der fortschrittlichsten Systeme zu gehen, möglicherweise durch eine Vorabprüfung.

Die Gesetzgeber haben begonnen, diese Fragen genauer zu untersuchen, mit Anhörungen des Kongresses im April zur Sicherheit und Regulierung von KI, obwohl noch keine umfassende Gesetzgebung vorangetrieben wurde.

Sollte ein solches System zur Vorabprüfung von Arzneimitteln in den USA eingeführt werden, würde dies einen Wandel hin zu einem früheren Eingreifen bedeuten, indem die Aufsicht auf den Zeitpunkt verlegt wird, an dem Risiken vorhergesehen werden können, anstatt erst, nachdem sie sich manifestiert haben.

Ein solcher Schritt könnte einen informellen globalen Standard etablieren, insbesondere angesichts der Konzentration führender KI-Entwickler in den Vereinigten Staaten. Gleichzeitig erhöht er die Wahrscheinlichkeit, dass Unternehmen Teile der Entwicklung oder des Einsatzes in Regionen mit weniger strengen Beschränkungen verlagern.

Die Herausforderung für die politischen Entscheidungsträger besteht darin, Innovation und Risikomanagement in einem Bereich in Einklang zu bringen, in dem sich die Fähigkeiten rasant weiterentwickeln und die Folgen eines Missbrauchs weitreichend sein können.

Bislang sind die konkretsten Schutzmaßnahmen weiterhin freiwillig. Unternehmen wie Anthropic beschränken den Zugriff auf sensible Systeme, während Organisationen wie das britische AI ​​Safety Institute weiterhin unabhängigedent durchführen.

Ob die Vereinigten Staaten ihren Ansatz formalisieren – und ob sich andere Länder ihm anschließen – wird ein Schlüsselfaktor für die Gestaltung der KI-Regulierung in den kommenden Jahren sein.

Lesen Sie Krypto-News nicht nur, sondern verstehen Sie sie. Abonnieren Sie unseren Newsletter. Er ist kostenlos.

Diesen Artikel teilen

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan/ übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wirtrondentdentdentdentdentdentdentdent oder einen qualifizierten Fachmann zu konsultieren

MEHR … NACHRICHTEN
DEEP CRYPTO
CRASH-KURS