Trump hält am Pentagon-Verbot für anthropogene Produkte fest und beruft sich dabei auf nationale Sicherheitsrisiken

- Die Trump-Regierung beharrt darauf, dass die vom Pentagon auf die schwarze Liste der Anthropozenter gesetzten Personen rechtmäßig war.
- Anthropic ist der Ansicht, dass die US-Regierung sie lediglich für ihre Haltung zur Sicherheit von KI bestrafen will.
- Das KI-Unternehmen unterstützt die US-Regierung bei einigen ihrer Operationen.
In den am Dienstag eingereichten Gerichtsdokumenten argumentierte die Trump-Regierung, dass die Aufnahme von Anthropic auf die schwarze Liste durch das Pentagon rechtlich einwandfrei sei, und focht die bedeutenden Klagen des Unternehmens an.
Der von Claude hat am Montag zwei Bundesklagen eingereicht und argumentiert, er sei aufgrund seines Engagements für die Sicherheit von KI unrechtmäßigen Vergeltungsmaßnahmen ausgesetzt. Er beharrt darauf, dass Pentagon-Beamte die schwarze Liste nutzen, um ihn dafür zu bestrafen, dass er sich weigert, den Schutz vor autonomer Bewaffnung und Überwachung aufzugeben, und damit seine Rechte aus dem Ersten Verfassungszusatz verletzt.
Am 3. März stufte Verteidigungsminister Pete Hegseth Anthropic aufgrund von Bedenken hinsichtlich der nationalen Sicherheit offiziell als Lieferkettenrisiko ein.
Anthropic wurde aus Gründen der nationalen Sicherheit auf die schwarze Liste gesetzt.
In ihrer Klageschrift merkte: „Aus Gründen der nationalen Sicherheit sind die Nutzungsbedingungen für die Technologie der Klägerin Anthropic PBC im Bereich der künstlichen Intelligenz (KI) für die Exekutive nicht mehr akzeptabel. Anthropic räumt das Recht der Regierung ein, die Dienste von Anthropic nicht mehr in Anspruch zu nehmen und zu anderen KI-Anbietern zu wechseln.“
Weiterhin wurde argumentiert, dass Anthropics Berufung auf den Ersten Verfassungszusatz weit hergeholt sei und einer rechtlichen Prüfung nicht standhalten werde. Es wurde beteuert, dass seine Maßnahmen ausschließlich durch nationale Sicherheitsbedenken motiviert gewesen seien, nicht durch den Wunsch, das Unternehmen für seine Ansichten zur KI-Sicherheit zu bestrafen.
Es wurde außerdem behauptet, dass die allgemeine Haltung von Anthropic während der Gespräche mit dem Unternehmen dazu geführt habe, dass man bezweifelte, ob Anthropic ein guter Partner für das Verteidigungsministerium sei.
Laut den eingereichten Unterlagen äußerte das Pentagon Bedenken, dass Anthropic eine Schwachstelle in seinen Verteidigungslieferketten darstellen könnte. Regierungsbeamte befürchten angeblich, das Unternehmen könnte seine Systeme mitten in einem Konflikt abschalten, wenn ihm die Nutzung der Technologie nicht gefällt.
Anthropic ist besorgt darüber, der Regierung autonome Streitkräfte zu geben
Die Verhandlungen stocken seit Monaten, da Anthropic sich weigert, die Sicherheitsbestimmungen , die den Einsatz von KI für Massenüberwachung oder automatisierte Kampfführung untersagen. Das KI-Unternehmen argumentiert, dass die vom US-Verteidigungsministerium geforderte Zulassung „jeglicher rechtmäßiger Nutzung“ gegen seine zentralen Sicherheitsprinzipien verstoßen und das Missbrauchsrisiko seiner Claude-Systeme erhöhen würde.
Bislang wurde Anthropic von Antikriegsaktivisten als Held gefeiert, weil es sich dem Militär widersetzte. Mitgründer und Geschäftsführer Dario Amodei merkte jedoch kürzlich an, dass das KI-Unternehmen und die Regierung im Großen und Ganzen dieselben Ziele verfolgen. Margaret Mitchell, KI-Forscherin und Chefethikerin beim Technologieunternehmen Hugging Face, warnte sogar: „Wer nach Gut und Böse sucht und als Gut jemand ist, der den Krieg nicht unterstützt, der wird hier nicht fündig.“
außerdem bemerkte: „Anthropic hat viel mehr mit dem Kriegsministerium gemeinsam als Unterschiede.“ Er teilte seine Bedenken hinsichtlich der Gefahren von KI-generierten Biowaffen und chinesischer Einmischung, glaubt aber auch, dass KI-Unternehmen die Pflicht haben, Regierungen im technologischen Wettstreit gegen Autokratien zu unterstützen.
Seinen Äußerungen zufolge ist er weniger besorgt über den Einsatz von KI im Krieg, sondern vielmehr entsetzt darüber, dass eine Handvoll Menschen die Macht haben könnte, auf Knopfdruck einen massiven, sinnlosen, automatisierten Drohnenangriff auszulösen.
Aktuell hält sich die Führungsetage mit einer klaren Ablehnung autonomer Waffensysteme und der Überwachung im Inland schwer; ansonsten hat sich das Unternehmen jedoch als äußerst kooperativer Partner des US-Militärs erwiesen. So passte es bereits seine KI-Modelle für das Verteidigungsministerium an und integrierte Claude sogar in die hochsicheren, geheimen Netzwerke der Regierung, darunter Satellitenbildsysteme, Geheimdienstanalyse, Modellierung und Simulation sowie operative Planung
In der jüngsten Klage wurde sogar festgestellt: „Anthropic legt dem Militär bei der Nutzung von Claude nicht die gleichen Beschränkungen auf wie zivilen Kunden. Claude Gov neigt weniger dazu, Anfragen abzulehnen, die im zivilen Bereich verboten wären.“
Die klügsten Köpfe der Krypto-Szene lesen bereits unseren Newsletter. Möchten Sie auch dabei sein? Dann schließen Sie sich ihnen an.
CRASH-KURS
- Mit welchen Kryptowährungen kann man Geld verdienen?
- Wie Sie Ihre Sicherheit mit einer digitalen Geldbörse erhöhen können (und welche sich tatsächlich lohnen)
- Wenig bekannte Anlagestrategien, die Profis anwenden
- Wie man mit dem Investieren in Kryptowährungen beginnt (welche Börsen man nutzen sollte, welche Kryptowährung am besten zum Kauf geeignet ist usw.)















