Your bank is using your money. You’re getting the scraps.WATCH FREE

Das US-Pentagon stuft Anthropic als Lieferkettenrisiko für die nationale Sicherheit ein – Was steckt wirklich dahinter?

918515
Das US-Pentagon stuft Anthropic als Lieferkettenrisiko für die nationale Sicherheit ein – Was steckt wirklich dahinter?

Inhalt

Link teilen:

In diesem Beitrag:

  • Anthropic wurde von Pete als Lieferkettenrisiko eingestuft, nachdem die Gespräche mit dem Pentagon gescheitert waren.

  • Das Pentagon forderte uneingeschränkten Zugriff auf die rechtmäßige Nutzung bis Freitag, 17:01 Uhr ET, und Anthropic stimmte dem nicht zu.

  • Anthropic gibt an, dass die einzigen Grenzen unkontrollierte Killerroboter und die Massenüberwachung von Amerikanern seien, und plant, zu klagen.

Laut US-Verteidigungsminister Pete Hegseth, der auf X eine lange Stellungnahme gegen das KI-Unternehmen veröffentlichte, wird Anthropic nun vom Kriegsministerium als Lieferkettenrisiko für die nationale Sicherheit eingestuft.

Pete erklärte, seine Abteilung beende die Zusammenarbeit mit Anthropic endgültig und folge damit der öffentlichen Forderung vondent Donald Trump, dass alle Bundesbehörden die Nutzung der Technologie von Anthropic „unverzüglich“ einstellen sollen

Wie Cryptopolitan bereits berichtete, forderte Anthropic zwei Einschränkungen für den Einsatz seiner KI: keine vollautonomen Waffensysteme und keine massenhafte Überwachung der amerikanischen Bevölkerung im Inland.

Der Chef des US-Verteidigungsministeriums ordnet die Einstufung der Anthroposphäre als Vergeltungsgebiet an und legt das Verbot fest

Pete schrieb in seinem X-Beitrag, dass das Kriegsministerium einfach „uneingeschränkten Zugriff“ auf anthropische Modelle für „jeden RECHTMÄSSIGEN Zweck“ haben müsse

Er griff auch Dario Amodei, den CEO von Anthropic, an und sagte, das Unternehmen verwende die Sprache des „effektiven Altruismus“, um das Militär zu einem Eingreifen zu zwingen.

Pete sagte daraufhin, das „wahre Ziel“ des Unternehmens sei es, „ein Vetorecht über die operativen Entscheidungen des US-Militärs zu erlangen“

Der US-Verteidigungschef schrieb daraufhin, dass Anthropic „grundlegend unvereinbar mit amerikanischen Prinzipien“ sei, und erklärte, dass sich das Verhältnis des Unternehmens zu den US-Streitkräften und der Bundesregierung „dauerhaft verändert“ habe

Pete schrieb Folgendes:

„In Übereinstimmung mit der Anweisung desdentan die Bundesregierung, jegliche Nutzung der Technologie von Anthropic einzustellen, weise ich das Kriegsministerium an, Anthropic als Lieferkettenrisiko für die nationale Sicherheit einzustufen. Mit sofortiger Wirkung ist es keinemtrac, Lieferanten oder Partner, der mit dem US-Militär Geschäfte tätigt, gestattet, kommerzielle Aktivitäten mit Anthropic durchzuführen.“

Pete fügte eine Übergangsfrist hinzu und erklärte, dass Anthropic dem Kriegsministerium „für maximal sechs Monate“ weiterhin Dienstleistungen anbieten werde, damit das Pentagon auf ein anderes System umsteigen könne. Abschließend sagte er: „Diese Entscheidung ist endgültig.“

Siehe auch:  KI könnte die weltweite Kupfernachfrage um 1 Million Tonnen erhöhen.

Die Frist verstreicht nach dem 200-Millionen-Dollar-Deal

Anthropic hatte im Juli einen 200-Millionen-Dollar-tracmit dem Pentagon unterzeichnet. Im Anschluss an diesen Vertrag forderte Anthropic schriftliche Zusicherungen, dass seine Modelle nicht in vollautonomen Waffensystemen oder zur massenhaften Überwachung der amerikanischen Bevölkerung im Inland eingesetzt würden.

Den Akten zufolgetrondas Pentagon diese Anfrage entschieden ab. Daraufhin setzte das Pentagon eine Frist: Freitag, 17:01 Uhr ET. Die Forderung lautete, dass Anthropic der Nutzung der Technologie durch das US-Militär für „alle rechtmäßigen Zwecke“ zustimmen solle. Offensichtlich verstrich diese Frist ohne Einigung.

Dastracdes Pentagons umfasst alle Arten von Unternehmen, darunter alle Betriebssystemanbieter, alle Hardwarehersteller, alle Hyperscaler und alle Zulieferer in der Lieferkette.

Das Vorgehen der Trump-Regierung ist ein perverser Machtgriff aufgrund ihrer Unfähigkeit, Kriegsverbrechen zu begehen und die eigenen Bürger zu verfolgen.

Anthropic antwortet dem Pentagon, beruft sich auf 10 USC 3252 und spricht vor Gericht

Anthropic reagierte mit einer eigenen Stellungnahme. Das Unternehmen erklärte, es habe weder vom Kriegsministerium noch vom Weißen Haus direkte Informationen zum Stand der Verhandlungen erhalten. „Wir haben uns nach bestem Wissen und Gewissen um eine Einigung bemüht“, hieß es weiter, und das Unternehmen unterstütze rechtmäßige Nutzungen im Bereich der nationalen Sicherheit.

Auf dem Etikett selbst bezeichnete Anthropic die Bezeichnung als „dent“ und erklärte, sie sei üblicherweise US-Gegnern vorbehalten und sei noch nie öffentlich auf ein amerikanisches Unternehmen angewendet worden. Weiter hieß es: „Wir bedauern diese Entwicklungen zutiefst.“

Anthropic verwies auch auf seine bisherige Zusammenarbeit mit dem Militär. Das Unternehmen erklärte, es sei das erste KI-Startup gewesen, das Modelle in geheimen Netzwerken der US-Regierung eingesetzt habe, es unterstütze amerikanische Streitkräfte seit Juni 2024 und beabsichtige, dies auch weiterhin zu tun.

Das Unternehmen erklärte daraufhin, die Einstufung sei „rechtlich unhaltbar“ und schaffe einen „gefährlichendent“ für jedes amerikanische Unternehmen, das mit der Regierung verhandelt. Es hieß:

„Weder Einschüchterung noch Bestrafung seitens des Kriegsministeriums werden unsere Position zur massenhaften Inlandsüberwachung oder zu vollautonomen Waffensystemen ändern. Wir werden jede Einstufung als Lieferkettenrisiko vor Gericht anfechten.“

Anthropic erklärte , Pete habe angedeutet, dass das Label jeden, der mit dem Militär Geschäfte macht, davon abhalten würde, mit Anthropic Geschäfte zu machen, und Pete habe „keine gesetzliche Grundlage“, um dies zu untermauern.

Siehe auch:  Nvidia wird Afrikas erste KI-Fabrik mit Cassava Technologies betreiben

Es wurde auf 10 USC 3252 verwiesen und erklärt, dass sich eine Einstufung als Lieferkettenrisiko nur auf die Verwendung von Claude im Rahmen vontracmit dem Kriegsministerium erstrecken kann, jedoch nicht darauf, wietracClaude für andere Kunden verwenden.

Das Unternehmen hat zugesichert, dass Privatkunden undtracnicht betroffen sind, einschließlich des Zugriffs auf Claude über die API, claude.ai und andere Produkte. Auftragnehmer des US-tracwürden lediglich bei einer formellen Einstufung auf Arbeiten im Rahmen vontracdes US-Kriegsministeriums beschränkt; die Nutzung für alle anderen Zwecke bliebe unberührt.

Sollte Pete sich durchsetzen, müssten die großen Technologiekonzerne Nvidia, Amazon und Google ihre Anteile an Anthropic wahrscheinlich verkaufen. Das würde es nahezu unmöglich machen, Investoren Investitionen in amerikanische KI oder die Gründung eines KI-Unternehmens in den USA zu empfehlen. Im Grunde ist das eine Situation, in der alle verlieren.

Die klügsten Köpfe der Krypto-Szene lesen bereits unseren Newsletter. Möchten Sie auch dabei sein? Dann schließen Sie sich ihnen an .

Link teilen:

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wir empfehlen dringend, vor jeder Anlageentscheidung eigene Recherchen durchzuführen tron / oder einen qualifizierten Fachmann zu konsultieren dent

Meistgelesen

Meistgelesene Artikel werden geladen...

Bleiben Sie über Krypto-News auf dem Laufenden und erhalten Sie täglich Updates in Ihren Posteingang

Empfehlung der Redaktion

Artikel der Redaktionsauswahl werden geladen...

- Der Krypto-Newsletter, der Sie immer einen Schritt voraus hält -

Die Märkte bewegen sich schnell.

Wir sind schneller.

Abonnieren Sie Cryptopolitan Daily und erhalten Sie zeitnahe, prägnante und relevante Krypto-Einblicke direkt in Ihren Posteingang.

Jetzt anmelden und
keinen Film mehr verpassen.

Steig ein. Informiere dich.
Verschaffe dir einen Vorsprung.

Abonnieren Sie CryptoPolitan