Your bank is using your money. You’re getting the scraps.WATCH FREE

Microsoft strebt gerichtliche Schritte zum Schutz seiner 5-Milliarden-Dollar-Investition bei Anthropologie an

In diesem Beitrag:

  • Microsoft hat bei einem US-Gericht beantragt, das Verbot von Anthropic durch das Pentagon vorläufig zu blockieren.
  • Das Unternehmen erklärt, das Verbot könne militärische KI-Systeme stören und seine geplante Investition von 5 Milliarden Dollar in Anthropic gefährden.
  • Das US-Verteidigungsministerium stufte Anthropic als Lieferkettenrisiko ein, eine Bezeichnung, die üblicherweise für ausländische Gegner verwendet wird.

Microsoft hat ein US-Gericht angerufen, um die Entscheidung des Pentagons zu blockieren, das KI-Unternehmen Anthropic vorübergehend als Lieferkettenrisiko einzustufen. Der Technologiekonzern argumentiert, ein solcher Schritt könne den Zugang des Militärs zu fortschrittlichen KI-Systemen beeinträchtigen und Milliardeninvestitionen in private Unternehmen gefährden. 

Microsoft kündigte kürzlich an, bis zu 5 Milliarden Dollar in Anthropic zu investieren, und behauptet, eine gerichtliche Anordnung , um zu verhindern, dass Verträge trac Technologien, die bereits von der Regierung genutzt werden, unmittelbar Schaden nehmen.

Obwohl das US-Verteidigungsministerium erklärte, es müsse seine Systeme und Operationen verteidigen, warnen Unternehmen, die KI-Tools entwickeln, davor, dass abrupte Einschränkungen Partnerschaften untergraben und Amerikas Führungsrolle im Technologiebereich gefährden könnten. 

Microsoft hat beim United States District Court for the Northern District of California einen Antrag auf einstweilige Verfügung gestellt, um das Pentagon daran zu hindern, sein Verbot auf die Technologie von Anthropic in allen bestehendentracanzuwenden. 

In der Eingabe erklärte Microsoft, eine solche Anordnung würde Zeit für eine reibungslosere Implementierung verschaffen und die fortgesetzte Nutzung von KI-Werkzeugen durch das Militär nicht beeinträchtigen. Ohne die einstweilige Verfügung, so warnte Microsoft, könnten alle im Auftrag des Pentagons tätigen Unternehmen gezwungen sein, Produkte undtrac, die derzeit auf den KI-Modellen von Anthropics basieren, rasch umzustellen. 

Diese Umstellung, so das Unternehmen, könnte Auswirkungen auf die Operationen des Verteidigungsministeriums haben. „Dies könnte die US-Streitkräfte in einem entscheidenden Moment gefährden“, erklärte Microsoft in der Eingabe. Microsoft reichte den Antrag als Stellungnahme eines Sachverständigen ein und ist daher nicht direkt beteiligt. 

Siehe auch:  Im Dezember gibt es eine kostenlose Testversion von Space Marine 2 und PS2- classic sind jetzt auch bei PS Plus Premium verfügbar.

Das Urteil des Gerichts hätte jedoch laut Unternehmensangaben potenziell „wesentliche Auswirkungen“ auf das Geschäft und die gesamte Branche. Auch die Finanzierungskosten beeinflussen die Beteiligung des Unternehmens.

Microsoft plant, im November bis zu 5 Milliarden US-Dollar in Anthropic zu investieren, eines der am schnellsten wachsenden KI-Unternehmen in den USA. Microsoft ist bereits ein bedeutender Investor bei OpenAI , einem konkurrierenden Entwickler.

Das Pentagon stuft Anthropic als Lieferkettenrisiko ein

Die Kontroverse entbrannte letzte Woche, als das Pentagon die Technologie von Anthropic formell von Verteidigungsaufträgen ausschloss trac das Unternehmen als Lieferkettenrisiko einstufte.

Dieses Label wurde traditionell mit Unternehmen in Verbindung gebracht, die Verbindungen zu ausländischen Gegnern unterhalten. Solchetrac, die im Rahmen dieser Anordnung mit dem Verteidigungsministerium zusammenarbeiten, müssen bestätigen, dass die KI-Modelle von Anthropic nicht in Systemen oder Diensten verwendet werden, die mit der Arbeit des Pentagons in Verbindung stehen. 

Anthropic verklagte die Behörde umgehend wegen ihrer Entscheidung und argumentierte, die Einstufung sei beispiellos und rechtswidrig. Das Unternehmen erhob auch dent gegen die Bundesregierung. Anthropic erklärte, das Urteil könne dem Geschäft erheblichen Schaden zufügen und Verträge trac Wert von Hunderten Millionen gefährden.

Im Zentrum der Debatte stehen die KI-Modelle von Anthropic, genannt Claude. Das Unternehmen hatte mit dem Pentagon über die Nutzung der Technologie verhandelt, die Gespräche scheiterten jedoch. Anthropic forderte Zusicherungen, dass seine Systeme nicht für vollautonome Waffensysteme oder zur massenhaften Überwachung im Inland eingesetzt würden.

Siehe auch:  Das Stargate-Projekt von SoftBank und OpenAI stockt sechs Monate später

Während sich die Lage in den USA weiterentwickelt, plant Anthropic in den kommenden Wochen die Eröffnung eines neuen Büros in Sydney und baut damit seine Präsenz in Australien und Neuseeland weiter aus. Laut dem Wirtschaftsindex des Unternehmens belegen die beiden Länder weltweit den vierten bzw. achten Platz in Bezug auf die Pro-Kopf-Nutzung von Claude.ai. Das Büro in Sydney wird Anthropics vierter Standort im asiatisch-pazifischen Raum sein. 

Technologiearbeiter und KI-Forscher unterstützen Anthropic

Die Kontroverse hat Anthropic auch Unterstützung aus der gesamten KI-Community eingebracht. Mehr als 30 Mitarbeiter von OpenAI und Google DeepMind reichten eine Erklärung ein, in der sie Anthropics Klage unterstützten. Zu den Unterzeichnern gehörte auch Jeff Dean, der leitende Wissenschaftler von DeepMind.

In der Klageschrift argumentierten die Forscher, dass die Einstufung durch die Regierung ein willkürlicher Machtmissbrauch sei, der der gesamten KI-Branche schaden könne.

Sie merkten an, dass das Pentagon, wenn es mit seinemtracmit Anthropic unzufrieden gewesen wäre, die Vereinbarung einfach hätte beenden und einen anderen Anbieter wählen können, anstatt das Unternehmen als Bedrohung für die Lieferkette zu bezeichnen.

Die Mitarbeiter warnten außerdem davor, dass dieser Schritt die Wettbewerbsfähigkeit der USA im Bereich der künstlichen Intelligenz untergraben könnte, indem er eine offene Diskussion über die Risiken und Grenzen der Technologie erschwert.

Kurz nachdem das Pentagon die Einstufung bekannt gegeben hatte, unterzeichnete das Verteidigungsministerium einen Vertrag mit OpenAI, eine Entwicklung, gegen die einige OpenAI-Mitarbeiter Berichten zufolge protestierten.

Wenn Sie das hier lesen, sind Sie schon einen Schritt voraus. Bleiben Sie mit unserem Newsletter auf dem Laufenden .

Link teilen:

Haftungsausschluss. Die bereitgestellten Informationen stellen keine Anlageberatung dar. Cryptopolitan übernimmt keine Haftung für Investitionen, die auf Grundlage der Informationen auf dieser Seite getätigt werden. Wir empfehlen dringend, vor jeder Anlageentscheidung eigene Recherchen durchzuführen tron / oder einen qualifizierten Fachmann zu konsultieren dent

Meistgelesen

Meistgelesene Artikel werden geladen...

Bleiben Sie über Krypto-News auf dem Laufenden und erhalten Sie täglich Updates in Ihren Posteingang

Empfehlung der Redaktion

Artikel der Redaktionsauswahl werden geladen...

- Der Krypto-Newsletter, der Sie immer einen Schritt voraus hält -

Die Märkte bewegen sich schnell.

Wir sind schneller.

Abonnieren Sie Cryptopolitan Daily und erhalten Sie zeitnahe, prägnante und relevante Krypto-Einblicke direkt in Ihren Posteingang.

Jetzt anmelden und
keinen Film mehr verpassen.

Steig ein. Informiere dich.
Verschaffe dir einen Vorsprung.

Abonnieren Sie CryptoPolitan