Your bank is using your money. You’re getting the scraps.WATCH FREE

Microsoft chiede un'azione legale per proteggere l'investimento di 5 miliardi di dollari in Anthropic

In questo post:

  • Microsoft ha chiesto a un tribunale statunitense di bloccare temporaneamente il divieto imposto dal Pentagono ad Anthropic.
  • L'azienda afferma che il divieto potrebbe compromettere i sistemi di intelligenza artificiale militari e minacciare il suo investimento previsto di 5 miliardi di dollari in Anthropic.
  • Il Dipartimento della Difesa degli Stati Uniti ha definito Anthropic un rischio per la catena di approvvigionamento, una definizione solitamente utilizzata per gli avversari stranieri.

Microsoft chiede a un tribunale statunitense di bloccare la decisione del Pentagono di classificare temporaneamente la società di intelligenza artificiale Anthropic come un rischio per la supply chain. Il colosso della tecnologia afferma che una simile mossa potrebbe compromettere l'accesso dell'esercito a sistemi di intelligenza artificiale avanzati e mettere a rischio miliardi di dollari investiti in aziende private. 

Microsoft ha recentemente dichiarato che investirà fino a 5 miliardi di dollari in Anthropic e la società sostiene di aver bisogno di del tribunale un'ordinanza per evitare che i contrattitracla tecnologia già in uso presso il governo subiscano danni immediati. 

Sebbene il Dipartimento della Difesa degli Stati Uniti abbia affermato di dover difendere i propri sistemi e le proprie operazioni, le aziende che sviluppano strumenti di intelligenza artificiale avvertono che restrizioni improvvise potrebbero minare le partnership e mettere a repentaglio la leadership americana nel settore tecnologico. 

Microsoft ha presentato una mozione presso la Corte distrettuale degli Stati Uniti per il distretto settentrionale della California, chiedendo un'ordinanza restrittiva provvisoria da parte di un giudice che impedisca al Pentagono di applicare il divieto alla tecnologia di Anthropic in tutti itracdi difesa esistenti. 

In tale documento, Microsoft ha affermato che un tale ordine avrebbe fornito il tempo necessario per implementare un dispiegamento più fluido ed evitare interruzioni nell'uso continuato di strumenti di intelligenza artificiale da parte dell'esercito. Senza l'ordine restrittivo, Microsoft ha avvertito che qualsiasi azienda che operi per conto del Pentagono potrebbe essere costretta a effettuare rapidamente la transizione di prodotti e terminitracche ora dipendono dai modelli di intelligenza artificiale di Anthropic. 

Questo cambiamento, ha affermato l'azienda, potrebbe avere ripercussioni sulle operazioni del Dipartimento della Difesa. "Ciò potrebbe potenzialmente compromettere l'operato dei combattenti statunitensi in un momento cruciale", ha affermato Microsoft nel documento. Microsoft ha presentato la richiesta come amicus curiae, quindi non è direttamente coinvolta. 

Vedi anche:  Dicembre porta la prova gratuita di Space Marine 2 e classicsu PS Plus Premium

Tuttavia, secondo l'azienda, la sentenza del tribunale avrebbe un potenziale "impatto materiale" sulla sua attività e sul settore in generale. Anche il costo del finanziamento influenza la partecipazione dell'azienda.

A novembre, Microsoft prevede di investire fino a 5 miliardi di dollari in Anthropic, una delle aziende di intelligenza artificiale a più rapida crescita negli Stati Uniti. Microsoft è già un importante investitore in OpenAI, un'azienda concorrente.

Il Pentagono definisce Anthropic un rischio per la catena di approvvigionamento

La controversia è scoppiata la scorsa settimana quando il Pentagono ha formalmente escluso la tecnologia di Anthropic dai di difesatrace ha designato l'azienda come un rischio per la catena di approvvigionamento. 

Questa etichetta è stata tradizionalmente associata alle aziende legate ad avversari stranieri. Talitracche lavorano con il Dipartimento della Difesa in base all'ordine devono certificare che i modelli di intelligenza artificiale di Anthropic non vengono utilizzati in sistemi o servizi collegati alle attività del Pentagono. 

Anthropic ha subito citato in giudizio il dipartimento per la sua decisione, sostenendo che la designazione era senzadente illegale, e accusando il governo federale. L'azienda ha affermato che la sentenza potrebbe danneggiare significativamente la sua attività e minacciare contrattitracun valore di centinaia di milioni. 

Il dibattito verte sui modelli di intelligenza artificiale di Anthropic, chiamati Claude. L'azienda aveva negoziato con il Pentagono sull'utilizzo di questa tecnologia, ma i colloqui si sono interrotti. Anthropic voleva garanzie che i suoi sistemi non sarebbero stati utilizzati per condurre armi completamente autonome o per la sorveglianza di massa sul territorio nazionale. 

Vedi anche  Il progetto Stargate di SoftBank e OpenAI si blocca dopo sei mesi

Con l'evolversi della situazione negli Stati Uniti, Anthropic prevede di aprire un nuovo ufficio a Sydney nelle prossime settimane, espandendo la propria presenza in Australia e Nuova Zelanda. Secondo l'Economic Index dell'azienda, i due Paesi si classificano al quarto e all'ottavo posto a livello mondiale per utilizzo pro capite di Claude.ai. L'ufficio di Sydney diventerà il quarto hub di Anthropic nella regione Asia-Pacifico. 

I lavoratori del settore tecnologico e i ricercatori di intelligenza artificiale sostengono Anthropic

La controversia ha suscitato anche il sostegno di Anthropic da parte dell'intera comunità dell'intelligenza artificiale. Oltre 30 dipendenti di OpenAI e Google DeepMind hanno rilasciato una dichiarazione a sostegno della causa intentata da Anthropic. Tra i firmatari figurava anche il responsabile scientifico di DeepMind, Jeff Dean.

Negli atti depositati in tribunale, i ricercatori hanno sostenuto che la designazione da parte del governo costituiva un uso arbitrario del potere che avrebbe potuto danneggiare l'intero settore dell'intelligenza artificiale.

Hanno osservato che se il Pentagono non fosse stato soddisfatto deltraccon Anthropic, avrebbe potuto semplicemente rescindere l'accordo e scegliere un altro fornitore, invece di etichettare l'azienda come una minaccia per la catena di approvvigionamento.

I dipendenti hanno anche avvertito che questa mossa potrebbe minare la competitività degli Stati Uniti nel settore dell'intelligenza artificiale, scoraggiando una discussione aperta sui rischi e sui limiti della tecnologia.

Poco dopo che il Pentagono ha annunciato la designazione, il Dipartimento della Difesa ha firmato un accordo con OpenAI, un evento contro cui alcuni dipendenti di OpenAI avrebbero protestato.

Se stai leggendo questo, sei già un passo avanti. Rimani al passo con i tempi iscrivendoti alla nostra newsletter.

Condividi link:

Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

I più letti

Caricamento degli articoli più letti...

Rimani aggiornato sulle novità in ambito criptovalute, ricevi aggiornamenti giornalieri nella tua casella di posta

Scelta dell'editore

Caricamento degli articoli scelti dall'editore...

- La newsletter Crypto che ti tiene al passo -

I mercati si muovono velocemente.

Ci muoviamo più velocemente.

Iscriviti a Cryptopolitan Daily e ricevi direttamente nella tua casella di posta elettronica informazioni tempestive, pertinenti e pertinenti sulle criptovalute.

Iscriviti subito e
non perderti nemmeno una mossa.

Entra. Scopri i fatti.
Vai avanti.

Iscriviti a CryptoPolitan