ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

Un giudice statunitense ha stabilito che le azioni del Pentagono contro Anthropic costituiscono una ritorsione contro la libertà di parola

DiJai HamidJai Hamid
Tempo di lettura: 3 minuti.
Un giudice statunitense ha stabilito che le azioni del Pentagono contro Anthropic costituiscono una ritorsione contro la libertà di parola.
  • Un giudice statunitense ha affermato che il governo potrebbe aver punito Anthropic per aver parlato pubblicamente della sua controversia con il Pentagono.
  • L'amministrazione Trump ha vietato l'uso di Anthropic da parte del governo, definendolo un rischio per la catena di approvvigionamento.
  • La controversia verte sulla richiesta del Pentagono di accedere integralmente all'intelligenza artificiale di Anthropic, mentre l'azienda ha espresso preoccupazioni in merito al suo utilizzo a fini militari.

Un giudice federale di San Francisco ha appena confermato ciò che molti già pensavano, ovvero che il governo statunitense si è accanito contro Anthropologie per pura meschinità, perché l'azienda si era espressa contro le atrocità commesse dal suo cosiddetto Dipartimento della Guerra.

Il caso è approdato questa settimana in un tribunale californiano, poiché Anthropic sta cercando di impedire un divieto totale dei suoi modelli di intelligenza artificiale all'interno dei sistemi governativi.

Il giudice afferma che le azioni del governo sembrano una punizione contro Anthropic

La giudice Rita Lin lo ha affermato chiaramente in tribunale: "Sembra un tentativo diripple Anthropic". Ha aggiunto che azioni come questa "costituirebbero ovviamente una violazione del Primo Emendamento"

Rita ha inoltre sottolineato che, dopo che Anthropic ha reso pubblica la sua controversia con il Pentagono, il governo ha avuto una reazionetron. A suo dire, "sembra aver avuto una reazione piuttosto forte". Ha anche affermato che la risposta non sembrava legata a una reale esigenza di sicurezza nazionale. Ha dichiarato in tribunale che "non sembra essere realmente mirata a una dichiarata preoccupazione per la sicurezza nazionale"

Rita ha poi affermato che il governo potrebbe essersi spinto oltre il necessario nel tentativo di punire Anthropic. Non ha ancora emesso una sentenza definitiva, ma il suo tono non lascia dubbi sulle sue preoccupazioni.

"Tutti, compresa Anthropic, concordano sul fatto che il Dipartimento della Guerra sia libero di smettere di usare Claude e cercare un fornitore di IA più permissivo", ha affermato Rita. "Non credo che questo sia il punto cruciale della questione. Credo che il quesito in questo caso sia ben diverso, ovvero se il governo abbia violato la legge."

La causa è stata intentata all'inizio di questo mese. Anthropic chiede al tribunale di rimuovere l'etichetta di rischio per la catena di approvvigionamento. Tale etichetta ha innescato il divieto e impedito l'utilizzo dei suoi modelli da parte del governo. La disputa ora è tra l'azienda e l'amministrazione Trump. Il disaccordo riguarda le modalità di utilizzo degli strumenti di intelligenza artificiale in ambito militare.

Michael Mongan, che rappresenta Anthropic, ha dichiarato in tribunale che questo tipo di azione non è mai stata intrapresa prima contro un'azienda statunitense. Ha affermato: "Non è mai successo nulla di simile nei confronti di un'azienda americana". Ha inoltre aggiunto che la giurisprudenza invocata è limitata e non si adatta a questa situazione.

Il Pentagono esige pieno accesso, mentre Anthropic si oppone all'uso militare della sua intelligenza artificiale

Prima di tutto ciò, Anthropic collaborava strettamente con il governo. Aveva accordi con diverse agenzie federali.

A luglio, l'azienda ha firmato untracda 200 milioni di dollari con il Pentagono. È stato inoltre il primo laboratorio di intelligenza artificiale a far funzionare i propri sistemi all'interno di reti classificate.

A settembre le cose cambiarono. Iniziarono le trattative per integrare Claude nella piattaforma GenAI.mil del Dipartimento della Difesa. Fu a questo punto che tutto rallentò. Il Pentagono voleva il pieno accesso alla tecnologia per qualsiasi utilizzo lecito. Anthropic non era d'accordo.

Un avvocato del governo, Hamilton, ne ha parlato in tribunale. Ha detto che Anthropic non si stava semplicemente rifiutando di accettare i termini deltrac. Ha detto:

“Anthropic non si sta semplicemente comportando in modo ostinato. Non si sta limitando a rifiutare i terminitrac. Piuttosto, sta sollevando preoccupazioni al Dipartimento della Difesa in merito all'utilizzo della sua tecnologia nelle missioni militari.”

Allo stesso tempo, Anthropic sta portando avanti la sua tecnologia. Claude ora può prendere il controllo del computer di un utente e completare le attività. Una persona può inviare una richiesta dal proprio telefono e il sistema la gestirà. Può aprire applicazioni, utilizzare un browser e compilare fogli di calcolo.

Una dimostrazione mostra un utente in ritardo. L'utente chiede a Claude di esportare una presentazione in formato PDF e di allegarla a un invito a una riunione. Claude completa l'operazione in autonomia.

Questo aggiornamento inserisce Anthropic nella corsa alla creazione di agenti di intelligenza artificiale che funzionino senza input costante. Questa corsa ha subito un'accelerazione dopo che OpenClaw è diventato virale quest'anno. OpenClaw collega i modelli di OpenAI e Anthropic. Gli utenti possono inviare attività tramite app come WhatsApp o Telegram. Il sistema viene eseguito sul dispositivo dell'utente e può accedere ai file locali.

Se vuoi iniziare a muoverti con più calma nel DeFi mondo delle criptovalute , senza il solito clamore, inizia con questo video gratuito.

Condividi questo articolo
ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO