ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

Trump conferma il divieto del Pentagono sull'Anthropic, citando rischi per la sicurezza nazionale

DiNelius IreneNelius Irene
Tempo di lettura: 3 minuti.
Trump conferma il divieto imposto dal Pentagono sull'utilizzo di Anthropologie, citando rischi per la sicurezza nazionale.
  • L'amministrazione Trump insiste sul fatto che l'inserimento di Anthropic nella lista nera del Pentagono fosse legittimo.
  • Anthropic ritiene che il governo statunitense stia cercando di punirla solo per la sua posizione sulla sicurezza dell'intelligenza artificiale.
  • L'azienda specializzata in intelligenza artificiale ha fornito supporto al governo statunitense in alcune delle sue operazioni.

Nei documenti depositati in tribunale martedì, l'amministrazione Trump ha sostenuto che l'inserimento di Anthropic nella lista nera del Pentagono fosse legalmente fondato, contestando le numerose cause legali intentate dalla società. 

la di Claude Lunedì,

Il 3 marzo, il Segretario alla Difesa Pete Hegseth ha formalmente classificato Anthropic come un rischio per la catena di approvvigionamento a causa di preoccupazioni relative alla sicurezza nazionale.

Anthropic è stata inserita nella lista nera per motivi di sicurezza nazionale.

Nella sua documentazione presentata in tribunale, l'amministrazione Trump ha dichiarato: "Per ragioni di sicurezza nazionale, i termini di servizio della società ricorrente Anthropic PBC per la tecnologia di intelligenza artificiale (IA) sono diventati inaccettabili per il potere esecutivo. Anthropic riconosce il diritto del governo di non 'utilizzare i servizi di Anthropic' e di 'passare ad altri fornitori di IA'".

Ha inoltre sostenuto che l'argomentazione di Anthropic basata sul Primo Emendamento è forzata e non reggerà a un esame legale. Ha affermato che le sue azioni sono state motivate esclusivamente da preoccupazioni per la sicurezza nazionale, non dal desiderio di punire l'azienda per le sue opinioni sulla sicurezza dell'IA.

Ha inoltre affermato che, durante i colloqui con l'azienda, l'atteggiamento generale di Anthropic li ha portati a dubitare della sua effettiva idoneità per il Dipartimento della Difesa.

Secondo quanto riportato nella documentazione, il Pentagono avrebbe iniziato a temere che Anthropic potesse rappresentare una vulnerabilità per le sue catene di approvvigionamento della difesa. A quanto pare, i funzionari governativi temono che l'azienda possa interrompere la fornitura dei suoi sistemi nel bel mezzo di un conflitto se non gradisce il modo in cui la tecnologia viene utilizzata.

Anthropic è preoccupato di dare al governo una forza autonoma

I negoziati sono in stallo da mesi a causa del rifiuto di Anthropic di revocare le norme di sicurezza che impediscono l'utilizzo dell'intelligenza artificiale nella sorveglianza di massa o nel combattimento automatizzato. L'azienda di intelligenza artificiale ha sostenuto che consentire "qualsiasi utilizzo lecito", come richiesto dal Dipartimento della Difesa, andrebbe contro i suoi principi fondamentali di sicurezza e aumenterebbe il rischio di uso improprio dei suoi sistemi Claude.

Finora, gli attivisti contro la guerra hanno acclamato Anthropic come un'azienda eroica per la sua resistenza all'intervento militare. Tuttavia, il co-fondatore e amministratore delegato Dario Amodei ha recentemente osservato che l'azienda di intelligenza artificiale e il governo condividono sostanzialmente gli stessi obiettivi. Margaret Mitchell, ricercatrice nel campo dell'IA e responsabile dell'etica presso l'azienda tecnologica Hugging Face, ha persino avvertito: "Se le persone cercano buoni e cattivi, dove il buono è chi non appoggia la guerra, allora non lo troveranno qui"

Amodei ha inoltre osservato: "Anthropic ha molto più in comune con il Dipartimento della Guerra di quanto non differisca". Ha condiviso le sue preoccupazioni sui pericoli delle armi biologiche create dall'IA e sull'interferenza cinese, ma crede anche che le aziende di IA abbiano il dovere di aiutare i governi a vincere la guerra tecnologica contro le autocrazie.

Stando alle sue dichiarazioni, è meno preoccupato dell'uso dell'intelligenza artificiale in guerra e più terrorizzato dall'idea che una manciata di persone possa avere il potere di lanciare un massiccio attacco automatizzato e insensato con droni, semplicemente premendo un pulsante.

Al momento, il dirigente si sta esprimendo con un netto "no" sulle armi autonome e sulla sorveglianza interna; tuttavia, l'azienda si è dimostrata un alleato estremamente collaborativo delle forze armate statunitensi. In passato, l'azienda ha modificato i suoi modelli di intelligenza artificiale per il Dipartimento della Difesa, integrando Claude nelle reti governative più sicure e classificate, inclusi sistemi di immagini satellitari, analisi di intelligence, modellazione e simulazione e pianificazione operativa

Nella sua recente causa legale, ha persino osservato: "Anthropic non impone le stesse restrizioni all'uso di Claude da parte dei militari che impone ai clienti civili. Claude Gov è meno propenso a rifiutare richieste che sarebbero vietate in ambito civile"

Le menti più brillanti del mondo delle criptovalute leggono già la nostra newsletter. Vuoi partecipare? Unisciti a loro.

Condividi questo articolo
ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO