Il principale ricercatore sulla sicurezza dell'intelligenza artificiale si dimette da Anthropic con un avvertimento criptico

- Mrinank Sharma, uno dei principali ricercatori sulla sicurezza di Anthropic, ha annunciato pubblicamente le sue dimissioni dall'azienda all'inizio di questa settimana, lanciando un avvertimento criptico sull'intelligenza artificiale in relazione allo stato del mondo
- La lettera di dimissioni di Sharma ha affrontato il suo background, il lavoro con Anthropic e le preoccupazioni filosofiche e strutturali relative ai progressi dell'intelligenza artificiale in un mondo fragile
- La conclusione più importante della lettera di Sharma è che la competitività nazionale, le pressioni del mercato e le aspettative degli investitori danno naturalmente priorità alla crescita rispetto all'etica e alla mitigazione del rischio per le aziende di intelligenza artificiale
Un ricercatore di sicurezza capo di Anthropic, Mrinank Sharma, ha annunciato le sue dimissioni dall'azienda questa settimana in un post su X. Questa decisione di Sharma sembra essere guidata dalle sue preoccupazioni riguardanti lo stato attuale dell'intelligenza artificiale e del mondo
Mrinank Sharma ha guidato il Safeguards Research Team presso Anthropic, un'importante azienda di intelligenza artificiale il cui modello linguistico su larga scala (LLM), Claude, è ampiamente considerato uno dei principali concorrenti di ChatGPT. L'abbandono di Sharma è stato piuttosto improvviso, dato che il Safeguards Research Team era stato ufficialmente lanciato solo nel febbraio dello scorso anno. L'obiettivo principale del team era identificaredentcomprendere e contribuire a mitigare i rischi associati ai sistemi di intelligenza artificiale implementati da Anthropic, come Claude.
L'improvvisa partenza di un importante ricercatore nel campo della sicurezza informatica presso una delle più grandi aziende statunitensi di intelligenza artificiale ha suscitato grande scalpore sui social media. La parte forse più significativa della lettera di dimissioni è stata la criptica avvertenza di Sharma secondo cui "il mondo è in pericolo". Ha attribuito questo pericolo "non solo all'intelligenza artificiale o alle armi biologiche", ma a "una serie di crisi interconnesse che si stanno sviluppando proprio in questo momento". Questa affermazione è stata interpretata da molti come un monito sui rischi esistenziali legati ai progressi dell'intelligenza artificiale. Le dimissioni di Sharma si inseriscono in una tendenza più ampia, preoccupante e in rapida crescita, che vede le dimissioni di figure di spicco di aziende del settore dell'intelligenza artificiale.
Interpretazione della lettera di dimissioni di Sharma
Mrinank Sharma ha iniziato la lettera parlando brevemente del suo background e di ciò che lo ispira, in particolare "la volontà di prendere decisioni difficili e di battersi per ciò che è giusto". Ha anche parlato del suo contributo ad Anthropic, tra cui lo sviluppo e l'implementazione di difese "per ridurre i rischi del bioterrorismo assistito dall'intelligenza artificiale" e la stesura di uno dei primi casi di sicurezza dell'intelligenza artificiale. Il suo progetto finale era "capire come gli assistenti dell'intelligenza artificiale possano renderci meno umani o distorcere la nostra umanità"
Tuttavia, la parte della sua lettera che ha suscitato maggiore preoccupazione è stato il terzo paragrafo. Pur non accusando direttamente Anthropic di alcun illecito o affermando apertamente che l'intelligenza artificiale ci ucciderà tutti, ha utilizzato molto linguaggio filosofico per spiegare le sue dimissioni. Ha affermato che "sembra che stiamo raggiungendo una soglia in cui la nostra saggezza deve crescere in egual misura alla nostra capacità di influenzare il mondo, altrimenti ne affrontiamo le conseguenze". A questo ha fatto seguito la sua frase: "Ho visto ripetutamente quanto sia difficile lasciare che i nostri valori governino veramente le nostre azioni". Ha anche descritto il mondo come in pericolo a causa di una serie di crisi interconnesse, che ha descritto in una nota a piè di pagina come una "poli-crisi" sostenuta da una "meta-crisi"
Questo linguaggio allude al fatto che la sua uscita da Anthropic sia stata innescata più da una divergenza filosofica che da una disputa interna all'azienda. Descrivendo il momento attuale come una "policrisi" sostenuta da una "metacrisi", Sharma sembra indicare un problema strutturale ben più ampio che affligge la società e, per estensione, lo sviluppo dell'intelligenza artificiale. La tecnologia avanza più velocemente della saggezza collettiva e gli attuali sistemi e poteri che ne gestiscono e influenzano lo sviluppo non sono adeguatamente attrezzati per farlo nell'attuale contesto mondiale.
La conclusione più importante della lettera di Sharma
Il messaggio principale che emerge dalla lettera di dimissioni di Sharma è complesso e di portata esistenziale. Da un lato, sembra credere che ci sia un problema fondamentale nel modo in cui le aziende tecnologiche gestiscono l'accelerazione dello sviluppo dell'IA all'interno di un sistema competitivo. Le potenze globali sono impegnate in una corsa agli armamenti per superarsi a vicenda nell'IA e in altri progressi tecnologici, con una spesa globale in tecnologia destinata a raggiungere i 5.600 miliardi di dollari nel 2026.Ciò significa che le aziende che si occupano di IA non si limitano a innovare e sviluppare prodotti, ma rappresentano una componente cruciale dei conflitti geopolitici. Inoltre, queste aziende hanno la responsabilità fiduciaria di generare profitti per gli azionisti, il che le incentiva a superare i concorrenti in termini di innovazione tecnologica.
Ciò favorisce un ambiente in cui i principi e le procedure di sicurezza devono essere allineati alle pressioni del mercato, alla competitività nazionale e alle aspettative degli investitori. Tuttavia, man mano che le aziende di intelligenza artificiale si espandono e migliorano le proprie capacità, devonodent, comprendere e mitigare i rischi che ne derivano. Il problema che Sharma sembra voler affrontare è che l'attuale sistema in cui operano le aziende di intelligenza artificiale dà naturalmente priorità alla crescita rispetto alla sicurezza e alle considerazioni etiche. Le implicazioni di questa dinamica sono esistenzialmente profonde e motivo di grande preoccupazione. Un uomo come Sharma, apparentemente di buona integrità, semplicemente non poteva continuare a operare in questo sistema senza compromettere i propri valori, il che lo portò a ritirarsene completamente.
Le menti più brillanti del mondo delle criptovalute leggono già la nostra newsletter. Vuoi partecipare? Unisciti a loro.
Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)














