I dipendenti affermano che OpenAI e Google DeepMind nascondono i rischi dell'intelligenza artificiale

- Ex dipendenti accusano le aziende di intelligenza artificiale di nascondere rischi che potrebbero causare l'estinzione dell'umanità.
- Si sostiene che le aziende mettano al primo posto il profitto, evitando una “supervisione efficace”
- I whistleblower sono scoraggiati dalla minaccia di ritorsioni da parte dei datori di lavoro.
Diversi dipendenti ed ex dipendenti di OpenAI e Google DeepMind hanno accusato le loro aziende di nascondere i rischi dell'intelligenza artificiale che potrebbero potenzialmente innescare l'estinzione della specie umana. In una lettera aperta, i dipendenti hanno affermato che le aziende di intelligenza artificiale mettono il profitto al primo posto, evitando "un'efficace supervisione [governativa]"
Leggi anche: OpenAI schiera il successore di GPT-4 nonostante i problemi di sicurezza
La lettera aperta è stata firmata da 11 ex dipendenti di OpenAI, due di Google DeepMind, e sottoscritta dal "padrino dell'IA" Geoffrey Hinton, ex dipendente di Google. Nella lettera si afferma che la ricerca del profitto e le lacune normative consentono alle aziende di nascondere le minacce poste dall'intelligenza artificiale avanzata.
L'intelligenza artificiale potrebbe portare all'estinzione umana
Secondo la lettera, aziende di intelligenza artificiale come OpenAI e Google DeepMind, creatore di Gemini, non hanno condiviso pubblicamente informazioni sulle misure di sicurezza inadeguate e sui livelli di rischio dei loro sistemi perché non sono tenute a farlo.
Senza un controllo normativo, i programmi di intelligenza artificiale potrebbero causare gravi danni agli esseri umani. I dipendenti hanno avvertito:
“Questi rischi vanno dall’ulteriore consolidamento delle disuguaglianze esistenti… alla perdita di controllo dei sistemi di intelligenza artificiale autonomi, con il potenziale risultato di portare all’estinzione della razza umana”
Come sottolineato dai firmatari della lettera, le stesse aziende che operano nel settore dell'IA hanno riconosciuto questi rischi. Nel maggio 2023, gli amministratori delegati di OpenAI, Anthropic e Google DeepMind hanno firmato congiuntamente una lettera aperta del Center for AI Safety. La lettera recitava semplicemente: "Mitigare il rischio di estinzione causato dall'IA dovrebbe essere una priorità globale, al pari di altri rischi di portata sociale, come pandemie e guerre nucleari".
Le aziende di intelligenza artificiale sono sempre più sotto accusa per aver anteposto prodotti innovativi e profitti alla sicurezza. ChatGPT,ha preso atto delle preoccupazioni sollevate nella lettera e ha affermato di essere al lavoro per sviluppare un'intelligenza artificiale sicura.
"Siamo orgogliosi del nostro tracnella fornitura dei sistemi di intelligenza artificiale più efficienti e sicuri e crediamo nel nostro approccio scientifico per affrontare i rischi", ha dichiarato al New York Times Lindsey Held, portavoce di OpenAI.
"Siamo d'accordo che un dibattito rigoroso è fondamentale data l'importanza di questa tecnologia e continueremo a collaborare con i governi, la società civile e altre comunità in tutto il mondo"

I whistleblower temono ritorsioni
Gli ex dipendenti di OpenAI e Google hanno affermato che vorrebbero ricoprire il ruolo di supervisori mentre gli enti regolatori elaborano leggi che obblighino gli sviluppatori di intelligenza artificiale a divulgare pubblicamente maggiori informazioni sui loro programmi.
Tuttavia, gli accordi didente la probabilità di ritorsioni da parte dei datori di lavoro scoraggiano i lavoratori dall'esprimere pubblicamente le proprie preoccupazioni. Secondo la lettera:
"Alcuni di noi temono giustamente varie forme di ritorsione, data la storia di casi simili nel settore. Non siamo i primi a riscontrare o a parlare di questi problemi."
Negli Stati Uniti i whistleblower sono tutelati dalla legge, ma coloro che denunciano i pericoli dell'intelligenza artificiale non sono tutelati perché la tecnologia non è ancora regolamentata.
Leggi anche: ChatGPT continua a diffondere falsità, afferma l'ente di controllo dei dati dell'UE
La lettera invita le aziende di intelligenza artificiale a facilitare il feedback anonimo e verificabile, a sostenere una cultura di critica aperta e a non vendicarsi dei whistleblower.
Il ricercatore di intelligenza artificiale Lance B. Eliot ha affermato che le aziende adottano un approccio basato sul bastone e sulla carota nei confronti delle critiche. I dipendenti che non denunciano i rischi vengono premiati con promozioni e aumenti di stipendio.
D'altro canto, i whistleblower e i critici perdono le loro stock option e potrebbero essere costretti a lasciare l'azienda e inseriti silenziosamente nella lista nera della comunità dei leader dell'intelligenza artificiale.
Cryptopolitan Reporting di Jeffrey Gogo
Se stai leggendo questo, sei già un passo avanti. Rimani al passo con i tempi iscrivendoti alla nostra newsletter.
Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)














