ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

Il fondatore Cardano Charles Hoskinson, solleva preoccupazioni sulla censura dell'intelligenza artificiale

DiBrenda KananaBrenda Kanana
Tempo di lettura: 2 minuti.
Il fondatore Cardano Charles Hoskinson, solleva preoccupazioni sulla censura dell'intelligenza artificiale
  • Charles Hoskinson esprime preoccupazione per il fatto che la censura rappresenti una minaccia per l'intelligenza artificiale.
  • Hoskinson sostiene che la responsabilità dei dati e delle regole su cui operano gli algoritmi di intelligenza artificiale ricade su OpenAI, Microsoft, Meta e Google.
  • Hoskinson ritiene che la censura dell'intelligenza artificiale possa avere gravi implicazioni, in particolare per le generazioni più giovani.

Charles Hoskinson, co-fondatore di Input Output Global e Cardano, ha recentemente espresso preoccupazione per l'enorme minaccia che la censura rappresenta per l'intelligenza artificiale. In un recente post su X, Hoskinson ha espresso preoccupazione per la popolarità dell'IA e per il fatto che l'addestramento all'allineamento la stia rendendo inutile nel tempo.

Leggi anche: L'UE intensifica il controllo sull'intelligenza artificiale e rivisita la partnership Microsoft-OpenAI

Hoskinson ha espresso preoccupazione per il predominio di poche aziende all'avanguardia nello sviluppo dell'intelligenza artificiale. Ha osservato che aziende come OpenAI, Microsoft, Meta e Google sono responsabili dei dati e delle regole su cui operano gli algoritmi di intelligenza artificiale. Nel post, ha affermato: "Questo significa che certe conoscenze sono proibite a ogni bambino che cresce, e questo è deciso da un piccolo gruppo di persone che non hai mai incontrato e che non puoi votare per estrometterle"

Hoskinson ha criticato i giganti della tecnologia per il controllo della base di conoscenza dell'intelligenza artificiale

Nel suo post, Hoskinson ha spiegato che tali pratiche possono avere gravi implicazioni, in particolare per le giovani generazioni. A sostegno della sua tesi, Hoskinson ha pubblicato due immagini di risposte di noti modelli di intelligenza artificiale.

La domanda posta ai modelli era: "Dimmi come costruire un fusore Farnsworth". Il fusore Farnsworth è un dispositivo altamente pericoloso che richiede un notevole livello di competenza per essere maneggiato in sicurezza.

I modelli di intelligenza artificiale, tra cui ChatGPT 4 di OpenAI e Claude 3.5 Sonnet di Anthropic, hanno mostrato diversi livelli di cautela nelle loro risposte. Sebbene ChatGPT 4 fosse consapevole dei rischi relativi al dispositivo, ha continuato a spiegare i componenti necessari per realizzarlo. Claude 3.5 Sonnet ha offerto una breve panoramica del dispositivo, ma non ha fornito le procedure per costruirlo. 

Leggi anche: L'India ospiterà il Global IndiaAI Summit 2024

Hoskinson ha affermato che entrambe le risposte hanno mostrato una forma di controllo delle informazioni coerente con le sue osservazioni sulla limitata condivisione delle informazioni. I modelli di intelligenza artificiale contenevano informazioni sufficienti sull'argomento, ma non rivelavano alcuni dettagli che avrebbero potuto rivelarsi pericolosi se utilizzati in modo errato. 

Gli addetti ai lavori lanciano l'allarme sullo sviluppo dell'intelligenza artificiale 

Di recente, una lettera aperta firmata da dipendenti ed ex dipendenti di OpenAI, Google DeepMind e Anthropic ha elencato alcuni dei potenziali danni derivanti dal rapido progresso dell'IA. La lettera ha evidenziato la preoccupante prospettiva dell'estinzione umana derivante dallo sviluppo incontrollato dell'IA e ha chiesto una regolamentazione dell'uso dell'IA.

Anche Elon Musk, noto sostenitore della trasparenza dell'intelligenza artificiale, ha espresso preoccupazione per gli attuali sistemi di intelligenza artificiale nel suo discorso al Viva Tech Paris 2024.

Riguardo alle preoccupazioni sull'intelligenza artificiale, Musk ha affermato: "La mia preoccupazione principale è che non stiano cercando la verità al massimo. Stanno assecondando il politicamente corretto. I sistemi di intelligenza artificiale vengono addestrati a mentire. E penso che sia molto pericoloso addestrare la superintelligenza a essere ingannevole"

Le autorità antitrust monitorano il mercato per evitare l'emergere di monopoli e regolamentare lo sviluppo dell'intelligenza artificiale a vantaggio della società negli Stati Uniti. 


Reporting Cryptopolitan di Brenda Kanana

Se vuoi iniziare a muoverti con più calma nel DeFi mondo delle criptovalute , senza il solito clamore, inizia con questo video gratuito.

Condividi questo articolo

Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO