Caricamento...

Il software AI di Nvidia espone dati sensibili – Dettagli

TL;DR

  • Il software AI di Nvidia, NeMo Framework, ha rivelato dati privati ​​a causa di un difetto del software.
  • I ricercatori di Robust Intelligence hanno aggirato i guardrail del software, rivelandone le vulnerabilità di sicurezza.
  • Nonostante abbia risolto uno dei problemi, la violazione della sicurezza solleva preoccupazioni sulla commercializzazione dell’intelligenza artificiale e sulla fiducia del pubblico.

Rivelazioni inquietanti sono emerse sui meccanismi di sicurezza all'interno del software di intelligenza artificiale ( AI ) di Nvidia, NeMo Framework, a seguito di una recente indagine.

È stata sfruttata una svolta fondamentale nel software, creato per soddisfare l’elaborazione del modello linguistico per soluzioni basate sull’intelligenza artificiale come i chatbot, esponendo dati sensibili e suscitando così problemi di sicurezza.

Esporre la linea di faglia nel framework NeMo di Nvidia

Considerato uno strumento strumentale per le aziende, il NeMo Framework è stato progettato da Nvidia per ospitare dati proprietari per rispondere alle domande, in modo simile a come farebbe un rappresentante del servizio clienti o un consulente sanitario.

Tuttavia, la struttura apparentemente sicura di questa struttura è stata facilmente superata dai ricercatori della Robust Intelligence di San Francisco, sfondando i guardrail integrati nel giro di poche ore.

In un esperimento controllato, i ricercatori hanno apportato un'alterazione apparentemente insignificante, sostituendo la lettera "I" con "J". Tuttavia, questa modifica apparentemente minore ha portato a una grave violazione poiché il sistema ha rilasciato informazioni personali dent (PII) da un database.

Le implicazioni di questa violazione presentano notevoli rischi potenziali per le aziende e gli utenti che affidano i propri dati sensibili a sistemi di intelligenza artificiale come quello di Nvidia.

Un ulteriore test ha rivelato che l'IA poteva essere manipolata per deviare dal comportamento previsto, affrontando argomenti di cui non era prevista la discussione.

Ad esempio, mentre la conversazione era diretta a un rapporto di lavoro, il modello veniva manipolato per parlare di argomenti non correlati come le condizioni di salute di una celebrità o eventi storici come la guerra franco-prussiana, il tutto a defi delle restrizioni intrinseche del sistema.

Navigare nel mare agitato della commercializzazione dell'IA

Tali risultati sottolineano la sfida affrontata da aziende come Nvidia nel tentativo di monetizzare l’intelligenza artificiale, una delle innovazioni più promettenti della Silicon Valley.

L’amministratore delegato di Robust Intelligence, il professore di informatica dell’Università di Harvard Yaron Singer, ha notato i risultati come una lezione che fa riflettere sul riconoscimento delle potenziali insidie ​​​​della tecnologia AI. L'azienda di Singer ora consiglia ai propri clienti di non utilizzare il prodotto software di Nvidia.

In seguito alla divulgazione di questi risultati, Nvidia avrebbe affrontato uno dei problemi principali dent dai ricercatori.

Nonostante gli intoppi, le azioni della società hanno registrato un aumento significativo sulla scia delle tron previsioni di vendita e della crescente domanda per i loro chip, ritenuti cruciali per la costruzione di sistemi di intelligenza artificiale generativa in grado di produrre contenuti simili a quelli umani.

Jonathan Cohen, dent della ricerca applicata di Nvidia, ha descritto il NeMo Framework come un trampolino di lancio per lo sviluppo di chatbot AI che aderiscono a linee guida di sicurezza, protezione e argomenti specifici.

Ha inoltre riconosciuto l’importanza dei risultati della ricerca di Robust Intelligence per lo sviluppo futuro di applicazioni IA.

L’ dent evidenzia una sfida più ampia per le aziende di intelligenza artificiale, inclusi giganti come Google e OpenAI sostenuta da Microsoft, che hanno avuto la loro parte di incidenti in termini di sicurezza nonostante abbiano istituito barriere di sicurezza per evitare che i loro prodotti di intelligenza artificiale mostrassero comportamenti inappropriati.

Come ha osservato Bea Longworth, responsabile degli affari governativi di Nvidia per Europa, Medio Oriente e Africa, durante una conferenza di settore, costruire la fiducia del pubblico è una delle principali priorità per le aziende di intelligenza artificiale.

Il potenziale dell’intelligenza artificiale è enorme, ma spetta ai fornitori di tecnologia come Nvidia l’onere di garantire che questi sistemi avanzati non siano percepiti come minacce ma come strumenti utili per il futuro.

Dichiarazione di non responsabilità:  le informazioni fornite non costituiscono consigli di trading. Cryptopolitan.com non si assume alcuna responsabilità per eventuali investimenti effettuati sulla base delle informazioni fornite in questa pagina. Raccomandiamo tron dent e/o la consultazione di un professionista qualificato prima di prendere qualsiasi decisione di investimento .

Condividi il link:

Jai Hamid

Jai Hamid è uno scrittore appassionato con un vivo interesse per la tecnologia blockchain, l'economia globale e la letteratura. Dedica la maggior parte del suo tempo all'esplorazione del potenziale di trasformazione delle criptovalute e delle dinamiche delle tendenze economiche mondiali.

I più letti

Caricamento degli articoli più letti...

Rimani aggiornato sulle notizie crittografiche, ricevi aggiornamenti quotidiani nella tua casella di posta

Notizie correlate

Pakistan
Criptopolita
Iscriviti a CryptoPolitan