Your bank is using your money. You’re getting the scraps.WATCH FREE

New York difende il chatbot basato sull'intelligenza artificiale tra critiche e passi falsi legali.

In questo post:

  • L'innovazione dell'intelligenza artificiale nella governance pubblica richiede un'attenta supervisione per un progresso etico e responsabile.
  • La corsa all'implementazione delle tecnologie di intelligenza artificiale nella governance richiede una strategia che dia priorità alle considerazioni etiche e all'accuratezza.
  • Il dibattito sull'intelligenza artificiale nel settore pubblico sottolinea la necessità fondamentale di accuratezza e di un utilizzo responsabile per garantire risultati positivi.

La città di New York ha lanciato sul suo sito web un chatbot basato sulla tecnologia AI di Microsoft Azure per aiutare gli utenti a scambiare facilmente informazioni con i titolari di piccole imprese e per semplificare e semplificare le normative cittadine. 

Il chatbot intelligente è stato concepito come un unico punto di riferimento nel mare di leggi e regolamenti cittadini, ma invece di fornire informazioni preziose ha generato un acceso dibattito sulla sua accuratezza e, il più delle volte, su consigli assurdi.

L'impatto dei chatbot sulla consulenza legale

Il ruolo di consigli errati e di contestazioni legali non può essere sopravvalutato negli ostacoli quotidiani che le startup devono affrontare. In questo contesto, l'obiettivo principale del chatbot è fungere da assistente virtuale "in tempo reale" per gli imprenditori, risolvendo i loro problemi burocratici, comprese le questioni relative ai regolamenti comunali. 

Le linee guida non sono riuscite a raggiungere i loro obiettivi anche perché hanno ponderato male gli standard legali, violando in alcuni casi persino le leggi della città di New York.

La scoperta e la conferma, compresi i test condotti da Markup, hanno dimostrato che i consigli del chatbot variavano da quelli illegali (ad esempio, informare i datori di lavoro di furti di mance e discriminazioni sessuali basate sulla gravidanza) a quelli bizzarri, ad esempio quando il bot ha dichiarato apertamente che è consentito testare il cibo beccato dai topi. 

L'errore può presentarsi in vari ambiti, come la politica interna, gli infortuni sul lavoro e le operazioni commerciali, che riducono l'affidabilità del chatbot come risorsa legale.

Uno degli esempi è quando i datori di lavoro sono stati falsamente informati di poter gestire attività che consentono solo metodi di pagamentotrone che non esistono regole per le mance ai dipendenti. Ai proprietari sono state fornite linee guida errate sullo sfratto degli inquilini e sulla mancanza di rispetto delle fonti di reddito, come i voucher per l'alloggio di supporto del Veteran Affairs. Lo stesso tipo di raccomandazioni non solo ostacola lo status giuridico delle aziende, il che costituisce una violazione dell'etica, ma comporta anche una questione etica.

Vedi anche:  Bitcoin messa in discussione mentre il margine di profitto si riduce, Matrixport

Bilanciare innovazione e responsabilità nell'implementazione dell'IA

Invece di affrontare la minaccia negativa della tecnologia, ad esempio i pregiudizi, la sistematizzazione e la perdita di controllo, i sostenitori dell'intelligenza artificiale a New York, come il sindaco Eric Adams tra gli altri, difendono l'implementazione della tecnologia proposta. 

Il sindaco Adams sottolinea che, per quanto ne sappiamo, il progresso tecnologico è un lungo processo che deve essere perfezionato attraverso continui tentativi e ci consiglia di essere più persistenti con il chatbot. 

Tale posizione, come ci si potrebbe aspettare, non solo non viene accettata, ma non riesce nemmeno a ottenere riconoscimento. I critici, guidati da Julia Stoyanovich, docente di informatica e direttrice del Center for Responsible AI presso la New York University, hanno sostenuto che l'occultamento amministrativo del software, ancora in fase di sviluppo senza controllimatic rispecchiasse un'indifferenza verso una governance responsabile.

Essendo solo un software, il chatbot potrebbe commettere errori o avere pregiudizi intrinseci. Tuttavia, la decisione della città di mantenere attivo il chatbot e di iniziare la conversazione con l'avvertenza che i consigli del bot potrebbero non essere sempre accurati, sposta la responsabilità di verificare i dati sugli utenti. 

Questa questione ha quindi scatenato un dibattito sull'opportunità di prevedere meccanismi sufficienti per garantire che l'IA non venga impiegata laddove non sia accurata ai fini normativi.

Vedi anche  Cardano : ADA salirà alla resistenza di $ 0,400

Piano di attuazione per i piccoli imprenditori

La difficile situazione degli imprenditori di New York City è un segnale d'allarme proverbiale; anche la tecnologia basata sull'intelligenza artificiale si scontra con il problema dell'affidabilità. L'intelligenza artificiale ha la capacità di ridurre la burocrazia, ma gli errori dei chatbot presentano caratteristiche di accuratezza e affidabilità indispensabili negli impieghi nel settore pubblico.

I titolari di piccole aziende che si trovano ad affrontare acrobazie verbali dei regolamenti comunali troveranno un caso in cui il programma bot può utilizzare impropriamente i consigli dell'IA come un pulsante per una valutazione manuale. Gli esperti suggeriscono la necessità di avvalersi di professionisti legali umani per le questioni di conformità e regolamentazione, pur considerando i suggerimenti ricevuti dal chatbot come soluzioni preliminari, non defi.

Nel complesso, lo spettacolo suggerisce un nuovo paradigma per la sperimentazione di intelligenza artificiale della città, adottando le necessarie riforme strategiche prima di avviare interventi tecnologici simili nella propria giurisdizione. In definitiva, l'equilibrio tra innovazione e responsabilità guarda al nocciolo della questione, che può contribuire all'integrità dei servizi pubblici o compromettere la fiducia della comunità.

Le autorità di New York non si lasciano scoraggiare dalla tecnologia e continuano a supportare il loro chatbot basato sull'intelligenza artificiale, che potrebbe fornire utili insegnamenti sulla necessità di tutelare la privacy. Quando si parla di intelligenza artificiale al servizio dell'interesse pubblico, questa dovrebbe essere impiegata in modo responsabile, nel rispetto della trasparenza e con l'obiettivo di un miglioramento costante. 

D'altro canto, tali risorse possono essere utilizzate con una sana dose di apprensione dai piccoli imprenditori. Dovrebbero piuttosto affidarsi alle fonti legali tradizionali e chiedere loro consiglio.

Le menti più brillanti del mondo delle criptovalute leggono già la nostra newsletter. Vuoi partecipare? Unisciti a loro .

Condividi link:

Disclaimer. Le informazioni fornite non costituiscono consulenza di trading. Cryptopolitan non si assume alcuna responsabilità per gli investimenti effettuati sulla base delle informazioni fornite in questa pagina. Consigliamo vivamente di effettuare ricerche indipendenti tron / dent di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

I più letti

Caricamento degli articoli più letti...

Rimani aggiornato sulle novità in ambito criptovalute, ricevi aggiornamenti giornalieri nella tua casella di posta

Scelta dell'editore

Caricamento degli articoli scelti dall'editore...

- La newsletter Crypto che ti tiene al passo -

I mercati si muovono velocemente.

Ci muoviamo più velocemente.

Iscriviti a Cryptopolitan Daily e ricevi direttamente nella tua casella di posta elettronica informazioni tempestive, pertinenti e pertinenti sulle criptovalute.

Iscriviti subito e
non perderti nemmeno una mossa.

Entra. Scopri i fatti.
Vai avanti.

Iscriviti a CryptoPolitan