Chatbot AI Il tentativo di New York City di utilizzare l'intelligenza artificiale nelle operazioni governative si sta scontrando con un errore, poiché la città si è resa conto che il suo chatbot basato sull'intelligenza artificiale sta fornendo alle aziende consigli errati e, in alcuni casi, potenzialmente illegali. Lanciato a ottobre e con l'intento di fornire consigli su come districarsi tra le complessità del fare impresa in città, il chatbot è stato da allora criticato per le sue risposte imprecise, soprattutto su questioni relative alle politiche abitative e ai diritti dei lavoratori.
Le informazioni fuorvianti sollevano preoccupazioni
In un'altra indagine, The Markup ha scoperto che il chatbot online offriva solitamente informazioni incomplete o del tutto errate su argomenti critici come la discriminazione abitativa e i diritti degli inquilini. La domanda posta era: "Un locatore dovrebbe accettare un inquilino che beneficia della Sezione 8 o di un sussidio per l'affitto?". In questo caso, la risposta fornita è negativa. Ciò è contrario alla legge della città di New York, che vieta al locatore di discriminare gli inquilini in base alle fonti di reddito, con solo poche eccezioni.
Esperti e sostenitori hanno lanciato l'allarme sulle potenziali conseguenze della disinformazione del chatbot. Un esperto locale di politiche abitative ha descritto gli errori come "pericolosamente imprecisi", con implicazioni che avrebbero avuto un impatto sulla vita sia dei proprietari che degli inquilini. Seguendo le indicazioni del bot, i proprietari avrebbero adottato pratiche che avrebbero violato sia le leggi antidiscriminazione sia i diritti degli inquilini, aggravando così il problema delle disuguaglianze abitative e delle ingiustizie economiche per la città.
Richiede azioni correttive
Le rivelazioni hanno sollevato richieste affinché la città esamini le defidel suo chatbot basato sull'intelligenza artificiale e si assicuri che fornisca effettivamente agli utenti informazioni accurate e legalmente valide. I sostenitori di questa visione sottolineano che i cattivi consigli devono essere corretti, garantendo che siano presenti garanzie affinché nella vita reale tali tipi di incidenti non si verifichino. Mentre New York City continua a tradurre i suoi progressi tecnologici in governance, la responsabilità con il massimo livello di accuratezza e precisione deve prevalere, mantenendo la fiducia del pubblico nelle aziende e neidentin egual misura.
L'evento mette in luce le complicazioni e le sfide che sarebbero parte integrante dell'implementazione della tecnologia di intelligenza artificiale per i servizi pubblici, un'attività che richiede un rigoroso controllo di qualità. Tuttavia, l'implementazione dell'intelligenza artificiale dovrà garantire che esistano metoditronper effettuare controlli su queste informazioni e mitigarne i danni, nonostante il potenziale che offre nel migliorare l'efficienza e l'accessibilità. Questo mentre le città e i governi continuano a implementare soluzioni basate sull'intelligenza artificiale, in cui trasparenza, responsabilità e rispetto degli standard legali devono essere ancora rispettati nel processo di garanzia dei diritti e del benessere di ciascun cittadino.

