Il governo australiano ha avviato un inaspettato periodo di consultazione di otto settimane volto a determinare se alcuni strumenti di intelligenza artificiale (AI) “ad alto rischio” debbano essere vietati. Questa mossa segue misure simili adottate da altre regioni, tra cui Stati Uniti, Unione Europea e Cina, per affrontare i rischi associati al rapido sviluppo dell’IA.
Il 1° giugno, il ministro dell’Industria e della Scienza Ed Husic ha presentato due documenti per la revisione pubblica: uno sull’“ intelligenza artificiale in Australia” e un altro sull’intelligenza artificiale generativa del National Science and Technology Council. Questi documenti sono stati rilasciati durante un periodo di consultazione che rimarrà aperto fino al 26 luglio.
Il governo australiano cerca feedback sulle strategie per promuovere “l’uso sicuro e responsabile dell’intelligenza artificiale”, esplorando opzioni come quadri etici volontari, normative specifiche o una combinazione di entrambi gli approcci. In particolare, la consultazione chiede direttamente se determinate applicazioni o tecnologie di IA ad alto rischio debbano essere completamente vietate e chiede input sui criteri per dent tali strumenti.
L’esauriente documento di discussione include una bozza di matrice di rischio per i modelli di intelligenza artificiale, che classifica le auto a guida autonoma come “ad alto rischio” e gli strumenti di intelligenza artificiale generativa per la creazione di cartelle cliniche dei pazienti come “a medio rischio”. Il documento sottolinea sia le applicazioni positive dell’intelligenza artificiale in settori come la medicina, l’ingegneria e il diritto, sia i potenziali danni associati agli strumenti deepfake, alla generazione di notizie false e ai casi in cui i robot IA hanno incoraggiato l’autolesionismo.
Governo australiano contro l’intelligenza artificiale
Nel documento di discussione vengono affrontate anche le preoccupazioni relative ai bias nei modelli di intelligenza artificiale, nonché alla generazione di informazioni insensate o false note come “allucinazioni” da parte dei sistemi di intelligenza artificiale. Riconosce che l’adozione dell’IA in Australia è attualmente limitata a causa dei bassi livelli di fiducia del pubblico. , come esempi, alle normative sull'intelligenza artificiale implementate in altre giurisdizioni e al divieto temporaneo di ChatGPT
Inoltre, il rapporto del National Science and Technology Council evidenzia le vantaggiose capacità dell’Australia nella robotica e nella visione artificiale, ma rileva i relativi punti deboli in aree chiave come i modelli linguistici di grandi dimensioni. Ciò solleva preoccupazioni circa la concentrazione delle risorse di intelligenza artificiale generativa in un piccolo numero di aziende tecnologiche prevalentemente con sede negli Stati Uniti, il che comporta potenziali rischi per l’Australia.
Il rapporto esplora ulteriormente la regolamentazione globale dell’IA, fornisce esempi di modelli di intelligenza artificiale generativa e suggerisce che tali modelli avranno probabilmente impatti di vasta portata su settori che vanno dal settore bancario e finanziario ai servizi pubblici, all’istruzione e alle industrie creative.