xAI di Musk sostiene la sezione sulla sicurezza dell'intelligenza artificiale del codice UE, mentre i giganti della tecnologia restano divisi

- xAI rivela che firmerà il capitolo del codice UE sulla sicurezza dell'IA, ma per ora ne salta altri.
- Google sostiene il codice nonostante le critiche, mentre Meta rifiuta, citando problemi legali.
- Il codice volontario mira a facilitare la transizione verso l'entrata in vigore della legge UE sull'intelligenza artificiale.
L'azienda di intelligenza artificiale di Elon Musk, xAI, ha dichiarato che sottoscriverà il capitolo sulla sicurezza del codice di condotta dell'Unione Europea per l'intelligenza artificiale, una mossa che la allinea parzialmente alle norme fondamentali dell'Unione in materia di intelligenza artificiale.
Il codice, redatto da 13 collaboratorident , è volontario, ma fornisce chiarezza giuridica alle aziende che lo adottano mentre si preparano alla piena applicazione della legge sull'intelligenza artificiale dell'UE.
xAI e altre aziende tecnologiche hanno sentimenti contrastanti riguardo al codice
In un post su X, xAI ha riconosciuto che, sebbene l' AI Act e il Codice promuovano la sicurezza, altre parti sono profondamente dannose per l'innovazione e le sue disposizioni sul copyright sono chiaramente eccessive.
L'azienda ha tuttavia confermato che firmerà il capitolo sulla sicurezza.
"xAI sostiene la sicurezza dell'IA e firmerà il capitolo sulla sicurezza e la protezione del Codice di condotta dell'AI Act dell'UE"
~ xAI.
L'azienda non ha dichiarato se intende adottare le altre due sezioni del codice, trasparenza e copyright, entrambe applicabili ai fornitori di intelligenza artificiale generici ai sensi della prossima normativa.
La posizione di xAI si aggiunge alla crescente spaccatura tra i principali sviluppatori di IA su come rispondere al quadro normativo dell'UE. Google, parte di Alphabet, si è impegnata a firmare integralmente il codice di condotta, pur esprimendo serie riserve su alcuni aspetti delle norme.
"Restiamo preoccupati che la legge e il codice sull'IA rischino di rallentare lo sviluppo e la diffusione dell'intelligenza artificiale in Europa", ha dichiarato Kent Walker, presidentedent affari globali di Google, in un post sul blog. Ha però aggiunto che le recenti modifiche al codice lo hanno migliorato e che Google procederà con la firma.
Al contrario, Meta si è rifiutata di firmare. La società madre di Facebook afferma che il codice crea incertezza giuridica e include misure che vanno ben oltre quanto richiesto dall'AI Act.
Il colosso della tecnologia ha avvertito che il quadro normativo potrebbe scoraggiare le aziende dallo sviluppare sistemi di intelligenza artificiale fondamentali in Europa, descrivendo la direzione intrapresa dall'UE come "la strada sbagliata in materia di intelligenza artificiale"
Microsoft e OpenAI non hanno confermato se firmeranno il codice.
L'UE sta preparando l'industria tecnologica all'applicazione dell'AI Act
Il codice di condotta dell'UE per l'intelligenza artificiale è concepito come strumento transitorio, per aiutare le aziende ad allinearsi alle future normative sull'intelligenza artificiale, che entreranno in vigore per i modelli ad alto impatto il 2 agosto. Queste norme sono rivolte agli sviluppatori dei cosiddetti modelli di intelligenza artificiale a rischio sistemico, come quelli sviluppati da Google, Meta, Anthropic e OpenAI.
Sebbene non sia giuridicamente vincolante, il codice delinea le aspettative in materia di documentazione, reperimento dei contenuti e risposta alle rivendicazioni di copyright. Le aziende che aderiscono beneficeranno probabilmente di un coinvolgimento normativo più fluido e di minori incertezze legali.
La più ampia legge europea sull'IA, un provvedimento legislativo di vasta portata, mira a regolamentare l'intelligenza artificiale in base ai livelli di rischio. Vieta categoricamente alcuni utilizzi, come i sistemi manipolativi o i sistemi di punteggio sociale, imponendo al contempo requisiti rigorosi per gli utilizzi "ad alto rischio" in settori come l'istruzione, il lavoro e la biometria.
Gli sviluppatori di modelli avanzati dovranno effettuare valutazioni del rischio, mantenere registri di trasparenza e rispettare rigorosi standard di qualità. Chi non rispetta tali requisiti potrebbe incorrere in sanzioni fino al 7% del fatturato annuo globale.
Le diverse reazioni dei leader dell'intelligenza artificiale suggeriscono che si sta creando una frattura nel modo in cui le aziende tecnologiche considerano la regolamentazione nell'UE.
Mentre alcuni, come Google, stanno optando per un impegno strategico, altri, come Meta, stanno reagendo, temendo che le regole possano soffocare l'innovazione.
La decisione di xAI di supportare selettivamente parti del codice potrebbe rappresentare una via di mezzo, riconoscendo l'importanza della sicurezza dell'IA e resistendo al contempo a quella che considera una regolamentazione eccessiva.
Mentre l'UE porta avanti il suo programma normativo, sempre più aziende tecnologiche dovranno fare una scelta: collaborare fin da subito o rischiare un conflitto in seguito.
Non limitarti a leggere le notizie sulle criptovalute. Cerca di capirle. Iscriviti alla nostra newsletter. È gratis.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)














