L'autorità di regolamentazione dei media irlandese, Coimisiún na Meán, ha avviato formalmente un'indagine sulla piattaforma di social media X, in quanto teme che possa violare il Digital Services Act (DSA) dell'UE.
Uno degli obiettivi della DSA è quello di rendere le piattaforme online più responsabili e trasparenti, rispettando i diritti degli utenti in merito alla moderazione dei contenuti.
L'indagine dell'autorità di regolamentazione dei media irlandese nasce dal timore che X potrebbe non rispettare gli obblighi della DSA e che gli utenti non abbiano modo di chiedere un risarcimento adeguato o di presentare ricorso se ritengono che le decisioni di moderazione siano sbagliate.
L'irlandese Coimisiún na Meán indaga su una potenziale violazione dei DSA
Secondo Virkkunen, vicepresidente esecutivo dent Commissione europea per la sovranità tecnologica, la sicurezza e la democrazia, la DSA richiede alle piattaforme di applicare la moderazione dei contenuti, ma devono disporre di sistemi interni efficaci per la gestione dei reclami, in cui gli utenti abbiano il diritto di presentare ricorso contro le decisioni di moderazione dei contenuti.
"Sebbene la moderazione automatica sia consentita, le piattaforme online devono essere trasparenti circa il suo utilizzo e la sua accuratezza", ha aggiunto Virkkunen.
Le indagini condotte da Coimisiún na Meán mirano a stabilire se il sistema interno di gestione dei reclami di X soddisfa gli standard normativi della DSA o se violi tali standard.
Le indagini dell'autorità di regolamentazione sono supportate da varie fonti e dall'organizzazione no-profit HateAid, che in precedenza aveva intrapreso azioni legali contro X per conto di un ricercatore che era stato ripetutamente bandito dalla piattaforma.
In gioco le finanze e le implicazioni più ampie per X
L'indagine è la prima condotta dalla Coimisiún na Meán nell'ambito della DSA e le violazioni potrebbero comportare una perdita pari a quasi il 6% del fatturato dell'azienda. Questa non è la prima piattaforma di social media presa di mira dalle autorità di regolamentazione irlandesi. TikTok è stata sanzionata con una sanzione di 530 milioni di euro per violazione del Regolamento generale sulla protezione dei dati (GDPR) dell'UE nel maggio 2025. LinkedIn ha ricevuto una multa di circa 310 milioni di euro per varie violazioni normative.
Oltre alle immediate conseguenze finanziarie, l'indagine evidenzia la crescente pressione sulle piattaforme dei social media per mantenere sia la conformità normativa sia la fiducia degli utenti in un contesto normativo che richiede responsabilità per il modo in cui i contenuti vengono gestiti e moderati.
All'inizio di quest'anno, X è stata sottoposta a verifica da parte dell'UE per verificare se il social media avesse violato le leggi sui contenuti dell'Unione. Questa verifica potrebbe portare a cambiamenti più ampi nelle politiche operative e di moderazione dei contenuti di X. Con la crescente attenzione normativa rivolta ai giganti dei social media in tutto il mondo, le piattaforme devono bilanciare l'applicazione degli standard della community con il rispetto del diritto degli utenti a un trattamento equo e a procedure trasparenti per contestare le azioni di moderazione.
Questa indagine è un chiaro indicatore dell'impegno dell'UE nel responsabilizzare le piattaforme di social media e nel garantire che le misure di protezione degli utenti siano solide e applicabili. Per X, la società di Elon Musk, l'esito non solo definirà la posizione di conformità dell'azienda, ma potrebbe anche influenzare l'approccio del settore in termini di moderazione dei contenuti e cooperazione normativa in tutta Europa.
Con lo sviluppo dell'indagine, le parti interessate del settore tecnologico e gli ambienti politici seguiranno con attenzione l'evolversi della situazione. I risultati e le eventuali azioni di contrasto da parte dell'autorità di regolamentazione dei media irlandese avranno ripple sul modo in cui le piattaforme digitali regolano la libertà di parola e le interazioni degli utenti online nell'ambito del quadro normativo DSA.

