In passato aziende come OpenAI e Perplexity avevano promesso che i motori di ricerca basati sull'intelligenza artificiale offerti dai loro modelli avrebbero fornito nuove fonti di reddito agli editori, indirizzando il traffico verso i loro siti.
Tuttavia, secondo un rapporto condiviso con Forbes dalla piattaforma di licenze di contenuti TollBit, è emerso che i motori di ricerca basati sull'intelligenza artificiale in realtà inviano meno del 96% del traffico ai siti di notizie e ai blog rispetto alla consueta ricerca di Google.
Nel frattempo, gli sviluppatori di intelligenza artificiale che estraggono dati dai siti web hanno continuato ad aumentare, aumentando la frustrazione che molti editori provano nei confronti di questi strumenti.

Come i motori di ricerca basati sull'intelligenza artificiale stanno rubando la scena
Per comprendere il conflitto che si sta sviluppando tra editori e motori di ricerca basati sull'intelligenza artificiale, dobbiamo tornare alle origini.
L'ottimizzazione dei motori di ricerca è diventata una questione fondamentale quando Yahoo! è passato dall'essere un semplice elenco di directory nel 1994 all'offrire la ricerca nel 1995. È stata la risposta alla scoperta di Internet e dopo che Google è diventato il primo buon motore di ricerca nel 1997, ha rapidamente dominato il Web ed è diventato importante per gli utenti del Web.
Google è diventato il miglior motore di ricerca del web grazie al suo meccanismo di punteggio PageRank, che classifica i risultati di ricerca in base al numero di altri siti web collegati a ciascun risultato.
Oggi, con la diffusione dei motori di ricerca basati sull'intelligenza artificiale, gli utenti scelgono di utilizzare semplici agenti di risposta basati sull'intelligenza artificiale o i più elaborati strumenti di ricerca basati sull'intelligenza artificiale in stile "Deep Research" disponibili presso diversi laboratori di intelligenza artificiale per condurre query online.
Questa crescente relazione tra i motori di ricerca basati sull'intelligenza artificiale e gli editori di contenuti mette in discussione il "tracsociale" che ha mantenuto i motori di ricerca tradizionali come Google rilevanti per gli editori.
In base altrac, gli editori fornivano contenuti in cambio di traffico di riferimento dai motori di ricerca e questo costituiva la base di una relazione simbiotica che ha sostenuto l'ecosistema dei media online per decenni.
Tuttavia, ora che disponiamo di riepiloghi generati dall'intelligenza artificiale che eliminano la necessità per gli utenti che necessitano di informazioni dirette di consultare le fonti originali, la dinamica è cambiata in modo significativo.
Questo nuovo sviluppo non solo minaccia i modelli di guadagno dei creatori di contenuti, ma ci costringe anche a mettere in discussione la sostenibilità del giornalismo di qualità.
Nathan Schultz, CEO della società Edtech Chegg, pensa che sia giunto il momento di “dire di no”, spiegando che non è giusto trac
È chiaro che l'intelligenza artificiale è qui per restare e col tempo sempre più persone si rivolgeranno ad agenti di intelligenza artificiale quando avranno domande. Un esperto ritiene che questo sia dovuto al fatto che l'intelligenza artificiale si impegna a fornire informazioni più approfondite, anziché limitarsi ad aiutare a scoprire ciò che si sta cercando.
Sebbene questa sia una funzionalità eccezionale, ha un effetto devastante sui siti che dipendono dal traffico di riferimento per sopravvivere. Prendiamo ad esempio Chegg. Ha visto il suo traffico crollare del 49% a gennaio su base annua, un netto calo rispetto al calo dell'8% registrato nel secondo trimestre dell'anno scorso, quando Google ha rilasciato i riepiloghi basati sull'intelligenza artificiale.
Secondo quanto affermato in una conference call sui risultati finanziari,
Come gli editori di notizie hanno affrontato il nuovo sviluppo
Secondo il rapporto di TollBit, i motori di ricerca basati sull'intelligenza artificiale inviano meno traffico di riferimento rispetto alle tradizionali ricerche su Google e si è registrato un aumento significativo del web scraping da parte delle aziende di intelligenza artificiale, con alcune che hanno eseguito lo scraping dei siti web in media 2 milioni di volte nell'ultimo trimestre del 2024. Sfortunatamente, questi scraping non si traducono spesso in traffico per i siti interessati.
Gli editori non sono contenti di questa situazione e hanno reagito principalmente intraprendendo azioni legali contro le aziende di intelligenza artificiale per violazione della proprietà intellettuale. A giugno, Forbes ha inviato una lettera di diffida a Perplexity, accusandola di violazione del copyright, e a ottobre, il New York Post e Dow Jones hanno intentato causa all'azienda per presunta violazione del copyright e per aver attribuito fatti inventati alle aziende mediatiche.

All'epoca, Perplexity rispose affermando che la causa rifletteva una posizione "fondamentalmente miope, inutile e controproducente"
All'inizio di questo mese, un gruppo di editori tra cui Condé Nast, Vox e The Atlantic ha intentato una causa contro la società di intelligenza artificiale aziendale Cohere , accusandola di aver presumibilmente prelevato da Internet 4.000 opere protette da copyright e di averle utilizzate per addestrare la sua suite di modelli linguistici di grandi dimensioni.
La questione è resa ancora più complicata dal fatto che le aziende di intelligenza artificiale nondentcorrettamente i loro web crawler, il che rende difficile per gli editori gestire l'accesso ai loro contenuti.
Per affrontare queste sfide, alcuni editori hanno optato per accordi di licenza sui contenuti con aziende di intelligenza artificiale, che garantiscono loro un compenso per l'utilizzo dei loro dati. Altri, come TollBit, hanno sviluppato modelli per addebitare alle aziende di intelligenza artificiale il costo dello scraping dei contenuti.
Con l'evolversi della situazione, i quadri giuridici in materia di protezione dei dati e proprietà intellettuale diventeranno campi di battaglia cruciali in cui i diritti degli editori potranno essere potenzialmente difesi e ampliati.
Se si permette che le cose continuino senza controllo, gli analisti affermano che potremmo trovarci in un'era dominata dalla "melma dell'intelligenza artificiale", ovvero una situazione in cui i fornitori di contenuti di alto livello sono costretti a chiudere i battenti, causando una significativa diluizione della qualità delle informazioni disponibili.

