Un'analisi condotta da Press Gazette ha rivelato che una parte significativa dei primi 100 siti web di notizie in lingua inglese impiega misure per impedire AI di accedere ai propri contenuti. Dei 106 siti esaminati, 45 non hanno alcun blocco AI, mentre i restanti siti presentano diversi gradi di restrizione.
Approfondimenti sulle tendenze di blocco dei crawler AI tra i principali siti web di notizie
Tra i siti web di notizie intervistati, più di quattro su dieci consentono a tutti i crawler AI di analizzare i propri contenuti senza alcun ostacolo. Tuttavia, una parte considerevole, composta da 61 siti, impone restrizioni bloccando almeno un bot AI. In particolare, 32 siti si spingono oltre, bloccando due o più crawler AI, con alcuni siti che ne bloccano addirittura fino a cinque.
In testa alla lista dei crawler AI bloccati c'è GPTBot, il web crawler associato a ChatGPT, sviluppato da OpenAI. Un sorprendente 56,6% dei siti web intervistati non consente l'accesso a GPTBot. Segue a ruota Google-Extended, un altro crawler frequentemente bloccato utilizzato dal chatbot AI di Google Gemini (precedentemente denominato Bard).
Inoltre, crawler come Claude-Web, Claudebot, anthropic-ai, Cohere-ai, Perplexity-ai, Seekr e Meltwater subiscono diversi gradi di restrizione nei siti web esaminati.
Esclusioni e inclusioni degne di nota
Mentre alcuni importanti editori scelgono di bloccare determinati bot di intelligenza artificiale, altri scelgono di non imporre alcuna restrizione. Ad esempio, Mirror, Express, Manchester Evening News, Ladbible, Unilad e le pubblicazioni sotto l'dent Independent ed Evening Standard, di proprietà di Lebedev, consentono l'accesso illimitato ai crawler di intelligenza artificiale.
Allo stesso modo, Politico, la sussidiaria di Axel Springer, consente l'accesso ai crawler di intelligenza artificiale grazie a un accordo di condivisione dei contenuti con OpenAI.
Con una mossa sorprendente, il Daily Beast, di proprietà dell'IAC, si astiene dal bloccare qualsiasi bot di intelligenza artificiale, nonostante il presidente dell'azienda abbia chiesto un risarcimento agli editori da parte delle aziende di intelligenza artificiale. Al contrario, alcuni siti web politicamente conservatori, tra cui GB News, Newsmax, Zero Hedge, Breitbart e Fox News, scelgono di non bloccare i crawler di intelligenza artificiale, divergendo da altre pubblicazioni sotto l'egida di Murdoch.
Implicazioni e prospettive future
I diversi approcci adottati dagli editori di notizie in merito all'accesso ai crawler di intelligenza artificiale riflettono il dibattito in corso sull'utilizzo dei contenuti e sui diritti di proprietà intellettuale nell'era digitale. Mentre alcuni editori optano per un controllo rigoroso sui propri contenuti per proteggersi da utilizzi non autorizzati e mantenere il controllo sulla distribuzione, altri danno priorità all'accessibilità e alla collaborazione con le aziende di intelligenza artificiale per la diffusione e l'innovazione dei contenuti.
Mentre il panorama continua a evolversi, resta da vedere come gli editori, le aziende di intelligenza artificiale e gli enti regolatori gestiranno la complessa intersezione tra tecnologia, proprietà dei contenuti e privacy degli utenti.
Le decisioni prese dagli editori di notizie in merito all'accesso ai crawler AI non solo hanno un impatto sulla diffusione delle notizie, ma plasmano anche il dibattito più ampio sull'utilizzo dei contenuti digitali e sui diritti di proprietà intellettuale.

