
L’editoria è entrata in una fase di attrito strutturale con l’intelligenza artificiale: da un lato l’uso massivo dei contenuti giornalistici per alimentare chatbot e AI Overviews, dall’altro la risposta, sia legale che industriale, degli editori per difendere diritti e ricavi. Il caso più recente arriva dal Giappone, dove Nikkei (controlla anche il Financial Times) e Asahi Shimbun hanno intentato causa contro Perplexity, accusandola di violazione del copyright e di avere ignorato barriere tecniche come il robots.txt; ciascun gruppo chiede ristori milionari e la rimozione dei contenuti archiviati senza permesso. Parallelamente, il dibattito europeo si concentra sulla progressiva cannibalizzazione del traffico: secondo analisi citate dalla stampa specializzata, in un contesto di ricerche sempre più zero-click, gli editori rischiano una perdita di visibilità e valore se non diventano parte “autoriale” delle risposte dei sistemi di IA o se non ricostruiscono una relazione diretta con i lettori .
Di fronte a questa discontinuità, la domanda chiave è: come salvaguardare sostenibilità economica e qualità dell’informazione in un ecosistema dove le piattaforme sintetizzano, rispondono e spesso “chiudono” l’interazione senza click?
La controversia aperta a Tokyo contro Perplexity non è un episodio isolato: segue azioni di altri grandi editori (negli Stati Uniti WSJ e New York Post, in Europa BBC ha inviato una diffida), segnalando un trend globale verso la tutela dei confini della proprietà intellettuale nell’era dei modelli generativi . Al centro non c’è solo il prelievo dei contenuti, ma anche l’effetto sul valore editoriale quando le risposte AI incorporano informazioni inesatte o decontestualizzate, erodendo la credibilità delle testate che hanno prodotto il lavoro originale.
Inoltre, il contenzioso espone un punto spesso trascurato: non basta invocare la fair use doctrine, ossia quel principio tutto statunitense che consente l’utilizzo di contenuti protetti in caso d’uso “equo”(come nel caso delle citazioni giornalistiche); occorre definire standard contrattuali e tecnici condivisi per l’accesso ai contenuti (rispetto del robots.txt, licenze, API con revenue sharing) e per la tracciabilità della fonte nelle risposte. La fotografia che emerge dal Giappone è chiara: gli editori reclamano riconoscimento del valore e compenso, oltre alla capacità di fermare l’indicizzazione/archiviazione non autorizzata quando lo ritengano opportuno.
Mentre i tribunali si esprimeranno, Perplexity annucia il lancio per l’autunno e su scala globale di Comet Plus, un programma di revenue sharing legato al browser Comet: agli editori verrebbe riconosciuto l’80% dei ricavi da abbonamenti quando i loro articoli sono utilizzati nelle risposte, in un modello con abbonamenti standalone da 5 dollari/mese a partire da un’utenza dichiarata di oltre 30 milioni (prevalentemente negli USA) . È un’offerta di cooptazione economica: in cambio di accesso e integrazione, gli editori entrano a far parte del nuovo “sistema operativo dell’informazione” disegnato dai browser-agenti, monetizzando l’uso dei loro contenuti nelle conversazioni AI.
Ma è sufficiente? La domanda rimane aperta per almeno tre ragioni. Il primo nodo critico è quello dell’asimmetria di potere: in questo scenario è sempre la piattaforma a decidere, perché controlla l’interfaccia con cui l’utente interagisce, stabilisce i prezzi, governa l’algoritmo che seleziona le fonti e determina in che modo queste vengano attribuite. In secondo luogo emerge un evidente rischio di dipendenza strutturale: se l’utente sceglie di abbonarsi al browser o al servizio AI, il rapporto di fiducia e il valore relazionale non restano più (e non lo saranno mai) nelle mani del brand editoriale, ma si spostano direttamente verso la piattaforma. Infine c’è il tema della trasparenza delle misurazioni, un terreno ancora fragile: gli editori hanno bisogno di metriche chiare e verificabili che indichino quanto, come e quando un loro contenuto contribuisce a una risposta dell’intelligenza artificiale, dalle impression, all’attribuzione fino agli indicatori di rendimento economico come l’RPM.
In realtà, l’impressione è quella di trovarsi davanti a una replica aggiornata di programmi quali “showcase” o di iniziative dall’effetto civetta/placebo, non molto diversa dai meccanismi già visti in Europa con il tema dell’equo indennizzo agli editori o con la stessa Google News Initiative che fu aperta anche ai piccola publisher per assicurargli qualche spicciolo. Cambiano i linguaggi e le tecnologie, oggi sono i browser “intelligenti” e gli agenti AI integrati nelle piattaforme di navigazione, ma la logica sembra la stessa: garantire visibilità e una parvenza di sostegno agli operatori dell’informazione, senza però incidere davvero sulle fragilità strutturali del settore. Come conferma anche il Digital News Report 2025 del Reuters Institute, i publisher continuano a soffrire di calo di engagement, stagnazione delle sottoscrizioni e crescente dipendenza dalle piattaforme. In questo senso, le nuove iniziative rischiano di essere percepite come strumenti di compensazione temporanea, più utili a consolidare il potere delle vecchi e nuove big tech che a ricostruire un ecosistema sostenibile per il giornalismo.
Il tema zero-click non è mera percezione. Stime e analisi ricordate negli studi e riprese dalla stampa specializzata indicano una crescita delle risposte immediate senza apertura di link: le zero-click su Google sarebbero passate dal 59% al 69%, mentre nel 2024 le visite organiche ai siti di notizie avrebbero registrato un -25% (fonte: SimilarWeb e Search Engine Land). Sul fronte opposto, Google ha ribattuto di recente che i clic organici dalla ricerca sarebbero rimasti “relativamente stabili” anno su anno e che la qualità media dei clic è aumentata; in più, l’azienda sostiene che chi conversa coi chatbot tende a fare più domande e a cercare informazioni di qualità, lasciando intendere che editori specializzati e autorevoli potrebbero trarne beneficio .
Il bivio per gli editori è netto: accettare di essere “pezzi” delle risposte AI (diventando fonti riconosciute e remunerate) o rendere invisibili i propri contenuti agli scraper per puntare su ambienti proprietari dove il valore relazionale (community, membership, newsletter, eventi) è difendibile.
Non esistono soluzioni miracolose né ricette pronte all’uso. Ma ci sono mosse di buon senso che un editore può mettere in campo subito, senza aspettare che la tempesta passi da sola. La prima riguarda la SEO per l’era conversazionale. Non basta più rincorrere le keyword classiche: servono testi costruiti su intenti chiari e su entità solide, persone, luoghi, organizzazioni, con sezioni FAQ, schede esplicative, glossari. In breve, contenuti che un assistente AI non possa riassumere senza citarne la fonte. Poi c’è il terreno delle regole tecniche e contrattuali. Non si tratta solo di alzare muri con robots.txt o header anti-scraping: bisogna anche prepararsi a discutere con chi propone schemi di revenue sharing, pretendendo clausole di verifica indipendente e KPI misurabili.
Un altro fronte riguarda l’attribuzione. Se l’AI cita, deve farlo in maniera chiara. Per questo è utile ridisegnare le pagine inserendo box “fonti e metodi”, dataset proprietari, grafici e documenti scaricabili che rendano il contenuto originale non sostituibile. C’è poi la questione cruciale del pubblico proprietario. Newsletter verticali, membership tematiche, community: è lì che si gioca il vero valore relazionale, fuori dal dominio delle piattaforme. Infine, serve ripensare il prodotto editoriale. Non più articoli isolati, ma hub tematici capaci di aggregare news, analisi, timeline e spiegazioni. Un ambiente ordinato, veloce e mobile-first, che faccia percepire al lettore di essere nel posto giusto e che lo trattenga, invece di rimandarlo altrove.
Non siamo in condizioni oggi e qui di offrire un piano strategico definitivo ma piuttosto una bussola per l’immediato. Una bussola che ricorda agli editori una verità semplice: se non si presidia la fonte e non si coltiva il legame diretto con i lettori, nessuna piattaforma restituirà mai quel valore perduto.
Nel medio periodo, il baricentro si sposta quindi dai motori di ricerca ai browser-agenti che automatizzano task, ricercano, riassumono e agiscono. In questo scenario, il browser diventa l’interfaccia principale con cui l’utente “dialoga” con l’informazione e delega processi. L’ipotesi, già visibile nella roadmap di prodotti come Comet, è che l’utente paghi per un’esperienza assistita, mentre gli editori incassano tramite schemi di revenue quando vengono usati come fonti. È il passaggio da navigazione a interazione: meno pagine viste, più compiti completati (ricerca, confronto, decisione d’acquisto) all’interno di un ambiente chiuso, dove la fiducia e la trasparenza di attribuzione diventano la vera moneta. Per i publisher significa ragionare in termini di “presidio della fonte” e portabilità del brand all’interno di interfacce che non controllano .
È tempo di archiviare il culto della pageview. Non scomparirà, certo, ma non può più essere la bussola che orienta le redazioni. Se l’informazione entra in un ecosistema dominato da browser intelligenti e risposte generate dall’AI, occorre guardare altrove per capire se un brand editoriale ha ancora peso. Conta, ad esempio, quante volte il marchio viene citato come fonte in una risposta AI e con quale visibilità: è l’attribution rate, la misura di un riconoscimento pubblico che vale più del semplice click. Poi c’è l’assist-to-visit, cioè quante di quelle citazioni non si esauriscono nel riassunto ma generano effettivamente un passaggio all’interno dell’ambiente proprietario dell’editore, che sia una visita, un’iscrizione o una membership.
C’è anche un possibile fronte economico nuovo: l’RPM conversazionale, ovvero i ricavi per mille citazioni ottenute all’interno delle risposte AI o dei browser-agenti. Qui serve trasparenza e auditing, perché senza controllo le metriche rischiano di restare opache. Non meno importanti sono le misure legate al rapporto diretto col pubblico: dal tasso di riapertura delle newsletter alla partecipazione nelle community, fino alla capacità di trattenere gli iscritti ed evitare l’abbandono.
Certo ancora il concetto di RPM conversazionale è lontano dall’essere qualcosa di standardizzato ma è probabile che sia la direzione verso cui stiamo andando in una fase in cui il modello pagine viste centrico non restituisce vantaggi nemmeno sul breve.

Infine, la qualità dell’esperienza resta centrale: la profondità di lettura e il tempo di permanenza in un hub tematico dicono molto più della quantità di accessi. Segnalano se l’utente ha percepito di trovarsi nel posto giusto, dove restare, esplorare, magari tornare. In altre parole, le metriche che contano nel 2025 non misurano soltanto il traffico: misurano la rilevanza e la tenuta del legame tra brand e lettore. Ed è su questo terreno che si gioca la sopravvivenza dell’editoria nell’era degli agenti AI.
Al di là dei grandi scenari, c’è sempre la domanda più urgente per chi produce un giornale online e sostiene costi, anche giornalistici, rilevanti: cosa fare domani mattina in redazione? Non servono proclami, ma piccoli passi mirati, capaci di dare ordine in mezzo alla confusione. Il primo è semplice ma fondametale: decidere per cosa si vuole essere fonte primaria. Significa mappare i contenuti davvero strategici e costruire per ciascuno schede solide, sempre aggiornate, collegate tra loro. Un presidio che l’AI non possa ignorare.
Poi ci sono le regole tecniche e contrattuali: robots, header, sitemap avanzate. Non bastano per difendersi, ma servono a mettere paletti chiari e a presentarsi ai tavoli di trattativa, da quelli sul revenue sharing ai futuri accordi di attribuzione, con KPI, clausole di audit e, se necessario, opzioni di uscita. Il piano SEO va ripensato: non più sulle keyword isolate, ma sulle query-intento e sulle entità, con FAQ e glossari rafforzati che rendano i contenuti citabili e riconoscibili. E poi, fondamentale, il ritorno al pubblico proprietario: newsletter verticali, membership tematiche, canali dedicati a ogni area strategica. È lì che si misura la resilienza del brand, lontano dal controllo delle piattaforme.
Infine, un principio semplice: ciò che non si misura non esiste. Attribution e assist-to-visit (la menzione del brand nella risposta AI) devono diventare parte della quotidianità. Solo così si capisce se la voce di un editore pesa davvero dentro le risposte dell’AI o se si sta dissolvendo in un rumore indistinto.
La collisione tra IA e editoria non quindi è un incidente passeggero: è la riscrittura del contratto sociale tra chi produce informazione e chi la distribuisce. Le cause legali come quella avviata a Tokyo sono il fronte difensivo di una battaglia che però si vincerà probabilmente soltanto sul terreno offensivo: qualità riconoscibile, presidio della fonte, modelli di ricavo coerenti con l’interazione mediata dall’AI. Che si scelga di “entrare” nei browser-agenti (con regole chiare) o di puntare sul ritorno a casa (community e ambienti proprietari), l’obiettivo è lo stesso: ricostruire valore attorno al brand editoriale nell’era dello zero-click. I numeri e le mosse di questi mesi ci dicono che il tempo delle attese è finito.
Se vogliamo, è persino un ritorno al passato: l’informazione torna a premiare la profondità e la qualità, decretando la fine del click baiting e, forse anche, l’emarginazione naturale delle fake news. Perché in un ecosistema dove l’AI filtra, riassume e attribuisce, il contenuto costruito per ingannare il lettore o attirare clic facili ha vita breve: non regge la prova della rilevanza e scompare nell’indifferenza algoritmica. Al contrario, nell’editoria come in ogni altro settore, chi sa fare bene il proprio mestiere e lo fa con serietà, avrà più chance di essere riconosciuto, citato e, in definitiva, di avere successo.
Resta però una grande incognita, che pesa come un macigno: dove andranno a finire le risorse degli spender pubblicitari? Alla fine non sarà soltanto la forza delle piattaforme a decidere il destino dei publisher, e nemmeno soltanto la qualità dei contenuti. Sarà la volontà degli investitori a stabilire chi potrà continuare a sostenersi e chi resterà ai margini. È su questa variabile, spesso opaca e mutevole, che si giocherà l’equilibrio finale tra giornalismo, intelligenza artificiale e mercato.
In definitiva, la partita dell’informazione e sulle nuove metriche di sostenibilità non è solo un dibattito tecnico: è il terreno su cui si decide il futuro stesso del giornalismo e del suo rapporto con l’intelligenza artificiale. È anche il cuore del lavoro che digitrend porta avanti da 10 anni con i suoi clienti e partner, aiutandoli a orientarsi tra rischi, opportunità e modelli di ricavo emergenti.
Proprio per questo, anche questo tema sarà al centro del Premio Innovazione Sicilia, in programma il 21 novembre 2025, dove esperti, imprese e realtà editoriali si confronteranno sul modo in cui l’AI sta cambiando e cambierà ancora, l’ecosistema dell’informazione.
Nota sulle fonti: i dati, le cifre e le dinamiche relative al caso Perplexity in Giappone e al dibattito su zero-click/AI Overviews sono tratti dagli articoli pubblicati da Il Sole 24 Ore il 27 agosto 2025: Andrea Biondi, “Editoria alla sfida sul copyright. Il caso Perplexity in Giappone” ; Luca Tremolada, “Cosa succederà quando i chatbot uccideranno i click?” .
RIFERIMENTI
Presidente: Biagio Semilia
Sede legale: via Castellana Bandiera 4/A, Palermo (PA) 90142
PEC: federazioneeditoridigitali@pec.it
C.F. / P.IVA: 07129040825
