Tutti parlano di AI che scrive al posto tuo. Nessuno parla di AI che legge, decide e acquista al tuo posto. Eppure è già successo, e un tribunale americano ha appena tracciato la prima linea di confine.

Hai presente la discussione infinita sul ghost writing con l’AI? Quella in cui ci si chiede se sia etico usare ChatGPT e Claude per scrivere un articolo, un post LinkedIn, una lettera di motivazione? Capisco. È una domanda legittima. Ma mentre noi siamo lì a discutere se dichiarare o meno l’uso dell’AI nella scrittura, ci stiamo perdendo il problema vero. Quello più sottile. Quello che arriva in silenzio, senza che te ne accorga. Non è l’AI che scrive al posto tuo. È l’AI che legge, filtra e decide al posto tuo. Benvenuto nell’era del ghost reading.
Amazon ha fatto causa a Perplexity, e il motivo è illuminante
A marzo 2026, un giudice federale di San Francisco ha emesso un’ingiunzione a favore di Amazon contro Perplexity AI. Il caso: Perplexity ha lanciato Comet, un browser-agente basato su AI in grado di navigare il web e (con il consenso dell’utente) fare acquisti su Amazon in completa autonomia. Nessun confronto di prezzi manuale. Nessuna lettura delle recensioni. Nessuna scelta personale. L’agente compra, e basta.
Amazon non ha gradito. E non solo per questioni tecniche di accesso non autorizzato. La parte interessante è questa: Amazon ha sostenuto che l’uso di Comet “peggiora in modo significativo l’esperienza del cliente” perché rimuove elementi fondamentali del suo ecosistema. Quali elementi? Le raccomandazioni personalizzate, le promozioni e i risultati sponsorizzati. Tradotto in italiano: Amazon non vuole che una macchina compri al posto tuo perché così non riesce più a influenzarti (vedi le armi d. Fermati un secondo su questa cosa. È più importante di quanto sembri.
Il vero modello di business di ogni piattaforma si chiama “attenzione umana”
Amazon, Google, Facebook, TikTok: tutti questi sistemi funzionano perché tu (persona in carne e ossa) guardi, scegli, ti lasci tentare. Se un agente AI fa tutto al posto tuo, la piattaforma perde il suo oggetto del desiderio: la tua attenzione, le tue esitazioni, i tuoi clic. Perde la capacità di mostrarti quel prodotto sponsorizzato proprio quando stai per cedere.
L’AI agente non esita davanti a una promozione. Non si fa distrarre da “Spesso comprato insieme”. Non cade nel bias dell’ancoraggio quando vede che il prezzo è stato “ridotto” da 99 € a 79 €.
È un consumatore perfetto nel senso più letterale del termine: non si fa fregare. E questo, paradossalmente, è esattamente il problema.
Kahneman, il “sistema zero” e la delega silenziosa

Conosci il lavoro di Daniel Kahneman? (Se non lo conosci, corri a comprare Pensieri lenti e veloci (è tra i testi che suggerisco qui). È uno di quei libri che ti cambia il modo di vedere tutto.)
Kahneman ha descritto due modalità di pensiero:
- Sistema 1: veloce, intuitivo, automatico. Quello che ti fa sentire fame vedendo una pizza in TV.
- Sistema 2: lento, deliberato, analitico. Quello che usi per fare i calcoli sul mutuo.
Oggi i ricercatori parlano di un terzo livello: il Sistema zero (vedi qui).
Non è tuo, è dell’AI.
Il Sistema 0 è uno strato pre-cognitivo che si interpone tra il mondo e il tuo cervello. L’AI seleziona, filtra, sintetizza e ti presenta una realtà già pre-digerita, prima ancora che tu abbia il tempo di attivare il Sistema 1 o il Sistema 2. Non è fantascienza, è già la nostra quotidianità. Quando chiedi a ChatGPT “cosa leggo sull’argomento X?” e accetti la risposta senza verificarla, hai attivato il Sistema 0. Hai delegato la selezione cognitiva a una macchina.
Cosa dicono i ricercatori (e non è tranquillizzante)
Ho cercato studi recenti sull’argomento. Eccone tre che vale la pena conoscere.
Studio 1 — Il lettore passivo (Arxiv, aprile 2025)
Ricercatori dell’Università di Washington hanno analizzato 124 sessioni in cui studenti universitari usavano AI per leggere i testi del corso (“Supporting Students’ Reading and Cognition with AI”, Fu & Hiniker, arXiv:2504.13900).
Risultato iniziale incoraggiante: nelle prime sessioni, gli studenti usavano l’AI per analisi e valutazioni complesse (pensiero di ordine superiore). Ma nel tempo, settimana dopo settimana, il pattern cambiava. Gli studenti convergevano verso un uso sempre più passivo. Sempre meno domande critiche. Sempre più “dimmi tu cosa dice questo testo”.
La delega cognitiva si installa gradualmente, come un’abitudine.
Studio 2 — Proteggere la cognizione umana (Arxiv, febbraio 2025)
Un paper della Stanford University (“Protecting Human Cognition in the Age of AI”, Singh et al., arXiv:2502.12447) fotografa un rischio sistemico: l’adozione massiva di AI generativa sta rimodellando profondamente il modo in cui gli esseri umani si relazionano con l’informazione, ragionano e apprendono.
Il problema non è l’AI in sé. È che i novizi (gli studenti, chi non ha ancora solide basi disciplinari) rischiano di sviluppare competenze cognitive atrofizzate, avendo sempre qualcuno (qualcosa) che pensa al loro posto nelle fasi cruciali dello sviluppo intellettuale.
Studio 3 — L’agente che compra per te (Arxiv, 2025)
Il paper “What Is Your AI Agent Buying?” (arXiv:2508.02630) esamina direttamente il fenomeno del commercio agentivo: AI che acquistano in autonomia per gli utenti, con minima supervisione umana. I ricercatori hanno trovato che c’era solo il 2% di sovrapposizione nelle scelte esatte tra gli agenti AI e i consumatori umani.
Due per cento.
Significa che l’agente AI, comprando “per te”, sta in realtà comprando per sé — sulla base di logiche proprie, non delle tue preferenze reali.
Ma attenzione: non è tutto negativo
Sarei disonesto se dipingessi solo il lato oscuro. La delega cognitiva ha aspetti genuinamente preziosi.
Accessibilità reale. Per chi ha difficoltà di lettura, dislessia, o non padroneggia la lingua di un testo tecnico, l’AI che sintetizza e semplifica è una conquista di civiltà. Non una minaccia.
Efficienza nelle decisioni a basso rischio. Delegare all’AI la ricerca del volo più economico o la comparazione di tariffe assicurative è razionale. Libera tempo cognitivo per le decisioni che contano davvero.
Personalizzazione genuina. Un agente AI che conosce bene le tue preferenze (e le rispetta davvero) potrebbe farti scoprire cose che da solo non avresti mai trovato, senza le distorsioni degli algoritmi di engagement progettati per venderti pubblicità.
Il problema non è la delega in sé. È la delega inconsapevole: quella che avviene senza che tu te ne accorga, senza che tu abbia scelto deliberatamente di farlo.
Gli esempi concreti che ti riguardano (più di quanto pensi)
Andiamo sul concreto. Questi scenari di ghost reading li stai già vivendo, anche se non li hai etichettati così.
- Il riassunto che diventa l’unico testo. Carichi un PDF su NotebookLM o ChatGPT, chiedi il riassunto, e non apri mai il documento originale. L’AI ha letto per te. Ha scelto cosa è importante. Ha deciso cosa puoi ignorare.
- La rassegna stampa filtrata. Usi un AI per “tenerti aggiornato” su un settore. Ma l’AI seleziona le fonti, pesa le notizie, decide il tono. Il tuo “aggiornamento” è già una realtà pre-interpretata.
- Il consiglio di acquisto diretto. “Qual è il miglior laptop sotto i 1.000 euro?” — e compri quello che ti dice l’AI senza verificare le recensioni, senza considerare le alternative, senza chiederti se le tue esigenze specifiche corrispondono ai criteri usati dalla macchina.
- L’agente che gestisce la tua inbox. Esistono già strumenti che leggono la tua email, decidono cosa è urgente, archiviano il resto. Tu vedi solo ciò che l’AI ha scelto di farti vedere.
- La ricerca accademica delegata. Uno studente chiede all’AI “cosa si dice su questo argomento” invece di leggere le fonti primarie. L’AI costruisce una sintesi. Lo studente la riporta come “la letteratura”. Il problema? L’AI può sbagliare, sintetizzare in modo distorto, omettere voci critiche.
Il paradosso del consumatore perfetto
Torno al caso Amazon-Perplexity, perché è il più rivelatore.
Un agente AI che compra per te è, tecnicamente, un consumatore razionale: confronta prezzi, ignora i bias cognitivi, non cade nelle trappole di marketing. Dovrebbe essere una cosa buona, no?
Eppure Amazon ci ha fatto una causa.
Perché la “razionalità” dell’agente AI è una razionalità diversa dalla tua. Non tiene conto del piacere di scoprire qualcosa di inaspettato mentre fai shopping. Non tiene conto del fatto che a volte vuoi lasciarti tentare. Non tiene conto delle tue preferenze etiche verso certi brand. Non tiene conto di come ti senti quel giorno.
E soprattutto: non capisci davvero come ha scelto.
L’opacità degli algoritmi di decisione è il vero rischio del ghost reading. Quando deleghi la scrittura a un AI, il testo è lì — puoi leggerlo, correggerlo, riappropriartene. Quando deleghi la lettura e la scelta, non hai più nemmeno quella possibilità.
La domanda che devi porti
La prossima volta che stai per delegare a un’AI una lettura, una sintesi, una decisione d’acquisto, fermati un secondo e chiediti:
Sto scegliendo io di non leggere? O sto semplicemente smettendo di leggere senza averlo deciso?
C’è una differenza enorme tra usare l’AI come uno strumento consapevole — un assistente che ti aiuta a fare meglio quello che vuoi fare — e lasciare che l’AI diventi la tua interfaccia con la realtà.
Il ghost writer ti toglie la voce, il ghost reader ti toglie la mente. Decidi tu quale dei due ti preoccupa di più.

