Quando la verità diventa un processo
Riflessioni personali sulla trasformazione epistemologica nell'era dell'intelligenza artificiale
C’è un momento preciso in cui ho capito che qualcosa si era rotto nel mio rapporto con la conoscenza. Stavo guardando un video su YouTube, un’intervista a un politico che diceva cose che mi sembravano assurde. Ho pensato: sarà un deepfake. Poi mi sono fermato. Non avevo nessun motivo reale per pensarlo, nessun glitch visivo, nessuna anomalia nel labiale. Semplicemente, il dubbio era diventato la mia reazione predefinita. E questo, mi sono reso conto, cambia tutto.
Ho studiato filosofia per anni prima di dedicarmi all’informatica, e questa combinazione mi ha sempre fatto sentire a cavallo tra due mondi che faticano a parlarsi. Da una parte la tradizione epistemologica occidentale, con la sua ossessione per la corrispondenza tra pensiero e realtà, quell’adaequatio rei et intellectus di Tommaso d’Aquino che ancora oggi echeggia nelle nostre intuizioni più basilari su cosa significhi che qualcosa sia vero. Dall’altra il mondo degli algoritmi, dei pattern statistici, delle reti neurali che producono testi e immagini indistinguibili da quelli umani senza avere la minima idea di cosa stiano facendo. Sono due linguaggi diversi, due ontologie diverse, e forse due epoche diverse che si sono trovate a coabitare nello stesso momento storico.
La cosa che mi inquieta di più non è che esistano i deepfake. È che la loro sola esistenza ha cambiato il modo in cui guardo tutto il resto. Gli studiosi lo chiamano “dividendo del bugiardo”: anche senza creare un solo video falso, la tecnologia dei deepfake permette a chiunque di screditare qualsiasi prova autentica semplicemente dicendo “sarà stato generato dall’ai”. È geniale, anche se in un modo perverso. Non devi sostituire una verità con un’altra. Devi solo creare abbastanza rumore da rendere impossibile ogni certezza.
Mi chiedo spesso se il postmodernismo ci abbia preparato a questo o se ci abbia solo reso più vulnerabili. Lyotard proclamava la fine delle grandi narrazioni nel 1979, Nietzsche già un secolo prima parlava delle verità come “illusioni di cui si è dimenticata la natura illusoria”. C’era qualcosa di liberatorio in quella critica, un modo per smascherare il potere che si nascondeva dietro le pretese di oggettività. Ma adesso mi domando se non abbiamo demolito gli strumenti che ci servirebbero per distinguere la disinformazione deliberata dalla legittima pluralità di interpretazioni. È un pensiero che mi mette a disagio, perché suona reazionario, e non credo di esserlo. Ma il disagio è forse il segnale che c’è qualcosa da capire.
Quando leggo che nel 2023 sono stati rilevati quasi centomila video deepfake, con un aumento del 550 per cento dal 2019, quando scopro che oggi si può manipolare una videochiamata in tempo reale con costi inferiori a due euro, mi rendo conto che siamo entrati in un territorio dove le nostre intuizioni epistemologiche non funzionano più. Per millenni abbiamo dato per scontato che vedere fosse credere, che una fotografia fosse una prova, che un video mostrasse la realtà. Tutto questo è finito, e non so se ne siamo davvero consapevoli.
C’è una frase di Walter Quattrociocchi che mi è rimasta impressa: “nell’era delle piattaforme e dell’intelligenza artificiale, la verità non è più oggettiva ma plasmata dall’algoritmo”. La prima volta che l’ho letta mi è sembrata esagerata, quasi una provocazione retorica. Ma più ci penso, più mi sembra una descrizione accurata di quello che viviamo. Gli algoritmi di raccomandazione non sono strumenti neutrali che ci mostrano informazioni rilevanti. Sono agenti attivi nella costruzione della nostra realtà percepita. Decidono cosa vediamo, in quale ordine, con quale frequenza. E lo fanno ottimizzando metriche di engagement, non di verità.
Il risultato sono quelle che Eli Pariser ha chiamato filter bubbles, bolle filtro dove vediamo solo contenuti coerenti con le nostre credenze preesistenti. E le echo chambers, camere d’eco dove le nostre opinioni vengono amplificate e rinforzate da persone che la pensano come noi. Una ricerca su Twitter durante la pandemia ha mostrato che gli utenti con orientamenti politici di destra formavano camere d’eco particolarmente dense, con l’80 per cento del loro pubblico composto da persone simili a loro. Ma non è un problema solo della destra politica. È un problema strutturale, insito nell’architettura stessa delle piattaforme.
La cosa che mi colpisce è come questo processo sia invisibile a chi lo subisce. Nessuno ti dice “stai entrando in una bolla”. Semplicemente, il tuo feed si popola di contenuti che ti piacciono, di opinioni che condividi, di persone che la pensano come te. E tu pensi di star vedendo il mondo, quando in realtà stai vedendo un riflesso sempre più distorto di te stesso.
Ho passato molto tempo a riflettere sul concetto di “post-verità”, quella parola che l’Oxford Dictionary ha eletto parola dell’anno nel 2016. La definizione ufficiale parla di una condizione in cui “i fatti oggettivi sono meno influenti nel formare l’opinione pubblica rispetto agli appelli all’emozione e alle credenze personali”. Ma mi sembra che manchi qualcosa. Non è solo che le emozioni contano più dei fatti. È che il concetto stesso di “fatto” è diventato contestabile, che la possibilità di un terreno comune su cui costruire il disaccordo si è erosa.
Forse è questo il punto che mi spaventa di più. Una democrazia può sopravvivere al disaccordo, anzi ne ha bisogno. Ma può sopravvivere quando non c’è più accordo nemmeno su cosa costituisca un fatto? Quando ogni affermazione può essere respinta come fake news, ogni prova come manipolazione, ogni esperto come parte di un complotto?
Penso spesso alla pandemia di covid-19 come a un esperimento naturale su larga scala. Avevamo un virus reale, con conseguenze reali, e un sistema scientifico che cercava di capirlo in tempo reale, con tutti i limiti e le incertezze che questo comporta. E abbiamo visto come l’ecosistema informativo digitale abbia amplificato la confusione, trasformando l’incertezza scientifica legittima in materiale per teorie del complotto, creando polarizzazione anche su questioni che in teoria avrebbero dovuto unirci. L’Organizzazione Mondiale della Sanità ha coniato il termine “infodemia” per descrivere quella sovrabbondanza di informazioni, alcune accurate e altre no, che rendeva difficile per le persone trovare orientamento. Ma forse il termine sottovaluta il problema. Non era solo troppa informazione. Era un ecosistema progettato per premiare l’engagement piuttosto che la verità, la polarizzazione piuttosto che la comprensione.
Il bias di conferma è vecchio quanto l’umanità. Tendiamo a cercare, interpretare e ricordare informazioni che confermano quello che già crediamo. Ma gli algoritmi hanno trasformato una tendenza psicologica in un’architettura tecnologica. Hanno automatizzato il bias di conferma, lo hanno industrializzato. E così quello che prima era un difetto cognitivo da correggere è diventato un modello di business da ottimizzare.
Mi colpisce la velocità con cui le fake news si diffondono rispetto alle informazioni verificate. Uno studio del mit ha mostrato che le notizie false su X si propagano sei volte più velocemente di quelle vere. Non è un caso. Le fake news sono progettate per essere emotivamente coinvolgenti, sensazionalistiche, polarizzanti. Fanno leva sulle nostre reazioni istintive, sui centri del cervello che rispondono prima che la corteccia prefrontale abbia il tempo di analizzare criticamente. È una forma di hacking cognitivo, e funziona perché sfrutta le stesse vulnerabilità che ci hanno permesso di sopravvivere come specie.
Quello che mi affascina, ma in un modo inquietante, è come l’intelligenza artificiale stia cambiando non solo la quantità ma la qualità della disinformazione possibile. I large language models come gpt non sanno cosa sia vero. Non hanno accesso a una realtà esterna da verificare. Sono macchine statistiche che predicono quale parola viene dopo l’altra, basandosi su pattern appresi da miliardi di testi umani. Ma il risultato è così convincente, così fluido, così apparentemente ragionato, che è facilissimo dimenticarsi di cosa sta realmente succedendo sotto il cofano.
Un filosofo che ho letto di recente poneva una domanda che mi ha fatto riflettere a lungo: “cosa significa che un sistema ‘conosce’ qualcosa se non ha consapevolezza o intenzionalità?”. È una domanda che tocca il cuore di quello che abbiamo sempre pensato fosse la conoscenza. Per Platone la conoscenza era credenza vera giustificata. Ma può esserci credenza senza un soggetto che crede? Può esserci giustificazione senza comprensione? Stiamo forse assistendo all’emergere di una “conoscenza” puramente inferenziale, funzionale, statistica, senza quel legame con il mondo che la filosofia occidentale ha sempre considerato essenziale?
Non ho risposte, solo domande. Ma forse è giusto così. Forse in questo momento le domande sono più importanti delle risposte.
C’è un concetto che Luciano Floridi ha introdotto e che mi aiuta a pensare alla nostra condizione: “onlife”. L’idea è che i confini tra online e offline, tra digitale e fisico, tra reale e virtuale si stiano dissolvendo. Non viviamo più nel mondo fisico con occasionali escursioni nel digitale. Viviamo in uno spazio ibrido dove le due dimensioni si compenetrano. E questo cambia non solo come conosciamo ma chi siamo.
Mi riconosco in questa descrizione. Il mio io digitale non è una maschera che indosso quando vado online. È parte di me, una parte che interagisce con algoritmi, si esprime attraverso avatar, delega porzioni della propria identità a profili su piattaforme che non controllo. È una forma di ibridazione che forse i miei nonni avrebbero faticato a comprendere, ma che per me è semplicemente normale. E questo mi fa pensare a quanto velocemente ci adattiamo a cambiamenti che, visti da una certa distanza, sono radicali.
Del resto l’ibridazione non è solo digitale. Milioni di persone vivono con pacemaker, protesi, impianti. La nostra evoluzione verso il cyborg è già in corso, ed è molto meno fantascientifica di quanto immaginiamo. Ma mentre l’ibridazione fisica è stata generalmente accolta come progresso medico, l’ibridazione cognitiva suscita più ambivalenza. Forse perché tocca qualcosa di più intimo, qualcosa che consideriamo il nucleo del nostro essere: il pensiero, la ragione, la capacità di conoscere.
Quello che mi preoccupa non è l’ibridazione in sé. È la possibilità che stiamo delegando troppo alle macchine senza capire cosa stiamo perdendo. C’è una citazione di Hannah Arendt che mi perseguita da quando l’ho letta:
Se la conoscenza si separasse irreparabilmente dal pensiero, allora diventeremmo esseri senza speranza, schiavi non tanto delle nostre macchine quanto della nostra competenza, creature prive di pensiero alla mercé di ogni dispositivo tecnicamente possibile.
Arendt scriveva negli anni sessanta, molto prima di internet, prima dei social media, prima dell’intelligenza artificiale generativa. Ma le sue parole sembrano descrivere un rischio che oggi è molto più concreto di quanto non fosse allora.
Gli studi sui nativi digitali mostrano tendenze preoccupanti: elaborazione superficiale delle informazioni, rapido spostamento dell’attenzione, ridotte capacità di riflessione prolungata. Non è una condanna morale, è una descrizione di come i nostri cervelli si stanno adattando a un ambiente informativo progettato per catturare l’attenzione piuttosto che alimentare la comprensione. E mi chiedo se stiamo creando le condizioni per quella separazione tra conoscenza e pensiero di cui parlava Arendt.
Ma forse sono troppo pessimista. Forse ogni generazione ha pensato che la successiva stesse perdendo qualcosa di essenziale, e ogni volta la storia ha smentito quel pessimismo. O forse questa volta è diverso. Non lo so. L’onestà intellettuale mi impone di ammettere che non lo so.
Quello che so è che uno dei risultati di tutto ciò è che i dati sulla fiducia nelle istituzioni sono allarmanti. In Italia la fiducia nel sistema istituzionale è inferiore alla media europea. Solo un cittadino su cinque dichiara di avere fiducia nei partiti politici. La fiducia nel Parlamento è al 37 per cento, nei partiti al 24. Persino la Presidenza della Repubblica, tradizionalmente l’istituzione più rispettata, ha registrato un calo significativo. Non sono numeri astratti. Sono il segno di una frattura tra società e istituzioni che rende più difficile affrontare qualsiasi sfida collettiva, dalla transizione ecologica a quella digitale.
La fiducia nei media tradizionali ha seguito una traiettoria simile. E questo crea un circolo vizioso: meno fiducia nei media significa più vulnerabilità alla disinformazione, che a sua volta erode ulteriormente la fiducia. È un sistema che si autoalimenta, e non vedo come possa stabilizzarsi senza interventi strutturali.
L’Unione Europea ha provato a rispondere con l’AI Act, un regolamento che introduce obblighi di trasparenza per i contenuti generati dall’intelligenza artificiale, inclusi i deepfake. L’idea è semplice: se non puoi impedire la creazione di contenuti sintetici, almeno puoi obbligare chi li produce a etichettarli come tali. Ma mi chiedo quanto possa funzionare in pratica. Chi crea disinformazione deliberatamente non si farà certo fermare da un obbligo di etichettatura. E chi la consuma spesso non vuole essere disingannato.
L’alfabetizzazione mediatica viene spesso citata come la soluzione educativa al problema. Insegnare alle persone a verificare le fonti, a riconoscere i segnali della disinformazione, a resistere al bias di conferma. È un obiettivo nobile, e certamente necessario. Ma mi chiedo se sia sufficiente. I bias cognitivi non sono errori che si correggono con l’istruzione. Sono scorciatoie mentali profondamente radicate nella nostra architettura cognitiva. E gli algoritmi sono progettati da alcune delle menti più brillanti del pianeta proprio per sfruttarli. È una corsa agli armamenti asimmetrica, e non sono sicuro che l’educazione possa vincerla da sola.
Forse la cosa più importante è riconoscere che non stiamo affrontando un problema tecnico che richiede una soluzione tecnica. Stiamo affrontando una trasformazione antropologica che richiede un ripensamento profondo di cosa significhi conoscere, comunicare, fidarsi. Non è qualcosa che si risolve con un’app o con un corso di formazione. È qualcosa che richiede un lavoro culturale di lungo periodo, una rinegoziazione collettiva di cosa consideriamo vero e di come arriviamo a considerarlo tale.
C’è una proposta che mi sembra promettente, anche se non so quanto sia realizzabile: passare da una concezione della verità come stato a una concezione della verità come processo. Non più qualcosa che si possiede o si scopre una volta per tutte, ma qualcosa che si costruisce continuamente attraverso validazione, verifica, confronto, revisione. Non un relativismo dove tutto vale ugualmente, ma un realismo critico che riconosce sia l’esistenza di una realtà indipendente sia la natura mediata, parziale, contestuale della nostra conoscenza di essa.
È un equilibrio difficile da mantenere. Da un lato c’è il rischio di un oggettivismo ingenuo che ignora quanto le nostre categorie concettuali influenzino ciò che vediamo. Dall’altro c’è il rischio di un relativismo che dissolve ogni criterio di distinzione tra informazione affidabile e disinformazione. Trovare la via di mezzo richiede una forma di saggezza epistemologica che forse dobbiamo ancora imparare a coltivare.
Quattrociocchi ha scritto qualcosa che mi sembra catturare bene questa idea:
La verità del futuro non sarà un punto fisso, ma un processo di validazione continua, in cui dati e conoscenza si costruiscono in modo più trasparente e verificabile.
Mi piace questa formulazione, anche se non so quanto sia realistica. Ma forse è proprio questo il punto: non sappiamo cosa sia realistico perché siamo nel mezzo di una trasformazione i cui esiti non sono ancora determinati. Possiamo ancora influenzarli, se scegliamo di farlo.
Quando ripenso a quel video che mi ha fatto venire il dubbio del deepfake, mi rendo conto che il problema non era il video in sé. Il problema era che il dubbio era diventato il mio stato predefinito. Ho perso qualcosa che non sapevo nemmeno di avere: una fiducia di base nella possibilità di distinguere il vero dal falso, il reale dall’artefatto. E mi chiedo quante altre persone stiano vivendo la stessa cosa, magari senza nemmeno rendersene conto.
Non so quale sia la strada per uscire da questa condizione. Non credo che esista una soluzione semplice, un intervento che risolva tutto. Ma credo che il primo passo sia prendere coscienza di dove ci troviamo, della profondità della trasformazione in corso, della posta in gioco. E poi, forse, provare a costruire insieme qualcosa di diverso. Non tornare a un passato che non può tornare, ma immaginare un futuro dove la verità non sia né un idolo intoccabile né un’illusione da abbandonare, ma un progetto collettivo a cui partecipare.
L’alternativa, quella che qualcuno ha chiamato “ipnocrazia”, un regime di controllo cognitivo attraverso la manipolazione algoritmica, mi sembra molto peggiore.
E dovremmo provare e fallire piuttosto che non provare affatto.
E forse questo, alla fine, è l’unico modo di restare umani in un’era dove l’umanità stessa è messa in discussione. Non arrendersi al cinismo, non cedere alla disperazione, ma continuare a cercare, a dubitare, a domandare. Anche quando le risposte non arrivano. Soprattutto quando le risposte non arrivano.

