Introduzione – Dalla contraffazione alla dissoluzione della responsabilità
Nel suo recente intervento pubblicato su Strategic Culture Foundation, Pepe Escobar denuncia un fenomeno reale e verificabile: la proliferazione di canali digitali che utilizzano intelligenza artificiale per clonare la voce, il volto e lo stile comunicativo di analisti geopolitici noti, diffondendo contenuti artificiali sotto identità apparentemente autentiche. Il problema è serio, perché mina la fiducia, confonde il pubblico e apre scenari inquietanti sul futuro dell’informazione.
Ma proprio per la sua gravità, questo fenomeno merita una seconda lettura, meno rassicurante e più strutturale: cosa accade quando la categoria del fake non è più solo una minaccia esterna, ma diventa uno strumento retorico interno, utile a neutralizzare critiche, contestazioni e — potenzialmente — responsabilità giuridiche?
1. La morte dell’autenticità come fatto verificabile
Per secoli, la responsabilità del discorso pubblico si è basata su un presupposto chiaro:
chi parla, risponde di ciò che dice.
L’avvento dei deepfake introduce una rottura epistemologica profonda. Non siamo più di fronte alla semplice menzogna — confutabile — ma a una zona grigia permanente, in cui l’autenticità stessa diventa opinabile. In questo nuovo scenario:
- l’autore può sempre negare la paternità di un contenuto;
- il pubblico non dispone più di criteri autonomi di verifica;
- la piattaforma si rifugia nell’ambiguità tecnica.
Il risultato è un ambiente comunicativo post-responsabile, in cui nessuno è più davvero chiamato a rispondere.
2. Dal deepfake come minaccia al deepfake come scudo
La narrazione dominante presenta l’analista indipendente come vittima della tecnologia. Ed è vero: molti lo sono. Tuttavia, una narrativa che funziona troppo bene merita sempre un’analisi critica.
L’invocazione sistematica dei deepfake produce almeno tre effetti strategici:
- Immunità preventiva
Ogni contenuto controverso può essere retroattivamente squalificato come “non autentico”. - Inversione dell’onere della prova
Non è più il divulgatore a dover dimostrare la correttezza di ciò che afferma, ma il critico a dover provare che il contenuto è autentico. - Neutralizzazione giudiziaria
In caso di esposti, querele o procedimenti civili, l’ambiguità tecnologica diventa una zona di rifugio legale.
In questo senso, il deepfake non è solo una tecnologia, ma un alibi narrativo perfetto.
3. L’ecosistema della disinformazione difensiva
Tradizionalmente, la disinformazione è stata studiata come attacco: propaganda, fake news, manipolazione deliberata. Oggi assistiamo a una forma nuova e più sottile: la disinformazione difensiva.
Questa non mira a convincere, ma a:
- rendere impossibile la verifica;
- dissolvere il nesso tra autore e contenuto;
- trasformare ogni accusa in un “attacco tecnologico”.
È una strategia ben nota nei contesti di guerra informativa: non serve vincere il dibattito, basta renderlo irrisolvibile.
4. Il paradosso dell’analista “inattaccabile”
L’analista che denuncia costantemente i fake può finire, paradossalmente, per diventare inattaccabile per definizione. Qualunque critica può essere liquidata come:
- manipolazione algoritmica;
- operazione ostile;
- montaggio artificiale.
In questo schema, la figura del divulgatore assume tratti quasi sacralizzati: non più soggetto fallibile, ma bersaglio permanente di forze oscure. È una dinamica psicologica potente, perché:
- rafforza la fidelizzazione del pubblico;
- crea un rapporto emotivo vittima-difensore;
- riduce drasticamente lo spazio del dissenso interno.
5. IA e deresponsabilizzazione giuridica
Dal punto di vista legale, il problema è ancora più serio. Il diritto moderno si fonda sulla riconducibilità dell’atto a un soggetto. Ma cosa accade quando:
- l’autore nega la paternità del contenuto;
- la piattaforma non certifica l’origine;
- la tecnologia rende la prova incerta?
Il rischio concreto è la nascita di una zona franca del discorso pubblico, in cui affermazioni potenzialmente diffamatorie, manipolative o istiganti possono circolare senza conseguenze reali.
Non perché siano legali, ma perché diventano indimostrabili.
6. La psicologia dell’alibi tecnologico
Dal punto di vista sociologico e psicologico, l’IA svolge qui una funzione simile a quella del “capro espiatorio”:
- esternalizza la colpa;
- preserva l’immagine dell’Io;
- rafforza l’identità del gruppo.
Il messaggio implicito diventa:
“Se qualcosa non torna, non è perché ho sbagliato, ma perché il sistema è contro di me.”
Una dinamica già osservata in molte narrative complottiste, ora però rafforzata da una tecnologia reale, non immaginaria.
7. Conclusione – Oltre l’IA: la vera posta in gioco
Il problema non è l’intelligenza artificiale in sé.
Il problema è l’uso politico e retorico dell’ambiguità tecnologica.
Quando tutto può essere un fake, nulla è più falsificabile.
Quando nulla è falsificabile, nessuno è più responsabile.
La sfida che abbiamo davanti non è solo tecnica o normativa, ma culturale e morale: ricostruire un principio di responsabilità del discorso pubblico in un’epoca in cui la negazione è diventata tecnologicamente plausibile.
E forse la domanda più urgente non è:
“Chi sta creando i deepfake?”
ma piuttosto:
“Chi trae vantaggio dal fatto che non si possa più stabilire chi ha detto cosa?”

