L’alibi perfetto: IA, deepfake e la nuova irresponsabilità del discorso pubblico

Date:

Introduzione – Dalla contraffazione alla dissoluzione della responsabilità

Nel suo recente intervento pubblicato su Strategic Culture Foundation, Pepe Escobar denuncia un fenomeno reale e verificabile: la proliferazione di canali digitali che utilizzano intelligenza artificiale per clonare la voce, il volto e lo stile comunicativo di analisti geopolitici noti, diffondendo contenuti artificiali sotto identità apparentemente autentiche. Il problema è serio, perché mina la fiducia, confonde il pubblico e apre scenari inquietanti sul futuro dell’informazione.

Ma proprio per la sua gravità, questo fenomeno merita una seconda lettura, meno rassicurante e più strutturale: cosa accade quando la categoria del fake non è più solo una minaccia esterna, ma diventa uno strumento retorico interno, utile a neutralizzare critiche, contestazioni e — potenzialmente — responsabilità giuridiche?


1. La morte dell’autenticità come fatto verificabile

Per secoli, la responsabilità del discorso pubblico si è basata su un presupposto chiaro:

chi parla, risponde di ciò che dice.

L’avvento dei deepfake introduce una rottura epistemologica profonda. Non siamo più di fronte alla semplice menzogna — confutabile — ma a una zona grigia permanente, in cui l’autenticità stessa diventa opinabile. In questo nuovo scenario:

  • l’autore può sempre negare la paternità di un contenuto;
  • il pubblico non dispone più di criteri autonomi di verifica;
  • la piattaforma si rifugia nell’ambiguità tecnica.

Il risultato è un ambiente comunicativo post-responsabile, in cui nessuno è più davvero chiamato a rispondere.


2. Dal deepfake come minaccia al deepfake come scudo

La narrazione dominante presenta l’analista indipendente come vittima della tecnologia. Ed è vero: molti lo sono. Tuttavia, una narrativa che funziona troppo bene merita sempre un’analisi critica.

L’invocazione sistematica dei deepfake produce almeno tre effetti strategici:

  1. Immunità preventiva
    Ogni contenuto controverso può essere retroattivamente squalificato come “non autentico”.
  2. Inversione dell’onere della prova
    Non è più il divulgatore a dover dimostrare la correttezza di ciò che afferma, ma il critico a dover provare che il contenuto è autentico.
  3. Neutralizzazione giudiziaria
    In caso di esposti, querele o procedimenti civili, l’ambiguità tecnologica diventa una zona di rifugio legale.

In questo senso, il deepfake non è solo una tecnologia, ma un alibi narrativo perfetto.


3. L’ecosistema della disinformazione difensiva

Tradizionalmente, la disinformazione è stata studiata come attacco: propaganda, fake news, manipolazione deliberata. Oggi assistiamo a una forma nuova e più sottile: la disinformazione difensiva.

Questa non mira a convincere, ma a:

  • rendere impossibile la verifica;
  • dissolvere il nesso tra autore e contenuto;
  • trasformare ogni accusa in un “attacco tecnologico”.

È una strategia ben nota nei contesti di guerra informativa: non serve vincere il dibattito, basta renderlo irrisolvibile.


4. Il paradosso dell’analista “inattaccabile”

L’analista che denuncia costantemente i fake può finire, paradossalmente, per diventare inattaccabile per definizione. Qualunque critica può essere liquidata come:

  • manipolazione algoritmica;
  • operazione ostile;
  • montaggio artificiale.

In questo schema, la figura del divulgatore assume tratti quasi sacralizzati: non più soggetto fallibile, ma bersaglio permanente di forze oscure. È una dinamica psicologica potente, perché:

  • rafforza la fidelizzazione del pubblico;
  • crea un rapporto emotivo vittima-difensore;
  • riduce drasticamente lo spazio del dissenso interno.

5. IA e deresponsabilizzazione giuridica

Dal punto di vista legale, il problema è ancora più serio. Il diritto moderno si fonda sulla riconducibilità dell’atto a un soggetto. Ma cosa accade quando:

  • l’autore nega la paternità del contenuto;
  • la piattaforma non certifica l’origine;
  • la tecnologia rende la prova incerta?

Il rischio concreto è la nascita di una zona franca del discorso pubblico, in cui affermazioni potenzialmente diffamatorie, manipolative o istiganti possono circolare senza conseguenze reali.

Non perché siano legali, ma perché diventano indimostrabili.


6. La psicologia dell’alibi tecnologico

Dal punto di vista sociologico e psicologico, l’IA svolge qui una funzione simile a quella del “capro espiatorio”:

  • esternalizza la colpa;
  • preserva l’immagine dell’Io;
  • rafforza l’identità del gruppo.

Il messaggio implicito diventa:

“Se qualcosa non torna, non è perché ho sbagliato, ma perché il sistema è contro di me.”

Una dinamica già osservata in molte narrative complottiste, ora però rafforzata da una tecnologia reale, non immaginaria.


7. Conclusione – Oltre l’IA: la vera posta in gioco

Il problema non è l’intelligenza artificiale in sé.
Il problema è l’uso politico e retorico dell’ambiguità tecnologica.

Quando tutto può essere un fake, nulla è più falsificabile.
Quando nulla è falsificabile, nessuno è più responsabile.

La sfida che abbiamo davanti non è solo tecnica o normativa, ma culturale e morale: ricostruire un principio di responsabilità del discorso pubblico in un’epoca in cui la negazione è diventata tecnologicamente plausibile.

E forse la domanda più urgente non è:

“Chi sta creando i deepfake?”

ma piuttosto:

“Chi trae vantaggio dal fatto che non si possa più stabilire chi ha detto cosa?”


Condividi il post:

Iscriviti

spot_img

Popolari

Altri contenuti simili
Related

Il Piano Mattei si realizza?

Nel pieno di una fase storica segnata da instabilità energetica, guerre ibride e ridefinizione delle catene di approvvigionamento, l’Italia sembra riscoprire una traiettoria che affonda le radici nel secondo dopoguerra.

Guerra asimmetrica all’Europa e all’Italia: il gioco invisibile delle sanzioni e del petrolio che sta cambiando tutto

Mentre i media parlano di guerra, embargo e crisi energetica globale, una parte decisiva della realtà resta fuori dal dibattito pubblico. Non si tratta di ipotesi, ma di strumenti ufficiali del Dipartimento del Tesoro degli Stati Uniti, gestiti dall’Office of Foreign Assets Control. Le sanzioni non funzionano come un blocco totale. Funzionano come un sistema di gestione selettiva dei flussi. Ed è qui che nasce il concetto di guerra asimmetrica all’Europa e all’Italia.

Sanzioni, petrolio e guerra: il sistema invisibile delle licenze che ridisegna l’energia globale

Nel marzo 2026, mentre l’attenzione globale era concentrata sull’escalation militare tra Stati Uniti e Iran e sulla crisi energetica legata allo Stretto di Hormuz, una serie di atti amministrativi passava quasi inosservata. Si tratta di documenti ufficiali del Dipartimento del Tesoro degli Stati Uniti, pubblicati attraverso l’Office of Foreign Assets Control, l’ente responsabile della gestione del sistema sanzionatorio americano. Questi documenti – le cosiddette General Licenses – non impongono restrizioni. Al contrario, le sospendono temporaneamente.