L’alibi perfetto: IA, deepfake e la nuova irresponsabilità del discorso pubblico

Date:

Introduzione – Dalla contraffazione alla dissoluzione della responsabilità

Nel suo recente intervento pubblicato su Strategic Culture Foundation, Pepe Escobar denuncia un fenomeno reale e verificabile: la proliferazione di canali digitali che utilizzano intelligenza artificiale per clonare la voce, il volto e lo stile comunicativo di analisti geopolitici noti, diffondendo contenuti artificiali sotto identità apparentemente autentiche. Il problema è serio, perché mina la fiducia, confonde il pubblico e apre scenari inquietanti sul futuro dell’informazione.

Ma proprio per la sua gravità, questo fenomeno merita una seconda lettura, meno rassicurante e più strutturale: cosa accade quando la categoria del fake non è più solo una minaccia esterna, ma diventa uno strumento retorico interno, utile a neutralizzare critiche, contestazioni e — potenzialmente — responsabilità giuridiche?


1. La morte dell’autenticità come fatto verificabile

Per secoli, la responsabilità del discorso pubblico si è basata su un presupposto chiaro:

chi parla, risponde di ciò che dice.

L’avvento dei deepfake introduce una rottura epistemologica profonda. Non siamo più di fronte alla semplice menzogna — confutabile — ma a una zona grigia permanente, in cui l’autenticità stessa diventa opinabile. In questo nuovo scenario:

  • l’autore può sempre negare la paternità di un contenuto;
  • il pubblico non dispone più di criteri autonomi di verifica;
  • la piattaforma si rifugia nell’ambiguità tecnica.

Il risultato è un ambiente comunicativo post-responsabile, in cui nessuno è più davvero chiamato a rispondere.


2. Dal deepfake come minaccia al deepfake come scudo

La narrazione dominante presenta l’analista indipendente come vittima della tecnologia. Ed è vero: molti lo sono. Tuttavia, una narrativa che funziona troppo bene merita sempre un’analisi critica.

L’invocazione sistematica dei deepfake produce almeno tre effetti strategici:

  1. Immunità preventiva
    Ogni contenuto controverso può essere retroattivamente squalificato come “non autentico”.
  2. Inversione dell’onere della prova
    Non è più il divulgatore a dover dimostrare la correttezza di ciò che afferma, ma il critico a dover provare che il contenuto è autentico.
  3. Neutralizzazione giudiziaria
    In caso di esposti, querele o procedimenti civili, l’ambiguità tecnologica diventa una zona di rifugio legale.

In questo senso, il deepfake non è solo una tecnologia, ma un alibi narrativo perfetto.


3. L’ecosistema della disinformazione difensiva

Tradizionalmente, la disinformazione è stata studiata come attacco: propaganda, fake news, manipolazione deliberata. Oggi assistiamo a una forma nuova e più sottile: la disinformazione difensiva.

Questa non mira a convincere, ma a:

  • rendere impossibile la verifica;
  • dissolvere il nesso tra autore e contenuto;
  • trasformare ogni accusa in un “attacco tecnologico”.

È una strategia ben nota nei contesti di guerra informativa: non serve vincere il dibattito, basta renderlo irrisolvibile.


4. Il paradosso dell’analista “inattaccabile”

L’analista che denuncia costantemente i fake può finire, paradossalmente, per diventare inattaccabile per definizione. Qualunque critica può essere liquidata come:

  • manipolazione algoritmica;
  • operazione ostile;
  • montaggio artificiale.

In questo schema, la figura del divulgatore assume tratti quasi sacralizzati: non più soggetto fallibile, ma bersaglio permanente di forze oscure. È una dinamica psicologica potente, perché:

  • rafforza la fidelizzazione del pubblico;
  • crea un rapporto emotivo vittima-difensore;
  • riduce drasticamente lo spazio del dissenso interno.

5. IA e deresponsabilizzazione giuridica

Dal punto di vista legale, il problema è ancora più serio. Il diritto moderno si fonda sulla riconducibilità dell’atto a un soggetto. Ma cosa accade quando:

  • l’autore nega la paternità del contenuto;
  • la piattaforma non certifica l’origine;
  • la tecnologia rende la prova incerta?

Il rischio concreto è la nascita di una zona franca del discorso pubblico, in cui affermazioni potenzialmente diffamatorie, manipolative o istiganti possono circolare senza conseguenze reali.

Non perché siano legali, ma perché diventano indimostrabili.


6. La psicologia dell’alibi tecnologico

Dal punto di vista sociologico e psicologico, l’IA svolge qui una funzione simile a quella del “capro espiatorio”:

  • esternalizza la colpa;
  • preserva l’immagine dell’Io;
  • rafforza l’identità del gruppo.

Il messaggio implicito diventa:

“Se qualcosa non torna, non è perché ho sbagliato, ma perché il sistema è contro di me.”

Una dinamica già osservata in molte narrative complottiste, ora però rafforzata da una tecnologia reale, non immaginaria.


7. Conclusione – Oltre l’IA: la vera posta in gioco

Il problema non è l’intelligenza artificiale in sé.
Il problema è l’uso politico e retorico dell’ambiguità tecnologica.

Quando tutto può essere un fake, nulla è più falsificabile.
Quando nulla è falsificabile, nessuno è più responsabile.

La sfida che abbiamo davanti non è solo tecnica o normativa, ma culturale e morale: ricostruire un principio di responsabilità del discorso pubblico in un’epoca in cui la negazione è diventata tecnologicamente plausibile.

E forse la domanda più urgente non è:

“Chi sta creando i deepfake?”

ma piuttosto:

“Chi trae vantaggio dal fatto che non si possa più stabilire chi ha detto cosa?”


LEAVE A REPLY

Please enter your comment!
Please enter your name here

Condividi il post:

Iscriviti

spot_img

Popolari

Altri contenuti simili
Related

IL CARTELLO CHE GOVERNA

Chavismo, potere militare e l’ipotesi del Cartel de los...

Quando il diritto internazionale segue la forza: il caso Trump–Maduro

Il caso Trump–Maduro rivela la crisi del diritto internazionale tra uso della forza, sovranità, immunità e giustizia selettiva.

L’America anglo-francese

Come il dollaro e le reti finanziarie hanno sostituito...

IL MARXISMO ADDOMESTICATO

Quando la sinistra smette di essere un pericolo e...