Deepfake e giustizia: quando anche i video possono mentire

Un tempo bastava una testimonianza oculare. Poi sono arrivate le impronte, il DNA, le intercettazioni. E infine il video: la prova regina, visiva, incontestabile.
Ma oggi qualcosa è cambiato. Ciò che vediamo con i nostri occhi non è più necessariamente vero. I deepfake – video e audio manipolati tramite intelligenza artificiale – stanno ridefinendo il concetto stesso di “prova”.
E quando anche un video può mentire, la verità giuridica si fa più fragile, più sfuggente.

Cosa sono davvero i deepfake

Il termine “deepfake” nasce dalla fusione tra “deep learning” (una branca dell’Intelligenza Artificiale) e “fake” (falso).
Si tratta di contenuti audiovisivi – in particolare video o audio – creati da algoritmi di machine learning che simulano perfettamente la voce, il volto, i movimenti di una persona reale, fino a risultare indistinguibili dal vero.

Basta un breve campione vocale, qualche secondo di video autentico e un modello AI addestrato: il risultato è un contenuto falso ma assolutamente verosimile.
Il fenomeno è nato nel mondo della rete e dell’intrattenimento (basti pensare ai video che simulano celebrità in contesti ironici o imbarazzanti), ma ha avuto una rapida escalation verso campi più delicati: disinformazione, truffe, politica e giustizia.

Il rischio nei procedimenti penali: quando la realtà è ricostruita

Nel processo penale, il video ha sempre rappresentato una delle prove più forti e immediate.
Un filmato di una rapina, una confessione registrata, la ricostruzione di una scena del crimine: sono strumenti che possono consolidare una colpevolezza, scagionare un innocente o orientare una sentenza.

Ma cosa accade se quel video è stato alterato?
Cosa succede se la voce registrata non è davvero dell’imputato?
E se una confessione filmata è il prodotto di un’intelligenza artificiale che ha combinato vecchi video e campioni vocali?

I rischi sono molteplici:

   •      Accuse costruite su contenuti falsificati, apparentemente autentici

   •      Testimoni confusi da ciò che hanno visto online o durante il processo

   •      Giurie condizionate da prove visive convincenti ma contraffatte

   •      Imputati che si vedono attribuire gesti o parole mai dette

E non parliamo solo di scenari ipotetici.
Nel 2023, in Francia, un video deepfake ha fatto il giro dei social mostrando il Presidente Macron che dichiarava l’introduzione della leva militare obbligatoria. Era falso. Ma ci sono volute ore per smentirlo.
Cosa accadrebbe se un contenuto simile fosse introdotto in un’aula di giustizia?

Il ruolo della psicologia forense in questo nuovo scenario

La psicologia forense si trova oggi a dover affrontare una sfida nuova: non solo valutare la veridicità di una testimonianza o lo stato mentale di un imputato, ma anche comprendere l’impatto di contenuti manipolati sulla mente umana.

Ecco alcuni ambiti chiave:

Falsi ricordi e suggestionabilità
I deepfake possono alimentare la creazione di false memorie nei testimoni, soprattutto se mostrati in contesti stressanti. Una persona può convincersi di aver assistito a una scena che in realtà ha solo visto in un video artefatto.

Confusione e manipolazione della realtà
Le vittime possono vedere immagini di sé in situazioni mai vissute: video sessualmente espliciti, confessioni di crimini mai commessi, minacce. Gli effetti psicologici possono essere devastanti, fino a generare disturbi post-traumatici.

Pressioni cognitive sull’imputato
Se una persona vede un video – apparentemente autentico – che la ritrae sul luogo di un delitto, può arrivare a dubitare della propria memoria, soprattutto in presenza di stanchezza, isolamento, o interrogatori intensi.

Distorsioni nella percezione giuridica
Giudici e giurati sono esseri umani, non esperti di IA. Un video ben costruito può influenzare le decisioni anche in presenza di dubbi, perché il cervello tende a “credere” a ciò che vede.

Le implicazioni legali: serve una rivoluzione delle prove digitali

Il diritto sta faticosamente cercando di adeguarsi.
Ad oggi, in molti ordinamenti non esistono ancora protocolli chiari per la verifica dei contenuti audiovisivi, né obblighi espliciti di validazione dei video con tecnologie antifrode.
Serve un cambio di paradigma.

Le contromisure indispensabili:

   •      Strumenti tecnici: software antifake in grado di rilevare incongruenze invisibili all’occhio umano (es. sfarfallii nei movimenti oculari, errori di sincronizzazione labiale, assenza di microespressioni coerenti).

   •      Analisi forense dei metadati: ogni file digitale lascia una “traccia” tecnica. Un’analisi accurata può rivelare manipolazioni.

   •      Formazione per i professionisti della giustizia: giudici, avvocati, periti devono essere aggiornati su queste nuove tecnologie.

   •      Integrazione del parere psicologico: la valutazione dell’effetto che un contenuto manipolato ha su testimoni, imputati o vittime può essere decisiva in sede di processo.

Un futuro incerto ma non inevitabile

Siamo davanti a una nuova frontiera, e come ogni frontiera, presenta rischi e opportunità.
Se da un lato i deepfake rappresentano una minaccia alla verità processuale, dall’altro ci stanno costringendo a ripensare criticamente il valore delle prove, a non affidarci ciecamente alla tecnologia, e a valorizzare la multidisciplinarità tra diritto, psicologia, informatica e neuroscienze.

Perché in un mondo in cui tutto può essere manipolato, la vera forza non sarà avere prove più forti, ma mente più critiche, strumenti più consapevoli e protocolli più solidi

Ti interessa la psicologia forense? Scopri di più nei nostri articoli di approfondimento!

Francesca Guidi