LE INSIDIE DEL WEB
Francesca Barra
La vicenda delle finte foto di nudo che ha coinvolto la giornalista e scrittrice Francesca Barra è esplosa come uno dei più gravi e simbolici casi di violenza digitale degli ultimi anni in Italia, portando all’attenzione dell’opinione pubblica il crescente pericolo dei cosiddetti deepfake alimentati dall’intelligenza artificiale.
Visualizza questo post su Instagram
Francesca Barra ha scoperto la circolazione di immagini che la ritraggono apparentemente nuda su un sito per adulti; fotografie che però non sono mai state realmente scattate, ma generate e manipolate con tecnologie di intelligenza artificiale. Barra ha denunciato pubblicamente l’accaduto tramite i propri profili social, illustrando come queste immagini siano frutto di una menzogna: “Non sono io, ma qualcuno ha deciso di costruire quella menzogna per ottenere attenzione e insinuare il dubbio che potessi essermi mostrata in quel modo negli ambienti in cui lavoro o ho lavorato”. La giornalista ha raccontato di aver provato paura, imbarazzo e soprattutto di aver pensato ai suoi figli e al danno che queste immagini potessero generare sulla sua reputazione e quella della sua famiglia.
Ha definito questa aggressione digitale come una “violenza e un abuso che marchia la dignità, la reputazione, la fiducia. Un furto dell’immagine, del corpo, della libertà di essere viste come si è, non come un algoritmo o una mente malintenzionata decide di rappresentarci”. Barra ha sottolineato che questo pericolo riguarda tutti: “Ho pensato alle figlie e ai figli di tutti, alle ragazze che subiscono la stessa violenza digitale e che forse non hanno i miei stessi strumenti per difendersi o la mia forza per reagire”.

Francesca Barra e il marito, l'attore Claudio Santamaria
Ma la vicenda di Francesca Barra non è isolata. La stessa piattaforma e altri forum internazionali raccolgono centinaia di immagini “deepfake” che coinvolgono volti e corpi di personalità femminili italiane — dalle giornaliste alle influencer fino alle politiche e alle artiste. In questi ambienti virtuali le richieste degli utenti diventano veri e propri “ordini” rivolti a chi manipola le immagini per ottenere nuove creazioni di nudi virtuali di personaggi noti, spesso senza alcun filtro morale o legale. L’elenco delle vittime è impressionante: oltre a Barra, anche figure come Selvaggia Lucarelli, Maria De Filippi, Elettra Lamborghini, Chiara Ferragni, Victoria De Angelis, Nunzia De Girolamo e persino Sophia Loren sono state coinvolte, senza alcun consenso.

Ma come funzionano le tecniche Ai usate per creare i deepfake? Si basano principalmente su sofisticati algoritmi di apprendimento automatico, in particolare reti neurali profonde e Generative Adversarial Networks (Gan), attraverso varie fasi. La raccolta dati: vengono raccolte numerose immagini e video della persona che si vuole “falsificare”, da molteplici angolazioni e in diverse condizioni di luce ed espressione; l'addestramento: un autoencoder, ovvero una rete neurale specializzata, analizza queste immagini per imparare come appare il volto o il corpo della persona. Questo sistema è in grado di codificare e decodificare le caratteristiche visive in modo da poterle ricreare su altri volti o corpi; generazione e scambio: la Gan entra in gioco con due modelli “in competizione”, il generatore, che produce immagini false sempre più realistiche, e il discriminatore, che tenta di capire quali immagini siano autentiche e quali generate. Questo ciclo si ripete numerose volte, rendendo il deepfake sempre più credibile.
Esistono poi varie tipologie di deepfake. La sostituzione del volto (“face swapping”): il volto della persona A viene sovrapposto a quello della persona B in video o foto, mantenendo espressioni, movimenti e dettagli naturali; la manipolazione di voci e movimenti: i deepfake audio riproducono la voce, la cadenza, il tono di una persona, generando conversazioni e discorsi mai pronunciati realmente; la generazione di immagini completamente sintetiche: le Ai possono creare immagini di persone che non esistono, oppure inventare situazioni irrealistiche ma apparentemente vere.
Le tecniche Ai del deepfake sono oggi alla portata di molti, grazie a software diffusi e alla disponibilità di risorse di calcolo sempre più potenti. Riconoscere un deepfake diventa difficile, ma alcuni segnali possono rivelare la falsità di un contenuto: movimenti innaturali degli occhi, incoerenze nell’illuminazione, artefatti pixelati nei video, sincronia labiale imperfetta. Questi strumenti, se non regolamentati, permettono la creazione di contenuti falsi per scopi malevoli, come truffe, revenge porn e diffamazione, come illustrato dal caso Francesca Barra.

Quali conseguenze penali rischiano gli autori di deepfake? In Italia sono gravi: dal 10 ottobre 2025, con la nuova Legge 132/2025, il Codice penale italiano prevede il reato di “illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale” (art. 612-quater c.p.), applicato esplicitamente ai deepfake quando causano danni ingiusti, specialmente senza consenso della vittima. La pena principale è la reclusione da uno a cinque anni, ed è perseguibile di norma tramite querela della persona offesa. Tuttavia, si procede d’ufficio se la vittima è minore, incapace per età/infermità, o se viene colpita una pubblica autorità. Il reato si configura quando si diffondono, pubblicano o cedono immagini, video o audio generati (o alterati) artificialmente con Ai, inducendo in inganno sulla loro genuinità e arrecando un danno ingiusto alla vittima. Non è necessario il guadagno economico; basta la lesione alla dignità, reputazione o privacy. L’aggravante scatta in presenza di intenti di diffamazione, estorsione o revenge porn, e il giudice può aumentare la pena nei casi più gravi o seriali.
Questa nuova normativa offre alle vittime strumenti legali per denunciare e difendersi tempestivamente, riconoscendo il danno specifico e il pericolo sociale connesso ai deepfake. Il legislatore ha puntato su una regolamentazione ad hoc del fenomeno, considerato sempre più insidioso e impattante.

La Polizia postale italiana conduce indagini su siti che diffondono immagini false e deepfake attraverso una serie di procedure tecniche, giuridiche e digitali avanzate, con un focus sempre più specifico sul fenomeno dei contenuti generati con intelligenza artificiale. Sono monitorati costantemente siti web, social, forum e piattaforme di condivisione identificando contenuti illeciti tramite sistemi automatizzati, segnalazioni dirette dalle vittime e collaborazioni con altre forze di polizia e agenzie europee. Vengono analizzati i dati digitali raccolti (log di accesso, transazioni, indirizzi Ip e digital footprint) per risalire ad autori e fruitori dei siti incriminati, spesso attraverso collaborazioni internazionali per aggirare l’hosting all’estero e l’anonimato garantito da alcune piattaforme.
Dopo la segnalazione della vittima o l’identificazione d’ufficio, la Polizia postale interviene richiedendo alle piattaforme l’immediata rimozione dei contenuti falsi, collaborando con il Garante della Privacy per ottenere l’oscuramento internazionale dei file. Se i siti non collaborano volontariamente, vengono attivate procedure giudiziarie e amministrative che possono portare all’oscuramento totale del sito, sanzioni fino a 20 milioni di euro o al 4% del fatturato annuo in base al Gdpr. Per il tracciamento e l'identificazione degli autori gli investigatori utilizzano tecniche di digital forensics, reverse engineering, analisi delle blockchain e acquisti simulati sotto copertura per individuare chi gestisce i siti e chi ne trae vantaggio. In caso di contenuti particolarmente gravi (minori, revenge porn), attivano task force e notificano la notizia di reato per procedere con indagini penali a tutela delle vittime.
*Iscrivendoti alla newsletter dichiari di aver letto e accettato le nostre Privacy Policy