L’intelligenza artificiale al servizio della pedopornografia: il caso di Venezia e le nuove frontiere del cybercrime
Centinaia di foto oscene ma false, create con i modelli di apprendimento automatico: è reato lo stesso? La difficoltà di distinguere, una legislazione inadeguata, i social più a rischio e, ovviamente, le vittime

Un uomo di 52 anni, residente a Venezia, ha prodotto più di 900 immagini pedopornografiche molto realistiche utilizzando strumenti di intelligenza artificiale.
Per questo, a seguito di un’analisi dei dati telematici, è stato arrestato dalla polizia di Stato. L’attività di indagine era cominciata dopo una segnalazione trasmessa da un'organizzazione internazionale per la tutela dei minori online. Nel computer dell’uomo sono state poi trovate le immagini incriminate, virtuali ma estremamente realistiche.
Per realizzarle si avvaleva infatti di modelli di intelligenza artificiale generativa capaci di sintetizzare contenuti visivi rappresentanti minori in pose esplicite.
L’episodio accende i riflettori su un effetto collaterale dell’intelligenza artificiale. Vale a dire la possibilità di creare immagini realistiche e usarle per la produzione di contenuti pedopornografici.
Ma anche quella di modificare immagini e video di persone reali e creare, sempre attraverso l’intelligenza artificiale, contenuti pedopornografici.
Pedopornografia e intelligenza artificiale: una pratica sempre più diffusa
Tali pratiche, secondo uno studio realizzato dall’associazione specializzata in intelligenza artificiale Meter Ets, sono più diffuse di quanto si possa pensare. La stessa associazione ha segnalato 507 gruppi dell’applicazione di messaggistica Signal, in cui gli utenti condividevano materiale pedopornografico generato con l’intelligenza artificiale. Le foto dei minori, scattate in momenti di vita quotidiana, venivano ritoccate con l’intelligenza artificiale e poi condivise. Per farlo si servivano di software e applicazioni che utilizzano tecniche avanzate di intelligenza artificiale e machine learning per rimuovere o modificare digitalmente i vestiti.
Tra i canali utilizzati per la diffusione di contenuti pedopornografici figurano anche Telegram e, anche se in percentuale minore, Viber, Whatsapp e Instagram.
Le immagini modificate diventano così materiale illecito, che viola la privacy individuale dei minori coinvolti e le norme legate al consenso, considerando il mancato permesso da parte dei genitori alla modifica delle immagini.
L’intelligenza artificiale facilita il lavoro dei criminali anche grazie all’utilizzo delle Gan, Generative adversarial networks, ovvero delle reti neurali che partendo da un generatore di immagini realistiche lavorano il materiale creato da zero con un discriminatore che le distingue da quelle reali. Le Gan sono state utilizzate dal cittadino veneziano per la generazione di immagini realistiche di minori inesistenti.
Il dossier di Meter, intitolato “Intelligenza artificiale conoscere per prevenire: dalla pedopornografia ai deepnude”, ha rilevato 2.967 minori vittime di deepnude – ovvero sistemi di intelligenza artificiale capaci di rimuovere i vestiti nelle foto – in 507 gruppi Signal. Parte di queste sono state create proprio con il sistema Gan, mentre altre con tecniche image to image, capaci cioè di generare immagini di nudo false partendo da immagini reali.
Lo sviluppo dell’intelligenza artificiale ha facilitato anche l’adescamento di minori: tramite i chatbot, programmi addestrati in grado di chattare in maniera autonoma. Così gli adescatori non intervengono in prima persona e i chatbot, che emulano il linguaggio dei giovanissimi, inducono i minori a inviare foto intime.
L’obiettivo è far sentire il bambino compreso, accettato e complice durante la conversazione. In sostanza l’AI può manipolare i minori sfruttando le loro emozioni e inducendoli così a pensare che l’invio di foto intime sia una pratica giusta.
Individuare questo tipo di abuso digitale è peraltro difficile: i chatbot cambiano continuamente link e canali, crittografano e distribuiscono in tempo reale il materiale, rendendo più difficile l’intervento delle forze dell’ordine.
Inoltre, dal punto di vista normativo, specialmente nel campo della pedopornografia, ci sono evidenti mancanze: non ci sono a livello globale leggi che sottolineino che la manipolazione delle immagini dei minori è abuso.
Il fenomeno solleva anche la questione dell’istruzione riguardante l’intelligenza artificiale: secondo i dati diffusi da Meter il 52,3% dei giovani intervistati non riesce a distinguere un video deepfake da uno reale, nonostante si possa rilevare una certa consapevolezza del pericolo. Il 65,7%, infatti, conosce il fenomeno deepnude e il 59,4% teme la creazione e la diffusione di tali contenuti.
Il report dell’Osservatorio Meter
I casi di pedopornografia e la AI
L’arresto dell’uomo di 52 anni residente a Venezia non è il primo caso di immagini pedopornografiche create con l’intelligenza artificiale. Già dal 2019 i deepfake, programmi AI in grado di modificare foto e video, cominciavano a diffondersi, ma la capacità di rendere il materiale realistico è migliorata nel corso del tempo, tanto che nel 2023, in Spagna, si è verificato uno dei primi episodi pedopornografici legati all’AI.
In quel caso le immagini di alcune ragazzine, di età compresa tra gli 11 e i 17 anni, erano state contraffatte tramite deepfake e diffuse da coetanei delle vittime. I video erano stati poi diffusi in chat Telegram e Whatsapp e alcune delle ragazze avevano subito ricatti per la pubblicazione online del materiale.
Nel febbraio del 2025, invece, l’Europol ha comunicato di aver condotto un’operazione, chiamata operazione Cumberland, che ha portato agli arresti di 25 persone in 19 paesi diversi. Durante l’operazione, in totale, sono stati identificate 273 persone e 173 computer erano stati sequestrati.
Gli arrestati, in questo caso, davano agli utenti la possibilità di accedere a siti a pagamento, dove si poteva accedere a contenuti pedopornografici creati con l’intelligenza artificiale.
Anche in questo caso le immagini e i video erano talmente realistici da risultare difficilmente riconoscibili. La stessa Europol, in quel caso, ammise le difficoltà di gestire la situazione in assenza di legislazione per questo nuovo tipo di crimini.
A cura di Lorenzo Borghero
Riproduzione riservata © Tribuna di Treviso








