L’IA, Intelligenza artificiale, è la nuova frontiera della pedofilia e pedopornografia: chi abusa si rivolge a chatbot, sistemi che interagiscono online con i minori, con l’obiettivo di avere un contatto più intimo. Non solo: è possibile “spogliare” i bambini (2.967 caduti in questa rete solo nella prima metà del 2025) e farli agire dentro situazioni di abuso grazie al deepfake, le immagini truffa. La denuncia è contenuta nel primo Dossier in assoluto su quest’emergenza preparato dall’Associazione Meter ETS (www.associazionemeter.org) fondata e presieduta da don Fortunato Di Noto e presentato quest’oggi a Roma. Le foto deepfake (e i video) potenziano la produzione e aprono ad una drammatica svolta: la «normalizzazione» dell’abuso perché in fondo sono immagini virtuali, non ci sono vittime fisiche dunque non è un crimine.
ECCO PERCHÈ L’EMERGENZA AUMENTA – Messa così la cosa, sembrerebbe in fondo un gioco innocuo. Invece no, perché pone ulteriori sfide:
1. Difficoltà nell’identificazione: non riuscendo a riconoscere le vittime vere da quelle fake, si potrebbe rallentare di fatto il lavoro delle forze dell’ordine, permettendo una diffusione di materiale CSAM - Child Sexual Abuse Material su larga scala;
2. Falsificazione di prove: in questo caso si potrebbe generare materiale per incastrare qualcuno, calunniarlo, diffamarlo; oppure dei criminali potrebbero manipolare prove per scopi illegali (inducendo i soggetti ad azioni suicidarie). Non riuscire a distinguere tra vero e falso creerebbe problemi enormi nell’amministrazione della giustizia;
Intelligenza artificiale: conoscere per prevenire, dalla pedopornografia ai deepnude
Dossier Meter
23 giugno 2025 | ore 11:00
ROMA Sede CEI Conferenza Episcopale Italiana
Sala San Francesco, via Aurelia 468
Conferenza stampa
3. Aumento della domanda di materiale pedopornografico: più prodotto e più diffusione delle pratiche pedopornografiche, verso una normalizzazione dell’abuso «perché tanto sono immagini virtuali»;
4. Ostacoli giuridici e normativi: le norme attuali potrebbero dare adito a vuoti normativi che permetterebbero ai criminali di sfuggire alla giustizia. Semplicemente, non sono adeguate a rispondere alla questione posta dalle immagini deepfake.
L’IA SPOGLIA I BAMBINI E... – Come si produce questo materiale? Non mancano online applicazioni e software che permettono di spogliare i bambini o creare situazioni per nulla innocenti, tutto questo partendo da fotografie magari scattate durante momenti di gioco, sport, feste. La macchina virtuale sovrappone ai vestiti un «corpo» modellato pezzo per pezzo, dando pose maliziose alterando il contesto dell’immagine. Le violazioni sono tante, dalla privacy alle manipolazioni delle immagini, provocando un danno alla reputazione del minore. Il diritto non è al passo con quanto Meter denuncia.
I CHATBOT ADESCANO I BAMBINI... – Lo sviluppo dell’IA ha permesso ai pedofili il massimo risultato col minimo sforzo: mentre prima per adescare un bambino dovevano chattare di persona, adesso è possibile reperire un chatbot, cioè un programma che interagisce con i minori, usa il loro linguaggio al fine di creare una relazione empatica ed indurli allo scambio di materiale intimo. L’obiettivo è far sentire il bambino compreso, accettato, complice. In sostanza l’IA può manipolare i minori sfruttando le loro emozioni e convincendoli che in fondo “non c’è niente di male” a spogliarsi o considerare situazioni che di fatto non sono per nulla accettabili.
...E PER ADESSO SONO IMPRENDIBILI – Non è tutto: i chatbot cambiano link e canali continuamente, crittografano e distribuiscono in tempi rapidi il materiale. Diventa così quasi impossibile, per le forze dell’ordine, individuarli e bloccare. Secondo i nostri dati, raccolti dall’OSMOCOP (Osservatorio Mondiale di Contrasto alla Pedofilia di Meter) il sistema di messaggistica più usato è Signal (80%) che peraltro offre crittografia e alto anonimato, seguito da Telegram (canali pubblici e scarsa moderazione), Viber a pari merito con Whatsapp (3%, chat private e gruppi chiusi con comunicazione diretta), per chiudere con Instagram (2% adescando con profili falsi), e altre piattaforme (1% di cloud, forum, darknet).
METER HA DENUNCIATO SIGNAL – La nostra Associazione, dopo aver monitorato Telegram, Signal e Viber, ha in particolare denunciato Signal, che protegge la privacy delle conversazioni e che i pedofili e adescatori trovano perfetta, visto che la crittografia end-to-end utilizzata dall’app conferma il social come il primo ed estremo baluardo della privacy, impossibilitando qualsiasi azione di contrasto al fenomeno. In questo modo è possibile produrre e smerciare – o anche raccogliere – materiale pedopornografico in maniera pressoché indisturbata: solo dall’inizio dell’anno abbiamo segnalato 507 gruppi Signal con immagini sia originali che IA.
IA E MINORI, PRIMO DOSSIER IN ITALIA. LA DENUNCIA DI METER: I PEDOFILI SPOGLIANO I BAMBINI SU SIGNAL (507 GRUPPI SEGNALATI). QUASI 3.000 BAMBINI SPOGLIATI DALL’IA IN 6 MESI, IL 92% DEI RAGAZZI HA USATO UN CHATBOT. DON DI NOTO: SIAMO ALL’ANNO ZERO, NON C’È TEMPO DA PERDERE (2)
L’INDAGINE METER: IL 92% DEI RAGAZZI HA USATO UN CHATBOT – A questo punto abbiamo voluto sapere di più. In collaborazione con il Servizio Nazionale Tutela dei Minori della Conferenza Episcopale Italiana (CEI), abbiamo proposto un questionario a 989 studenti degli Istituti secondari
Intelligenza artificiale: conoscere per prevenire, dalla pedopornografia ai deepnude
Dossier Meter
di secondo grado, fascia d’età 14-18. Tema delle domande il deepfake e il deepnude. Il 92,2% di essi hanno interagito con un chatbot, e l’81% del campione è convinto che i deepfake possano rovinare la reputazione e la vita di una persona. Il 53,4% conosce il fenomeno deepfake e il 42,3% ha visto qualcosa che l’ha messo a disagio.
I RAGAZZI CONOSCONO IL DEEPNUDE E NON DISTINGUONO TRA IA E REALTÀ – Il 65,7% degli intervistati conosce il fenomeno deepnude e il 59,4% teme la loro creazione e diffusione, un allarme sempre più preoccupante per i giovani. Peggio ancora: il 52,3% dei giovani non riesce a distinguere un video deepfake da uno reale. Lascia un po’ di speranza sapere che il 90,5% ritiene diffondere un deepfake e deepnude un serio pericolo, che il 65,1% di essi denuncerebbe senza indugio. Privacy, reputazione, indistinguibilità tra vero e falso: i giovani hanno paura di tutto questo.
IL DIRITTO È INADEGUATO – Le norme in tema di IA in vigore non tutelano abbastanza i minori. Non riescono ad affrontare il problema e non hanno adeguata velocità e incisività. L’Italia punisce la pornografia “virtuale”, applicando le disposizioni del codice penale in materia di produzione, divulgazione, diffusione e detenzione di materiale pedopornografico anche quando il predetto materiale pornografico rappresenta immagini virtuali realizzate utilizzando immagini di minori degli anni 18 o parti di esse. Per immagini virtuali la legge italiana intende immagini realizzate con tecniche di elaborazione grafica non associate in tutto o in parte a situazioni reali, la cui qualità di rappresentazione fa apparire come vere situazioni non reali. Non tutti gli Stati del mondo, però, hanno legislazioni ad hoc. Servono a livello globale leggi che sottolineino, con la severità delle pene, che la manipolazione delle immagini dei minori è abuso.
Accanto a quest’appello, chiediamo che i governi spingano le software house a dotare i loro prodotti IA di adeguate misure che identifichino e blocchino la produzione di questo tipo di materiale, lo rimuovano e permettano al contempo la segnalazione di chi si è servito illecitamente di tali programmi e app. Da notare che purtroppo ad oggi, secondo il Centro operativo sicurezza cibernetica della Sicilia orientale della Polizia Postale, il 70% delle segnalazioni di materiale pedopornografico proviene da Meter, a riprova del fatto che la tematica è complessa e bisogna investire più risorse per contrastare questo preoccupante fenomeno.
METER E LA POLIZIA POSTALE E DELLA SICUREZZA CIBERNETICA – Al termine di questo comunicato vogliamo ricordare il ruolo cruciale di Meter, pioniera per il contrasto della pedopornografia e ogni forma di sfruttamento minorile, fornendo supporto alle vittime, collaborando con le forze dell’ordine nazionali e internazionali e promuovendo leggi più severe contro i crimini online. Dal 2008 Meter, con protocollo ufficiale, collabora con la Polizia Postale e della Sicurezza Cibernetica Italiana e dal 2017 con quella Polacca perché questo servizio possa essere volano per lo sviluppo di tecnologie sempre più efficienti di monitoraggio verso chi produce, condivide e consuma prodotti pedopornografici; chiediamo anche un rafforzamento della cooperazione internazionale per individuare e fermare i responsabili di crimini contro i minori.
DON DI NOTO - METER: SIAMO ALL’ANNO ZERO, È TEMPO DI REAGIRE – «Attraverso questo Dossier Meter vuole denunciare e sollevare una forte presa di posizione della società, della politica e della chiesa, perché norme più uniformi e severe permettano di combattere questo abietto fenomeno. Offriamo la nostra competenza a Papa Leone XIV nel momento in cui egli annuncia la stesura di una lettera enciclica sull’IA. Anche questo è un fronte che non dev’essere ignorato», conclude don Fortunato Di Noto, fondatore e presidente di Meter ETS.