
L’ingresso dell’intelligenza artificiale (IA) nella prevenzione della radicalizzazione giovanile non può essere letto come un semplice aggiornamento tecnologico degli strumenti di sicurezza. È, piuttosto, un cambiamento strutturale dell’ecosistema informativo e relazionale dentro cui i giovani costruiscono identità, appartenenze e giudizi di realtà. In questo contesto l’IA non “crea” automaticamente l’estremismo, ma ne può amplificare le condizioni di diffusione: accelera la produzione di contenuti, riduce i costi di accesso a capacità persuasive e operative, e incrementa la personalizzazione dell’esposizione. La domanda di policy, dunque, non è se usare o non usare l’IA, bensì come governarla in modo da aumentare la capacità preventiva senza erodere diritti, fiducia pubblica e coesione sociale – variabili che, in prevenzione, non sono accessorie ma determinanti.
Le strategie pubbliche tendono spesso a rappresentare la radicalizzazione come un percorso essenzialmente cognitivo: un individuo viene “convinto” da un’ideologia e progredisce verso la violenza. Nella realtà dei contesti giovanili, i fattori relazionali precedono frequentemente quelli dottrinali. L’attrazione verso comunità polarizzanti è spesso mediata da bisogni di riconoscimento, status, protezione identitaria, gestione della frustrazione e ricerca di senso. Le piattaforme digitali agiscono su questi bisogni attraverso architetture di engagement che selezionano, ordinano e amplificano contenuti e interazioni in base alla probabilità di trattenere l’attenzione.
Questo implica un primo criterio di policy: la prevenzione non dovrebbe essere progettata come mera repressione di contenuti, ma come governo di condizioni sociali e infrastrutturali. L’IA, infatti, tende a spostare il baricentro dell’intervento su ciò che è facilmente misurabile (parole chiave, immagini, simboli), mentre molte dinamiche giovanili sono implicite, ironiche, codificate e situate culturalmente. In assenza di una cornice socio-educativa, una prevenzione centrata solo sulla detection rischia di essere miope (perché vede solo ciò che sa già cercare) e controproducente (perché può colpire linguaggi di gruppo non violenti, alimentando sfiducia).
L’impatto dell’IA sulla radicalizzazione giovanile emerge soprattutto in tre trasformazioni: scala, velocità e accessibilità.
La scala riguarda la capacità di generare e diffondere contenuti in quantità e formati diversi, adattandoli ai codici di micro-comunità. La radicalizzazione contemporanea si alimenta spesso di estetiche e linguaggi “meme-based”: contenuti rapidi, remixabili, non necessariamente sofisticati, ma culturalmente riconoscibili. È qui che la policy incontra un limite classico: i dispositivi normativi e istituzionali procedono più lentamente delle culture digitali. Se l’azione pubblica interviene quando un repertorio è già stabilizzato, l’ecosistema si è spesso già spostato altrove.
La velocità attiene alle dinamiche di amplificazione e imitazione. In presenza di eventi critici—attacchi, crisi, conflitti—contenuti che glorificano autori di violenza o invocano rappresaglie possono diventare virali in poche ore, producendo cicli di emulazione e radicalizzazione accelerata. La policy, qui, deve contemperare rapidità d’intervento e proporzionalità: risposte automatiche e rigide possono generare errori su larga scala, ma risposte lente possono lasciare spazio a escalation.
L’accessibilità è il punto più sottovalutato. L’IA rende disponibili strumenti di produzione e manipolazione anche a utenti con competenze ridotte, abbassando la soglia di ingresso a pratiche di propaganda, intimidazione e disinformazione. Parallelamente, sistemi conversazionali possono offrire supporto cognitivo a ideazioni violente o comportamenti devianti, non perché “intendano” farlo, ma perché sono progettati per rispondere, assistere e mantenere la conversazione. Per la prevenzione giovanile, ciò significa che la linea tra consumo passivo e partecipazione attiva può assottigliarsi: produrre, condividere, rielaborare e coordinare richiede meno frizioni tecniche di ieri.
Nel contesto europeo, una parte rilevante del dibattito sulla radicalizzazione giovanile riguarda la diffusione di narrazioni islamiste radicali negli ambienti digitali. È importante distinguere chiaramente tra l’Islam come tradizione religiosa plurale e la sua strumentalizzazione ideologica da parte di movimenti che trasformano il riferimento religioso in progetto politico esclusivo e conflittuale.
Negli ultimi anni, tali ambienti hanno dimostrato una notevole capacità di adattamento alle trasformazioni tecnologiche. La propaganda jihadista e neo-islamista ha progressivamente abbandonato modelli comunicativi centralizzati, adottando forme più diffuse e reticolari, spesso orientate alla costruzione di micro-comunità online. In questo scenario, strumenti di intelligenza artificiale possono amplificare ulteriormente queste dinamiche, facilitando la produzione automatizzata di contenuti ideologici, la traduzione rapida dei messaggi e la personalizzazione della propaganda per pubblici specifici.
Comprendere queste trasformazioni è essenziale per evitare due errori speculari: da un lato, la tendenza a ridurre il fenomeno a un problema esclusivamente religioso; dall’altro, la tentazione di ignorare il ruolo che alcune ideologie islamiste continuano a svolgere nella radicalizzazione di una minoranza di giovani europei.
La capacità dei giovani di distinguere tra autentico e sintetico non può essere data per scontata, neppure in una generazione abituata al digitale. La proliferazione di contenuti generati (testi, immagini, video) non produce solo il rischio di “credere al falso”: produce una condizione di instabilità epistemica in cui l’idea stessa di prova può essere contestata e la fiducia informativa si frammenta in appartenenze di gruppo. Questa vulnerabilità è particolarmente critica per la radicalizzazione perché facilita la costruzione di mondi narrativi chiusi, dove la polarizzazione non è un’opinione ma una “realtà” continuamente confermata da segnali coerenti.
Da un punto di vista di policy, ciò suggerisce che la media literacy debba essere ripensata come infrastruttura preventiva, non come intervento episodico. Serve un’alfabetizzazione che includa: logiche di amplificazione, incentivi economici dell’attenzione, retoriche manipolative, tecniche di verifica, ma anche competenze emotive e sociali (riconoscere quando un contenuto è progettato per provocare indignazione e ostilità). La prevenzione non si gioca solo sulla verità fattuale, ma sulla capacità di non essere catturati da cornici identitarie antagonistiche.
Un’area emergente di policy riguarda l’uso di IA conversazionali da parte dei più giovani come interlocutori per questioni personali, fragilità emotive e ricerca di orientamento. Questa dinamica può offrire benefici in termini di accesso immediato e percezione di ascolto, ma produce rischi specifici per la prevenzione della radicalizzazione.
Il problema principale è che la radicalizzazione è spesso un processo di relazione: isolamento, umiliazione, rancore e ricerca di riconoscimento sono condizioni che possono essere sfruttate da comunità estremiste. Se l’IA diventa un sostituto di relazioni umane o un acceleratore di immersione comunicativa, la policy deve chiedersi come predisporre dispositivi di protezione: non solo filtri sui contenuti, ma anche meccanismi di “aggancio” verso supporti umani qualificati quando emergono segnali di vulnerabilità, ideazione violenta o sofferenza. In termini operativi, questo significa integrare percorsi di referral, definire soglie di rischio, assicurare supervisione e audit sulle risposte in ambiti sensibili, e costruire interoperabilità con servizi territoriali (scuola, salute mentale, servizi sociali), evitando scorciatoie securitarie.
L’IA è spesso invocata come soluzione alla scala dei contenuti online. Tuttavia, in prevenzione della radicalizzazione giovanile, la moderazione automatizzata incontra un limite strutturale: la difficoltà di interpretare contesto, ironia, codici culturali e intenzione comunicativa. Ne derivano falsi positivi (over-removal di contenuti legittimi) e falsi negativi (mancata rimozione di contenuti nocivi), con effetti che non sono simmetrici: l’over-removal può erodere fiducia e alimentare percezioni di persecuzione; l’under-removal può normalizzare violenza e amplificare l’emulazione.
Qui entra il punto cruciale: la prevenzione non è solo un problema di accuratezza tecnica, ma di legittimità sociale. Interventi percepiti come opachi, discriminatori o sproporzionati possono diventare fattori di rischio: spingono i giovani verso spazi meno regolati, rafforzano narrative anti-istituzionali e intensificano l’attrattiva di comunità “contro-sistema”. Ne segue che l’obiettivo non può essere “massimizzare la rimozione”, ma ottimizzare un equilibrio tra sicurezza, diritti e fiducia.
Una governance efficace dell’IA in prevenzione richiede un cambio di paradigma: dalla gestione del singolo contenuto alla gestione dell’ecosistema. Ciò implica almeno quattro orientamenti.
Primo, spostare l’attenzione da contenuti isolati a pattern di rischio che includano attori e comportamenti: inviti a canali chiusi, rituali di appartenenza, escalation di disumanizzazione, reti di emulazione. Questo consente interventi più precoci e proporzionati, ma richiede salvaguardie rigorose per evitare profilazioni arbitrarie.
Secondo, privilegiare, dove possibile, analisi aggregate e “situational awareness” rispetto alla sorveglianza individuale. Nei contesti locali (scuole, città, servizi comunitari), l’obiettivo preventivo è identificare tensioni e trend per attivare risposte sociali, educative e di coesione. La profilazione individuale, oltre a essere spesso giuridicamente e politicamente problematica, è anche fragile sul piano predittivo: rischia bias e produce danni reputazionali difficilmente riparabili, soprattutto su minori.
Terzo, incorporare salvaguardie come condizioni abilitanti: trasparenza verso i soggetti interessati, spiegabilità delle decisioni, responsabilità chiare lungo la filiera (sviluppo–procurement–uso), canali di ricorso, supervisione umana competente. Questi elementi non rallentano la prevenzione: ne costituiscono l’infrastruttura di fiducia.
Quarto, investire in capacità umane e interdisciplinari. L’IA non sostituisce la comprensione culturale: servono competenze linguistiche, conoscenza delle subculture giovanili, psicologia dello sviluppo, lavoro educativo, e capacità di lettura dei contesti. Senza queste risorse, l’IA automatizza incomprensione e irrigidisce categorie, con un effetto paradossale: più tecnologia, meno capacità di vedere ciò che cambia.
In questo quadro, le comunità musulmane europee possono svolgere un ruolo decisivo nella prevenzione della radicalizzazione. Non semplicemente come oggetto delle politiche di sicurezza, ma come attori civici e culturali capaci di contribuire alla costruzione di spazi religiosi e sociali più resilienti.
La prevenzione efficace passa anche attraverso la maturazione di una leadership religiosa e intellettuale in grado di contrastare le letture ideologiche e politicizzate dell’Islam che alimentano le narrazioni radicali. Ciò implica promuovere contesti educativi e religiosi nei quali la tradizione islamica sia presentata nella sua ricchezza teologica e spirituale, ma anche nella sua compatibilità con i principi dello Stato di diritto, della cittadinanza e del pluralismo europeo.
In questo senso, il contributo delle comunità musulmane non consiste soltanto nel respingere le derive estremiste, ma nel partecipare attivamente alla costruzione di un Islam europeo consapevole del proprio radicamento nelle società democratiche e capace di offrire ai giovani modelli di appartenenza religiosa non conflittuali e non ideologizzati.
L’IA può rafforzare la prevenzione della radicalizzazione giovanile solo se integrata in una strategia che riconosca la natura relazionale del fenomeno e la centralità della legittimità. Inseguire la promessa di controllo totale attraverso automazione e sorveglianza diffusa è non solo normativamente problematico, ma strategicamente fragile: può produrre alienazione, spostamento verso spazi opachi e consolidamento di narrative antagonistiche. Al contrario, un impiego governato dell’IA -orientato a segnali aggregati, supporto decisionale e attivazione di risposte sociali- può contribuire a identificare precocemente pattern di rischio e a rafforzare resilienza, coesione e fiducia. In definitiva, la prevenzione efficace non coincide con la massima capacità di rimozione o previsione, ma con la capacità istituzionale di intervenire in modo proporzionato, spiegabile e credibile, preservando proprio quelle condizioni democratiche che l’estremismo mira a erodere.
Abdellah M. Cozzolino