L’intelligenza artificiale non rappresenta più una novità nel panorama del cybercrime. È diventata un’infrastruttura operativa stabile, integrata nei modelli di business della criminalità informatica. È quanto emerge dal report “They Don’t Build the Gun, They Sell the Bullets. An Update on the State of Criminal AI” pubblicato da Trend Micro attraverso la business unit TrendAI.
Lo studio analizza servizi clandestini, malware e campagne di attacco basati su AI osservati alla fine del 2025. Il quadro che ne deriva non descrive un’esplosione improvvisa di caos digitale, ma una fase di consolidamento. I gruppi criminali non puntano più sull’effetto sorpresa. Investono invece su efficienza, riduzione dei costi e affidabilità delle operazioni.
Dalla sperimentazione alla professionalizzazione
Le precedenti analisi avevano documentato chatbot “jailbroken”, truffe deepfake isolate e proof-of-concept. Oggi quegli esperimenti hanno lasciato spazio a servizi strutturati. Le soluzioni illegali vengono offerte in modalità “as-a-service”, noleggiate e adattate anche da soggetti privi di competenze tecniche avanzate.
Secondo Marco Fanuli, Technical Director di TrendAI Italia, l’evoluzione non segue una traiettoria apocalittica ma incrementale. Il rischio non consiste in un salto improvviso delle capacità offensive, bensì in un progressivo perfezionamento silenzioso che rende l’ecosistema criminale più resiliente e difficile da smantellare.
Le tre fasi dell’AI criminale
La ricerca individua tre fasi chiave.
La prima fase è il consolidamento. Nei forum underground continuano a emergere strumenti AI “non censurati”, ma la maggior parte sparisce in tempi brevi. Restano attivi soprattutto servizi che offrono jailbreak e tecniche di bypass delle principali piattaforme commerciali tramite prompt manipolati. I criminali sfruttano l’infrastruttura e gli investimenti dei grandi provider invece di sviluppare modelli proprietari.
La seconda fase riguarda la nascita di malware con componenti AI integrate. Alcuni campioni analizzati mostrano la capacità di generare o modificare codice maligno attraverso query locali o remote. I limiti tecnici restano evidenti, ma la direzione appare chiara: malware più adattivi, capaci di variare struttura e comportamento da un attacco all’altro.
La terza fase coincide con la diffusione capillare dei deepfake. Strumenti di sostituzione del volto, clonazione vocale e manipolazione delle immagini risultano disponibili a costi minimi o nulli. Questo scenario favorisce truffe di impersonificazione, infiltrazioni aziendali, rapimenti virtuali e produzione di immagini sintetiche non consensuali. Le implicazioni toccano la fiducia nell’identità digitale, la sicurezza aziendale e la tutela della persona.
Difese ancora in vantaggio, ma il gap si riduce
L’analisi evidenzia che le capacità difensive restano, al momento, in vantaggio. Le piattaforme di rilevamento basate su AI, l’intelligence sulle minacce e gli strumenti di indagine automatizzata consentono alle organizzazioni di intercettare volumi significativi di attività sospette.
Il margine però si assottiglia. I gruppi criminali apprendono rapidamente come estrarre valore dalle stesse tecnologie, spesso con cicli di sperimentazione più brevi rispetto ai tempi di implementazione delle contromisure nelle imprese.
La normalizzazione come rischio sistemico
Il punto centrale del report non riguarda un salto qualitativo straordinario delle capacità offensive, ma la normalizzazione della criminalità basata sull’intelligenza artificiale. Quando frodi deepfake, abuso di identità e malware AI diventano strumenti ordinari, l’intero ecosistema del cybercrime ne beneficia in termini di scalabilità e accessibilità.
Le organizzazioni non possono più considerare questi attacchi come fenomeni marginali. Devono integrarli nei modelli di rischio, nei processi di verifica dell’identità e nei piani di risposta agli incidenti.
L’intelligenza artificiale, oggi, non è soltanto una leva di innovazione. È anche un acceleratore di efficienza per il crimine digitale. La differenza, nei prossimi anni, dipenderà dalla capacità delle imprese di trattare l’AI offensiva come una condizione strutturale e non come un’eccezione emergente.









Scrivi una risposta