Cybersecurity: il 2026 segna l’industrializzazione del cybercrime

Il 2026 rappresenta un punto di svolta per la sicurezza informatica. Secondo le previsioni contenute nel report “The AI-fication of Cyberthreats – Trend Micro Security Predictions for 2026”, il cybercrime entra in una fase di industrializzazione completa, con attacchi progettati, eseguiti e adattati quasi interamente da sistemi automatizzati basati su intelligenza artificiale. Lo studio, presentato durante il #SecurityBarcamp di Milano, fotografa uno scenario in cui utenti, aziende e istituzioni devono confrontarsi con minacce generate e orchestrate dalle macchine, a un ritmo che supera le capacità delle difese tradizionali.

Il report è stato sviluppato da TrendAI, divisione di Trend Micro specializzata nella sicurezza dell’intelligenza artificiale, e discusso in un contesto di confronto che ha coinvolto aziende strategiche, organismi di settore e istituzioni nazionali, tra cui l’Agenzia per la Cybersicurezza Nazionale, TIM, Clusit e ARIA S.p.A..

Cybercrime industriale: automazione, scala e autonomia

L’elemento centrale che emerge dalle previsioni riguarda la trasformazione del cybercrime in un vero e proprio ecosistema industriale. L’intelligenza artificiale e l’automazione consentono ai gruppi criminali di progettare campagne di attacco autosufficienti, capaci di adattarsi in tempo reale al contesto operativo e alle contromisure difensive. Malware polimorfici, in grado di riscrivere costantemente il proprio codice, riducono l’efficacia delle firme di rilevamento tradizionali, mentre l’ingegneria sociale basata su deepfake mette in crisi la fiducia degli utenti e i meccanismi di verifica umana.

In questo scenario, l’attacco non richiede più una supervisione continua da parte di operatori umani. Sistemi automatizzati individuano le vittime, selezionano i vettori più efficaci e gestiscono l’intero ciclo di compromissione, dalla fase iniziale di accesso fino alla monetizzazione del danno.

AI come moltiplicatore del rischio e del danno

Il report evidenzia come l’intelligenza artificiale svolga un doppio ruolo. Da un lato rappresenta una leva di innovazione per la difesa, dall’altro diventa un vettore di attacco estremamente efficace. Gli agenti AI sempre più autonomi interagiscono con sistemi digitali e fisici, con il rischio che un agente compromesso si trasformi in una fonte diretta di attacchi. Pratiche come il vibe coding accelerano lo sviluppo software, ma introducono vulnerabilità significative quando mancano processi strutturati di revisione e controllo del codice.

Le truffe basate su AI raggiungono livelli di sofisticazione elevati. Deepfake vocali e video, campagne di social engineering automatizzate e contenuti generativi plausibili rendono complessa la distinzione tra comunicazioni legittime e fraudolente, con un impatto diretto sulla fiducia degli utenti e sull’affidabilità dei canali digitali.

APT, supply chain e geopolitica digitale

Le minacce avanzate persistenti evolvono verso modelli di collaborazione più fluidi. Gruppi APT condividono accessi, infrastrutture e payload, mascherando l’origine degli attacchi e accelerando le operazioni su scala globale. In questo contesto, le supply chain software diventano un obiettivo privilegiato. Codice dannoso può essere inserito in componenti legittimi o sfruttare accessi privilegiati interni, con effetti a cascata su interi ecosistemi produttivi.

Le tensioni geopolitiche aumentano l’esposizione delle infrastrutture critiche e delle industrie strategiche. Attacchi mirati a fini di spionaggio, sabotaggio digitale e destabilizzazione diventano più frequenti, con un rischio crescente legato anche all’evoluzione del quantum computing e alle tecniche di raccolta e decrittografia dei dati.

Aziende sotto pressione tra legacy, shadow IT e identità digitali

Per le organizzazioni, il rischio principale deriva spesso da sistemi legacy, software obsoleti e pratiche di shadow IT che sfuggono ai controlli centralizzati. L’automazione basata su AI rende il phishing e il furto di credenziali più convincenti ed efficaci, superando molte soluzioni tradizionali di gestione delle identità e degli accessi.

Il confine tra operatore umano e macchina risulta sempre più sfumato. Dipendenti compromessi, agenti AI e strumenti di terze parti possono diventare vettori di spionaggio e furto di dati, con impatti diretti sulla continuità operativa e sulla reputazione aziendale.

Cloud e infrastrutture AI come bersagli prioritari

Gli ambienti cloud, soprattutto nelle configurazioni ibride e multi-cloud, restano tra gli obiettivi principali dei cybercriminali. Workload ad alto valore, dipendenze operative e risorse GPU attirano attacchi sempre più mirati. Le campagne di phishing cloud-native combinano e-mail, SMS, voce e AI, mentre configurazioni errate, credenziali con privilegi eccessivi e API esposte facilitano movimenti laterali ed esfiltrazione dei dati.

L’integrazione di componenti AI nelle infrastrutture introduce ulteriori superfici di attacco, con punti ciechi che richiedono nuovi modelli di monitoraggio e controllo.

Ransomware autonomo e negoziazione automatizzata

Nel 2026 il ransomware evolve in un ecosistema basato su intelligenza artificiale. Le operazioni di crittografia lasciano spazio a strategie di sfruttamento intelligente dei dati, con sistemi capaci di identificare gli asset più critici per la vittima e di esercitare pressioni mirate. Bot di estorsione automatizzati gestiscono le trattative, riducendo ulteriormente il coinvolgimento umano.

La diffusione di modelli ransomware-as-a-service abbassa la soglia di ingresso. Anche soggetti con competenze tecniche limitate possono avviare campagne complesse, adattive e su larga scala.

Governance, controllo e resilienza proattiva

Dalle analisi e dagli interventi emersi al #SecurityBarcamp, il messaggio risulta chiaro. Nel contesto di una crescente industrializzazione del cybercrime, la risposta non può limitarsi a una difesa reattiva. Serve una strategia di resilienza proattiva, che integri la sicurezza in ogni livello dell’infrastruttura AI, del cloud e della supply chain.

Come sottolineato da Salvatore Marcis, Country Manager di TrendAI™ Italia, il compito dei responsabili della sicurezza non riguarda più soltanto il rilevamento degli attacchi, ma il contrasto a un ritmo di minacce guidate dalle macchine. Governance, supervisione umana e uso responsabile dell’intelligenza artificiale diventano elementi centrali per preservare la continuità dei servizi, la protezione dei dati e la fiducia degli utenti in un ecosistema digitale sempre più automatizzato.

Sicurezza Informatica
Lo staff di Sicurezza Informatica.