La rapida diffusione degli strumenti di intelligenza artificiale generativa sta modificando in profondità il panorama delle minacce informatiche. Secondo un recente rapporto del World Economic Forum, nel 2026 le frodi digitali e gli attacchi di impersonificazione sostenuti dall’AI cresceranno in modo significativo, superando per impatto e frequenza minacce che fino a poco tempo fa dominavano l’agenda della sicurezza, come il ransomware.
Lo studio evidenzia come il rischio cyber non riguardi più soltanto le infrastrutture aziendali, ma coinvolga in maniera diretta anche i consumatori, sempre più esposti a furti di identità, truffe personalizzate e campagne di social engineering sofisticate.
Frodi cyber al primo posto tra le preoccupazioni dei CEO
Dai dati raccolti dal World Economic Forum emerge un cambio netto di priorità. Il 73% dei CEO intervistati dichiara di aver subito, direttamente o tramite persone del proprio contesto professionale o familiare, episodi di frode informatica nel corso del 2025. Il 62% segnala casi di phishing, vishing o smishing, mentre il 37% riporta frodi legate a fatture o pagamenti e il 32% episodi di furto di identità.
Le vulnerabilità legate all’AI e le frodi cyber-abilitate risultano oggi la principale fonte di preoccupazione per i vertici aziendali, superando il ransomware, che solo un anno prima rappresentava il rischio dominante.
Consumatori sotto pressione: cresce il timore del furto di identità
La stessa tendenza si riflette sul fronte dei cittadini. Un report di Experian indica che il 68% dei consumatori considera il furto di identità la minaccia principale, seguito dal furto dei dati delle carte di credito, citato dal 61% degli intervistati. Un livello di allerta che testimonia una percezione di vulnerabilità in aumento, alimentata dall’uso sempre più diffuso dell’AI nelle attività criminali.
Secondo i dati della Federal Trade Commission, nel solo 2024 le perdite economiche dovute a frodi hanno raggiunto 12,5 miliardi di dollari, con un incremento annuo del 25%.
L’AI come moltiplicatore di truffe e impersonificazioni
Konstantin Levinzon, co-fondatore di Planet VPN, sottolinea come l’AI stia abbassando drasticamente le barriere di ingresso per i cybercriminali. Le nuove tecnologie consentono di tradurre e localizzare le truffe in tempo reale, rendere le impersonificazioni più credibili e realizzare attacchi basati su deepfake iper-realistici.
Questa evoluzione permette a gruppi criminali attivi su scala locale di colpire utenti in tutto il mondo, utilizzando lingue e riferimenti culturali specifici. Il risultato è una diffusione più rapida delle campagne fraudolente e una maggiore difficoltà, per piattaforme e autorità di regolamentazione, nel contrastare operazioni coordinate di manipolazione e disinformazione.
Il World Economic Forum evidenzia inoltre un impatto particolarmente rilevante su donne e minori, sempre più spesso bersaglio di abusi digitali, impersonificazioni e utilizzo illecito di immagini sintetiche.
Carenza di competenze e uso dell’AI nelle aziende
Un altro elemento critico riguarda la carenza di professionisti della sicurezza informatica. Il WEF segnala che il 33% delle aziende in Europa e Asia Centrale e il 35% in Nord America lamentano la mancanza di competenze avanzate. In America Latina e in diversi Paesi africani, la percentuale sale fino al 70%.
L’AI può contribuire a colmare parte di questo divario, automatizzando alcune attività di difesa. Tuttavia, un’adozione non corretta introduce nuovi rischi, tra cui configurazioni errate, decisioni distorte, eccessiva fiducia nei sistemi automatici e maggiore esposizione a manipolazioni mirate.
Formazione e buone pratiche come prima linea di difesa
Secondo Levinzon, la risposta più efficace resta la formazione di utenti e dipendenti. Una maggiore consapevolezza riduce la probabilità di cadere in truffe, favorisce l’uso di password uniche e l’attivazione dell’autenticazione a più fattori. In questo contesto, anche strumenti come le VPN rientrano nelle pratiche di igiene digitale quotidiana.










Scrivi una risposta