Una nuova indagine di Cybernews rivela un dato preoccupante: la maggior parte dei dipendenti statunitensi utilizza strumenti di intelligenza artificiale non approvati dai propri datori di lavoro. Il fenomeno del cosiddetto shadow AI sta diventando una minaccia crescente per la sicurezza aziendale, alimentata dalla mancanza di politiche chiare e da una sorprendente tolleranza dei manager.
L’uso nascosto dell’AI sul posto di lavoro
Secondo i dati, il 59% dei lavoratori ammette di usare strumenti di AI non autorizzati, e oltre la metà dichiara che il proprio manager è d’accordo o non si oppone. Questo dimostra che molte aziende non stanno comunicando in modo efficace i rischi legati all’uso non controllato dell’intelligenza artificiale.

Come spiega Mantas Sabeckis, ricercatore di sicurezza di Cybernews, “gli strumenti di AI non approvati creano una zona grigia in cui i dipendenti si sentono incoraggiati a usarli, mentre le aziende perdono il controllo su dove finiscono le informazioni sensibili”.
Dati sensibili nelle mani dell’AI
Il rischio principale riguarda la condivisione inconsapevole di dati riservati. Il 75% dei dipendenti che usano strumenti non approvati dichiara di aver fornito informazioni potenzialmente sensibili, come dati di clienti, colleghi o documenti interni.

“Una volta che un’informazione entra in un sistema di AI non sicuro, non c’è più modo di sapere dove andrà a finire,” afferma Žilvinas Girėnas, responsabile prodotto di nexos.ai. “Può essere archiviata, utilizzata per addestrare altri modelli o finire nei log accessibili a terzi.”
Manager e dirigenti tra i principali responsabili
Paradossalmente, proprio chi dovrebbe dare l’esempio risulta tra i più inclini a ignorare le regole. Il 93% di dirigenti e top manager ammette di utilizzare strumenti di AI non autorizzati. Un dato che riflette quanto la pressione per migliorare efficienza e produttività spinga anche i livelli più alti a bypassare le policy aziendali.
I rischi sono noti, ma le regole mancano
Quasi l’89% dei lavoratori afferma di essere consapevole dei rischi connessi all’uso dell’AI. Tuttavia, il 23% delle aziende non ha alcuna policy ufficiale in materia.
“Lo shadow AI prospera nel silenzio,” sottolinea Girėnas. “Quando non ci sono regole chiare, i dipendenti pensano che sia accettabile usare qualunque strumento, anche se questo espone l’azienda a fughe di dati.”
Strumenti approvati ancora insufficienti
Oltre la metà delle aziende fornisce o approva strumenti di AI per l’uso lavorativo, ma solo un terzo dei dipendenti li ritiene adeguati alle proprie esigenze. Questo divario spinge molti a rivolgersi a soluzioni esterne non controllate.
“Le aziende devono smettere di fingere di poter competere senza adottare l’AI,” aggiunge Sabeckis. “Ma la transizione deve avvenire in modo sicuro, efficiente e trasparente, con strumenti verificati e politiche precise.”
La minaccia dello shadow AI
Lo studio conclude che il fenomeno è in rapida crescita. Dipendenti e manager utilizzano strumenti non approvati per semplificare il lavoro quotidiano, ma così facendo espongono migliaia di imprese al rischio di violazioni e fughe di dati.
Secondo IBM, lo shadow AI può far aumentare il costo medio di una violazione dei dati di 670.000 dollari. La soluzione, secondo Cybernews, passa da una maggiore consapevolezza, dalla definizione di regole chiare e dall’adozione di piattaforme AI certificate e controllate.
Metodologia
L’indagine è stata condotta tra il 13 e il 22 agosto 2025 su un campione rappresentativo di 1.003 dipendenti statunitensi tra i 18 e i 74 anni, tramite il panel di ricerca Cint.










Scrivi una risposta