Ascolta l’Audio dell’Articolo
Ascolta il Mini Podcast dell’articolo
Nel 2025 il rapporto tra Intelligenza Artificiale e cybersecurity ha superato la soglia del semplice trend tecnologico, diventando il nuovo paradigma della sicurezza digitale. Per la prima volta, i leader della sicurezza considerano l’AI, inclusi i modelli linguistici, una priorità di rischio superiore persino al ransomware. Il motivo non è soltanto l’aumento del volume degli attacchi, ma il salto di qualità: velocità, automazione, personalizzazione e multicanalità stanno rimodellando la superficie d’attacco e il modo stesso in cui si costruisce la fiducia online.
Phishing guidato dall’AI: dall’email alla voce e al video
Il phishing non è più riconoscibile da errori grossolani. Oggi gli avversari sfruttano modelli generativi per produrre messaggi impeccabili e ipercontestuali, orchestrati su più canali. Tra la prima e la seconda metà del 2024 gli attacchi di voice phishing hanno registrato un balzo superiore al 400%, mentre le campagne che impiegano componenti di AI sono diventate la norma. In parallelo, il phishing orientato al furto di credenziali è esploso nella seconda parte del 2024, crescendo di oltre il 700%.
Il vero cambio di passo è la combinazione tra canali. Una mail convincente può essere seguita da una telefonata con voce clonata o da una videochiamata manipolata: lo scopo è erodere progressivamente lo scetticismo della vittima. L’AI permette di adattare i contenuti al profilo del bersaglio, sfruttando tracce pubbliche, linguaggi interni e routine aziendali.
Deepfake: identità e fiducia sotto attacco
I deepfake hanno trasformato l’ingegneria sociale in un problema di identità digitale. Nel 2024 un caso emblematico ha mostrato come una videoconferenza completamente falsificata possa indurre a disporre trasferimenti multimilionari. Non servono risorse illimitate: bastano pochi secondi di audio o un breve clip social per generare imitazioni credibili. Le perdite economiche legate a frodi abilitate da deepfake sono aumentate rapidamente, con incrementi annui a più cifre e un impatto misurabile fin dai primi trimestri del 2025.
La convergenza tra deepfake e phishing crea scenari in cui segnali audio e video, un tempo considerati affidabili, non possono più essere presi per buoni. La priorità passa quindi dalla verifica dell’informazione alla verifica dell’identità e del contesto.
Difese intelligenti: rilevamento e risposta basati su ML
La stessa AI che potenzia gli avversari sta ridefinendo le difese. Modelli di machine learning applicati a log, telemetrie di rete ed endpoint rilevano anomalie e comportamenti sospetti che sfuggono ai sistemi basati su firme. Nel 2025 molte piattaforme di detection and response hanno raggiunto livelli elevati di accuratezza e tempi di risposta ridotti, abilitando l’individuazione di minacce sconosciute e zero-day.
La differenza chiave è l’apprendimento continuo: i modelli migliorano con nuovi dati, riconoscendo pattern sempre più sottili. L’integrazione tra EDR, NDR, analisi del traffico e automazione dei playbook consente di isolare asset, bloccare esfiltrazioni e orchestrare azioni di contenimento quasi in tempo reale.
Strumenti generativi in azienda: produttività e rischio
Soluzioni come i chatbot generativi sono ormai parte del lavoro quotidiano. Il rischio principale non è tanto ciò a cui lo strumento può accedere, ma ciò che gli utenti scelgono di inserire: codice, documenti riservati, dati dei clienti, contenuti contrattuali. Casi reali hanno mostrato come informazioni sensibili possano finire nei prompt o nelle cronologie, diventando target di malware infostealer o di accessi non autorizzati.
Allo stesso tempo, gli attaccanti sfruttano i modelli per scrivere codice malevolo, generare campagne di spear phishing e iterare rapidamente varianti che sfuggono ai controlli tradizionali. Serve quindi una governance specifica per l’AI, con policy chiare d’uso, controlli di data loss prevention, protezioni degli account e monitoraggio delle integrazioni.
Priorità strategiche per i CISO nel 2025
Per governare il nuovo equilibrio tra minacce e difese, le organizzazioni dovrebbero focalizzarsi su alcune azioni prioritarie:
-
Definire policy d’uso dell’AI e dei modelli generativi, con controlli DLP su dati sensibili e gestione degli account applicativi.
-
Adottare autenticazione forte e phishing-resistant (ad esempio passkey e FIDO2), con verifica out of band per richieste sensibili.
-
Integrare EDR/NDR e motori di ML per il rilevamento di anomalie e la risposta automatizzata a incidenti.
-
Potenziarne l’email security e la brand protection con DMARC, DKIM, SPF e monitoraggio dei domini lookalike.
-
Formare il personale su deepfake e social engineering multicanale, con simulazioni che includono voce e video.
-
Validare i processi finanziari: doppia approvazione, call back su numeri verificati, regole antifrode per variazioni IBAN o urgenze atipiche.
-
Stabilire playbook specifici per incidenti AI-driven, inclusi scenari di compromissione di account di strumenti generativi.
-
Introdurre AI security e model risk management: tracciabilità dei dati, valutazioni di bias, protezioni contro prompt injection e data poisoning.
-
Razionalizzare il parco strumenti: meno piattaforme, meglio integrate e osservabili, con metriche condivise tra IT, SecOps e Risk.
Budget, competenze e collaborazione
Nonostante la crescita delle minacce, i budget cyber non sempre crescono allo stesso ritmo e la carenza di talenti persiste. L’AI può colmare parte del gap, automatizzando indagini ripetitive, correlazioni e triage, e liberando tempo per analisi ad alto valore. Tuttavia, la tecnologia non sostituisce la governance: occorrono processi, responsabilità chiare e collaborazione tra sicurezza, legale, compliance, procurement e business.
Verso una sicurezza adattiva e verificabile
L’AI non è intrinsecamente buona o cattiva: amplifica tutto ciò che tocca. La differenza la fanno architetture zero trust, visibilità end to end, controlli resilienti e una cultura che mette alla prova assunzioni e segnali apparentemente affidabili. Nel 2025 la sicurezza migliore non è quella che blocca tutto, ma quella che apprende, si adatta e verifica continuamente identità, contesto e intenzione.
La domanda non è se l’AI trasformerà la cybersecurity, ma come guidare questa trasformazione in modo sicuro e responsabile. Le organizzazioni che sapranno coniugare automazione, governance dei dati, formazione e riduzione della complessità operativa costruiranno un vantaggio difensivo reale, sostenibile e misurabile.