Ritratti: i grandi innovatori del passato

The | Edge omaggia le storie di grandiosi personaggi storici, uomini e donne del passato, pionieri e pioniere dell’innovazione, che attraverso la diffusione del loro sapere e delle loro scoperte in ambito scientifico e tecnologico, hanno contribuito a rivoluzionare l’umanità.

Il futuro dell’autenticazione: affrontare gli attacchi deepfake

Come affrontare gli attacchi deepfake?

L’avanzata tecnologica legata all’intelligenza artificiale consente di ricreare immagini sorprendentemente dettagliate. Per questo, il futuro della sicurezza biometrica è a rischio a causa di video e immagini deepfake.

Deepfake: una minaccia crescente per la sicurezza informatica

Entro il 2026, quasi il 30% delle imprese potrebbe non considerare più affidabili le soluzioni di verifica dell’identità e autenticazione basate sulla biometria facciale a causa dell’avanzamento dei deepfake (leggi il nostro articolo sulle criticità di Windows Hello). Secondo Akif Khan, analista vicepresidente di Gartner, i recenti progressi nell’intelligenza artificiale hanno aperto la strada alla creazione di immagini sintetiche, conosciute come deepfake, che potrebbero compromettere l’efficacia dei sistemi di autenticazione. Ma scopriamo insieme le insidie della lotta contro la falsificazione di immagini e video.

La sfida dei meccanismi di autenticazione basati sulla biometria facciale

La maggior parte delle tecniche di verifica dell’identità e autenticazione si basa sul rilevamento degli attacchi di presentazione (PAD) per valutare le reazioni vitali dell’utente. Questi attacchi possono essere ulteriormente divisi in alcune categorie: attacchi di stampa, che consistono nell’utilizzare immagini stampate o fotografie del volto; attacchi di replay, dove si utilizza video o immagini preregistrate del volto; attacchi con maschere 3D, che prevedono la creazione di una maschera 3D del volto della persona bersaglio. Tuttavia, gli attuali standard e processi di test non tengono conto degli attacchi di digital injection utilizzando deepfake generati dall’intelligenza artificiale (leggi il nostro articolo sulle tecniche di phishing). Secondo una ricerca di Gartner, si è verificato un aumento del 200% negli attacchi di presentazione nel 2023. Prevenire tali attacchi richiede l’adozione di nuove strategie, combinando meccanismi di rilevamento degli attacchi di presentazione (PAD) e Injection Attack Detection (IAD) con l’ispezione delle immagini.

Sfide e soluzioni: prevenire gli attacchi deepfake

Le organizzazioni devono definire una linea di base minima di controlli collaborando con fornitori specializzati nella mitigazione delle minacce basate sui deepfake, utilizzando strumenti IAD e di ispezione delle immagini. I Chief Information Security Officer (CISO) e i leader della gestione del rischio devono selezionare fornitori capaci di affrontare queste nuove minacce e implementare ulteriori misure di sicurezza, come l’identificazione dei dispositivi e l’analisi comportamentale, per rilevare gli attacchi con maggiore efficacia.

La necessità di un approccio proattivo

Per mitigare i rischi derivanti dagli attacchi deepfake, è essenziale adottare una strategia proattiva che includa tecnologie avanzate per la verifica dell’identità e l’autenticazione. Le organizzazioni devono investire in soluzioni in grado di rilevare con precisione la presenza umana e implementare misure aggiuntive per prevenire il furto degli account. Solo attraverso un approccio integrato e collaborativo sarà possibile proteggere in modo efficace le risorse digitali e garantire la sicurezza delle informazioni sensibili.

A presto con nuovi articoli!

Potrebbero interessarti anche:

Condividi Articolo

Nel blu, dipinto di blu

Il turismo spaziale non è più un sogno irraggiungibile, diventerà fenomeno di massa e faremo i pendolari fra le stelle? A spasso fra le stelle,

La forza del pensiero

L’evoluzione dell’AI in sofisticate reti neurali danno una speranza a miliardi di malati. Ma restano i nodi per l’etica, la privacy e l’aspetto sociale Muovere