- -

Intelligenza artificiale e immagini deep fake: dal Papa Balenciaga ai dati biometrici

Le immagini deep fake mettono in pericolo i dati biometrici.

La rapida evoluzione dell’intelligenza artificiale rende sempre più difficile riconoscere le immagini deep fake. Queste potrebbero mettere in pericolo la nostra sicurezza biometrica?

Intelligenza artificiale e le sue declinazioni

L’intelligenza artificiale è presente nelle nostre vite da molto tempo, a partire dai termini suggeriti dal nostro cellulare nelle app conversazionali. Ma cos’è accaduto nell’ultimo periodo e perché adesso l’intelligenza artificiale è il super trend del momento? Le AI sono sempre più potenti, multifunzionali e sorprendentemente influenti (leggi il nostro articolo sul pregiudizio sulle opere dell’AI). Scopriamo insieme come le AI stanno cambiando le nostre vite.

Immagini deep fake e dati biometrici

Le immagini deep fake del Papa che veste un sontuoso cappotto Balenciaga hanno fatto il giro del mondo, sconvolgendo i social. Nonostante siano state viste da moltissimi nativi digitali, apparentemente nessuno sembra essersi accorto che si trattava di un fake. L’artista che ha creato il prompt è uscito allo scoperto dopo qualche giorno, sorprendendo non pochi utenti. Per quanto il fenomeno sia divertente e possa sembrare innocuo, l’evidente evoluzione delle intelligenze artificiali, sempre più accurate nella creazione di immagini realistiche, può rappresentare un pericolo (dai un’occhiata al nostro articolo sulla violenza e il furto d’identità digitale sui social). L’algoritmo che realizza le immagini deep fake, lavora analizzando e manipolando video e immagini originali, cambiando elementi significativi. Un tale strumento, facile e intuitivo per molti a differenza di programmi più complessi come Photoshop, potrebbe creare con pochi elementi immagini realistiche usando i nostri dati biometrici. Un video deep fake può, ad esempio, screditare una figura politica che, a causa della velocità con cui viene diffuso il materiale in rete, rischia di compromettere rapidamente la sua immagine. Tuttavia sono rischiosi anche per utenti non in vista, in quanto possono essere utilizzati per diffondere odio, discriminazione e bullismo, causando danni ai dati biometrici degli utenti coinvolti.

Intelligenza artificiale, aziende e criminalità

In una realtà tecnologica dove le intelligenze artificiali hanno sempre più spazio, le aziende e le autorità hanno la responsabilità di mettere in sicurezza i propri dipendenti, mentre le scuole di istruire i ragazzi a farne un uso appropriato. Inoltre, è importante educare le vecchie e nuove generazioni di utenti digitali al sapere individuare materiale fake e quali sono i passi da seguire per approcciarsi a questo tipo di contenuti.

A presto con nuovi articoli!

Potrebbero interessarti anche:

Condividi Articolo