-

Il futuro dei sistemi biometrici tra etica e pregiudizi algoritmici

Gli algoritmi per il riconoscimento facciale mostrano un pregiudizio verso alcuni gruppi demografici minoritari e il problema non si limita solo allo sblocco dello smartphone. La soluzione al problema esiste, ed è l’inclusione di campioni di popolazione molto più variegati nella fase di “allenamento” dell’intelligenza artificiale. Se lasciate irrisolte queste forme di pregiudizio algoritmico possono svantaggiare interi gruppi di popolazione, limitando il loro accesso ai servizi digitali.

La diffusione dei lettori di impronte e della scansione del volto che usiamo per tenere al sicuro i nostri smartphone sono i precursori di un mondo dove l’identificazione biometrica sarà la normalità. Ma a quali rischi andiamo incontro?

Secondo uno studio condotto da Juniper Research, nel 2024 il 90% degli smartphone venduti nel mondo integrerà almeno un sistema di riconoscimento biometrico. Gli utenti utilizzeranno le impronte o la scansione del volto per sbloccare il dispositivo, per accedere alle app di home banking o ad altri dati sicuri, oppure per effettuare pagamenti contactless.

La scansione delle impronte sarà ancora il metodo più diffuso: secondo le stime dello studio sarà disponibile su almeno 4,6 miliardi di dispositivi. Il riconoscimento facciale non raggiungerà gli stessi numeri ma sarà implementato su almeno 1,3 miliardi di smartphone nel giro dei prossimi due anni.

Numeri enormi, che confermano quanto avevamo già raccontato qui sul magazine di Wallife in un precedente articolo: le tecnologie biometriche stanno agilmente superando i livelli di massa critica di adozione e per un numero crescente di utenti sono parte della quotidianità dell’esperienza digitale.

A fronte di questa larga diffusione rimangono però ancora alcuni problemi irrisolti. Non solo problemi di sicurezza, che pure esistono ma si possono ricondurre a modelli di rischio noti, ma anche e soprattutto problemi di natura etica che hanno a che fare con il “bias” delle intelligenze artificiali utilizzate per il riconoscimento facciale.

I ricercatori del National Institute of Standards and Technology nel 2021 hanno condotto uno studio comparato su 189 algoritmi per il riconoscimento facciale. Hanno scoperto che la maggior parte di essi mostrano una qualche forma di “bias”, cioè un “pregiudizio” involontario verso alcuni specifici gruppi demografici minoritari o sotto-rappresentati nella società.

I volti di persone nere o asiatiche non vengono riconosciuti (o vengono riconosciuti erroneamente) dalle 10 alle 100 volte di più delle persone di etnia caucasica. Anche le donne vengono identificate in maniera erronea più degli uomini e in particolare sono le donne nere ad essere più vulnerabili al “bias” algoritmico.

Il problema non si limita solo allo sblocco di uno smartphone: le tecnologie analizzate nello studio si stanno diffondendo ben oltre le nostre tasche. Molti degli algoritmi studiati sono infatti utilizzati dalle forze di polizia e dalla sicurezza aeroportuale per lo screening dei flussi e dei passeggeri. Del resto è proprio questo il rischio della grande diffusione delle soluzioni biometriche sui nostri dispositivi privati, in particolare il riconoscimento del volto: normalizzano l’utilizzo della tecnologia anche nel dominio pubblico, laddove però lo sviluppo e l’implementazione non sono garantite dall’esperienza e dalla responsabilità sociale dei grandi colossi informatici.

Se Apple o Google dovessero scoprire un bias algoritmico nei propri sistemi di riconoscimento facciale, per capirci, avrebbero enormi interessi economici affinché il problema venga corretto e risolto. Lo stesso non si può dire di enti o istituzioni che mancano del know how interno necessario a un’implementazione corretta e che per loro stessa natura (come nel caso dei dipartimenti di polizia o della sicurezza aeroportuale) operano con una maggiore segretezza e sono sottoposti a un livello di controllo inferiore.

La soluzione al problema esiste, ed è l’inclusione di campioni di popolazione molto più variegati nella fase di “allenamento” dell’intelligenza artificiale (funziona e lo ha dimostrato ad esempio il sistema Face ID di Apple). Affinché questo avvenga, soprattutto per le tecnologie utilizzate a livello pubblico, serve però uno sforzo normativo globale e collettivo per evitare che la larga diffusione dei sistemi biometrici si trasformi in un volano per ulteriori diseguaglianze sociali. Il rischio non è solo l’aumento dei casi di discriminazione individuale ai controlli aeroportuali o durante le operazioni di polizia. Se lasciate irrisolte, queste forme di pregiudizio algoritmico possono svantaggiare interi gruppi di popolazione, limitando il loro accesso ai servizi digitali.

I trend delle biotecnologie nel 2023

Una rassegna delle novità che attendono il settore biotech nel corso di quest’anno, dai trapianti di organi animali all’immunoterapia cellulare per la lotta contro i tumori.