Ritratti: i grandi innovatori del passato

The | Edge omaggia le storie di grandiosi personaggi storici, uomini e donne del passato, pionieri e pioniere dell’innovazione, che attraverso la diffusione del loro sapere e delle loro scoperte in ambito scientifico e tecnologico, hanno contribuito a rivoluzionare l’umanità.

Regolamentazione dell’intelligenza artificiale: a che punto siamo in Europa e nel mondo

L’Unione Europea si prepare ad approvare la prima e più estesa normativa al mondo sull’intelligenza artificiale, l’AI Act. La legge, introdotta come bozza dalla Commissione Europea nel 2021, è ora in dirittura di arrivo. Ci si attende che, salvo imprevisti, una versione finale della normativa sarà pronta entro la fine del 2023.
Lo scopo dell’AI Act è assicurare che lo sviluppo dell’intelligenza artificiale avvenga seguendo limiti e paletti ben precisi, per garantire che l’innovazione non vada a scapito della sicurezza, della trasparenza nella gestione dei dati, della sostenibilità ambientale o della privacy dei cittadini europei.
La nuova legge si pone inoltre come cardine l’idea che i sistemi di intelligenza artificiale siano e rimangano sempre controllati dall’uomo e non dall’automazione, per massimizzare i benefici per la collettività ed “evitare sviluppi infausti”. 

Rischio inaccettabile
La legge, allo stato attuale, prevede di regolamentare le applicazioni di intelligenza artificiale stabilendo regole precise a seconda di vari livelli di rischio.

Fra i sistemi a rischio “inaccettabile” e che dunque verranno banditi con la nuova legge, ci sono alcune applicazioni biometriche come il riconoscimento facciale utilizzato a fini di controllo e schedatura, ma anche – per fare un esempio – giochi per bambini ad attivazione vocale che invitano l’utente a comportamenti pericolosi. Anche i sistemi basati sull’IA che hanno come obiettivo la profilazione e il controllo su base comportamentale saranno messi fuorilegge. 

Alto rischio, Ai generativa e rischio limitato
I sistemi ad alto rischio verranno invece suddivisi in otto diverse categorie a seconda del loro campo di applicazione: identificazione biometrica e categorizzazione delle persone; gestione di infrastrutture critiche; istruzione e formazione professionale; gestione delle pratiche di impiego (HR); accesso ai servizi pubblici e di prima necessità; forze dell’ordine; gestione dei controlli di frontiera e dell’immigrazione; assistenza nell’interpretazione legale e applicazione delle leggi. Tutti i sistemi AI che opereranno in questi settori dovranno essere registrati in un database europeo dalle aziende che li sviluppano o li usano, e come tali dovranno seguire un iter di valutazione prima della commercializzazione e durante il loro ciclo di vita e aggiornamento. 

Nel caso dell’AI generativa la normativa europea prevede inoltre una serie di requisiti di trasparenza. Le aziende che sviluppano questi sistemi e quelle che li adoperano in produzione dovranno sempre rivelare se un contenuto è realizzato con il contributo di un’intelligenza artificiale; programmare il modello per impedire la generazione di contenuti illegali; pubblicare dei sommari dei dati soggetti a copyright utilizzati nelle fasi di allenamento del modello. 

L’Ai Act prevede infine una serie di requisiti minimi di trasparenza per quei sistemi che verranno ritenuti a “rischio limitato”, In questo caso è comunque necessario che gli utenti sappiano che hanno a che fare con applicazioni o contenuti che utilizzano l’intelligenza artificiale in modo da poter decidere se continuare a fruire del servizio oppure no, un po’ come avviene già oggi per l’approvazione dei cookie sui siti web. 

Nel resto del mondo

Mentre l’Europa procede spedita con una regolamentazione onnicomprensiva che potrebbe essere la prima al mondo di così ampio respiro, altri paesi stanno lavorando a leggi analoghe all’AI Act.
Il Brasile sta elaborando un impianto normativo che muove allo stesso modo da una serie di categorie di rischio delle applicazioni e si ispira al principio europeo di trasparenza nell’uso dei dati. Nel cuore dell’Europa l’eccezione sarà la Svizzera: lo stato elvetico non prevede una nuova legge specifica sull’AI, ma ritiene che le leggi esistenti sulla protezione dei dati saranno sufficienti, in particolare se aggiornate in futuro sulla base degli sviluppi specifici e settoriali delle applicazioni dell’AI. 


La Cina ha invece già pubblicato due leggi relative alle maggiori applicazioni dell’AI. Quella relativa alla regolamentazione degli algoritmi è già in vigore dal marzo 2023 e ha lo scopo di limitare e punire gli abusi degli algoritmi di suggerimento utilizzati in particolare dalle app di condivisione video e dai social media. La seconda legge, relativa alle tecnologie di “deep synthesis”, si pone invece l’obiettivo di limitare la diffusione e la creazione di cosiddetti “deep fakes”: la norma è ancora in discussione non è ancora entrata in vigore.
L’altro grande gigante asiatico, l’India, non ha invece al momento alcuna legge o impianto normativo destinato a regolamentare l’uso dei sistemi di intelligenza artificiale. 

Non troppo dissimile al momento lo stato delle leggi sull’IA negli Stati Uniti, dove l’unico documento in vigore per adesso è il Blueprint for the Development, Use and Deployment of Automated Systems, noto anche come Blueprint for an AI Bill of Rights. Non è una vera e propria legge ma solo un insieme di principi e linee guida alle quali le aziende attive nel settore sono invitate ad attenersi su base etica ma senza alcun obbligo legale. 

Il rischio delle regole per pochi
Le discussioni per una normativa più stringente sull’AI sono comunque in corso, facilitate e richieste anche da alcuni dei maggiori attori del settore come Microsoft o OpenAi. Gli esperti hanno però più volte messo in guardia da questo curioso entusiasmo per la “regulation” da parte di aziende che, normalmente, farebbero di tutto per evitare capestri governativi sulle proprie attività. Il rischio è che i grandi gruppi che oggi guidano lo sviluppo delle AI, in particolare i modelli generativi, vogliano favorire regolamentazioni favorevoli che solo loro sono nelle condizioni di rispettare, non tanto allo scopo di proteggere l’umanità da evoluzioni incontrollate della tecnologia, quanto per cementare il proprio vantaggio competitivo in uno dei settori tecnologici a più alto tasso di crescita della storia.

Condividi Articolo

Future You: come sarai tra 60 anni?

Immagina di poter parlare con chi sarai tra 60 anni. Chiedere del tuo lavoro, della tua salute e della tua vita sentimentale potrebbe suscitare un