-

ChatGPT e i rischi delle intelligenze artificiali creative

Il modello di intelligenza artificiale per la generazione automatica di testi sviluppato da OpenAI ha stupito il mondo per le sue capacità di scrittura. A due mesi dal lancio sono chiari i possibili utilizzi della tecnologia, ma anche i rischi che comporta. Uno dei paragrafi di questo articolo è stato scritto da chatGPT in risposta a un nostro prompt. Sapreste dire quale?

Il modello di intelligenza artificiale per la generazione automatica di testi sviluppato da OpenAI ha stupito il mondo per le sue capacità di scrittura. A due mesi dal lancio sono chiari i possibili utilizzi della tecnologia, ma anche i rischi che comporta.

A fine novembre la startup OpenAI, una delle più promettenti nel settore dell’Intelligenza Artificiale, ha lanciato chatGPT, un chatbot intelligente capace di generare testi di alta qualità, in molti casi del tutto indistinguibili da quelli scritti da un umano. ChatGPT è basato su GPT-3, la terza versione del modello linguistico di grandi dimensioni di OpenAI. La startup, che fino a pochi mesi fa era sconosciuta ai più, è in realtà un attore importante nel settore dell’Intelligenza Artificiale già da qualche anno. Fondata nel 2015 dall’imprenditore tech Sam Altman assieme a Elon Musk (che ora non fa più parte del progetto), Reid Hoffman (CEO di LinkedIn), Jessica Livingston e Peter Thiel, ha attirato da subito l’attenzione dei grandi del tech. Microsoft, in particolare, ha creduto nel progetto fin dal 2018, quando ha stanziato 1 miliardo di dollari per siglare una partnership con l’azienda. A fine gennaio la casa di Redmond ha confermato l’ampliamento della partnership con un ulteriore investimento di 10 miliardi di dollari e l’intenzione di portare la tecnologia di OpenAI all’interno della suite Office.

ChatGPT non è limitato alla sola creazione di testi che possono sembrare opera di un umano, ma sa anche scrivere codice, imitare stili e formati specifici di scrittura (dai comunicati stampa alla poesia) e tradurre testi in varie lingue (anche l’italiano).

Questa versatilità, unita alla diffusione e alla semplicità di accesso, ha avuto il merito di aprire il mondo delle AI generative a un numero mai così ampio di persone, incluso chi finora dell’intelligenza artificiale aveva solo avvertito gli echi lontani. Allo stesso tempo per le medesime ragioni, nonostante i paletti imposti dalla policy sui contenuti di OpenAI, ChatGPT porta con sé una serie di rischi da non sottovalutare. Non solo legati all’uso malevolo che si può fare con i testi prodotti dal modello, ma anche per il suo impatto sulla diffusione dell’informazione (e della disinformazione) in rete.

Sa programmare (anche il malware)

Una delle qualità più sorprendenti di ChatGPT è la capacità di scrivere codice corretto e funzionante. Spesso il modello non capisce del tutto la richiesta dell’utente, ma con pochi aggiustamenti è in grado di creare un output di alta qualità. Se questa funzionalità è di straordinario aiuto ai programmatori, che possono adoperare il modello per velocizzare la scrittura del codice, è tuttavia capace di coadiuvare anche nella realizzazione di programmi malevoli. Come mostrato dagli esperti di cybersicurezza di Check Point Research, i criminali informatici hanno già iniziato ad usare efficacemente ChatGPT per creare malware e script malevoli perfettamente funzionanti, o per coadiuvare operazioni illecite nel dark web, come la creazione di piattaforme di scambio. Per aggirare i controlli imposti da OpenAI contro questo tipo di utilizzo del modello basta formulare le richieste spezzettando le operazioni da eseguire in modo da offuscare lo scopo del programma nel suo complesso.

Email di Phishing senza errori

Una tecnologia di AI generativa come chatGPT può essere utilizzata per generare testo, come ad esempio email di phishing, che non presenti errori di ortografia. Il modello di AI generativo è addestrato su un corpus di testo legittimo, come email di lavoro o di vendita, e quindi è in grado di generare nuovo testo che segue lo stesso stile e la stessa struttura del testo originale. In questo modo, l’email generata dall’AI può sembrare più credibile e meno sospetta rispetto a un’email di phishing scritta a mano che potrebbe contenere errori di ortografia. Tuttavia, è importante notare che l’utilizzo di questa tecnologia può anche rendere più difficile rilevare le email di phishing in quanto sembrano più legittime.

Ingegneria sociale senza fatica

Allo stesso modo, chatGPT può essere d’aiuto a truffatori e cybercriminali per generare script e testi per operazioni di ingegneria sociale, vale a dire l’insieme di metodi che hanno come scopo la sottrazione di dati e informazioni private attraverso varie forme d’inganno telematico.Grazie alle capacità di chatGPT, i malintenzionati possono elaborare testi da inviare per email o leggere telefonicamente tramite modelli di text-to-speech, anche in lingue che non conoscono direttamente e con formati e stili che ben si adattano all’ambito professionale in cui viene condotta l’operazione. Si tratta in questo caso di un uso malevolo indiretto e più difficile da limitare in maniera programmatica da parte di OpenAI. Tuttavia per un’operazione efficace di ingegneria sociale è comunque necessario un livello di conoscenza pregressa e di esperienza al quale (per fortuna) ChatGPT non può ancora sopperire.

È convincente anche quando dice sciocchezze

I due punti precedenti sono aggravati dallo stile assai convincente che chatGPT impiega nella formulazione di qualsiasi risposta, anche quelle che contengono errori palesi o informazioni del tutto sbagliate. Nella maggior parte dei casi questa attitudine del software genera più che altro risultati ilari, ma non è una tendenza completamente innocua. In particolare può essere sfruttata da eventuali malintenzionati proprio per scrivere testi che, pur contenendo informazioni del tutto false, risultino parimenti convincenti in virtù del modo in cui sono scritti.

Può contribuire alla diffusione della disinformazione

La facilità con cui si possono creare grandi quantitativi di testo in tempo brevissimo fa infine di chatGPT un alleato perfetto per i creatori di botnet e di account falsi su social network come Facebook o Twitter. In particolare il modello di OpenAI può facilitare il lavoro di chi gestisce reti di bot allo scopo di diffondere disinformazione e seminare dissenso nell’opinione pubblica di paesi nemici. Usi di questo tipo non sono ancora stati rilevati pubblicamente, ma gli esperti di settore lo considerano uno sviluppo inevitabile, se non altro per il rapporto costi/benefici che questo tipo di “bad actors” potrebbe ricavare dall’uso di modelli di linguaggio naturale come chatGPT rispetto all’impiego di operatori umani.

Uno dei paragrafi di questo articolo è stato scritto da chatGPT in risposta a un nostro prompt. Sapreste dire quale?

Condividi Articolo