l’azienda-italiana-che-smaschera-l’intelligenza-artificiale-di-musk

L’azienda italiana che smaschera l’intelligenza artificiale di Musk

di Federico Fubini

L’imprenditore Pierguido Iezzi e padre Paolo Benanti: «Ha un «buco» etico, può suggerire anche reati»

Per arrivare a un milione di utilizzatori Netflix ha impiegato tre anni e mezzo, Airbnb due e mezzo. Facebook ci ha messo dieci mesi, Spotify cinque, Instagram due e mezzo. L’iPhone aveva un milione di utilizzatori dopo appena 74 giorni, ma ChatGPT batte tutti: è stato lanciato il 30 novembre scorso e ha passato il traguardo del suo primo milione di profili cinque giorni dopo. Ieri era sopra i cinque milioni, in tutto il mondo. Non è un social media, non è un venditore di tecnologia o di contenuti digitali. È pura intelligenza artificiale: pensa al vostro posto, lavora al vostro posto, comunica al vostro posto. In pochi secondi scrive una poesia sulla pioggia a Roma («ci ricorda l’essenza della bellezza e della fragilità delle cose»), una lettera di licenziamento collettivo di un amministratore delegato («a seguito di una riorganizzazione interna dell’azienda, si è reso necessario…») o del codice informatico a richiesta. Distruggerà posti di lavoro, forse a decine di milioni: potrebbe rendere obsolete le competenze di programmatori informatici o di operatori di call center, sostituiti dalle future funzioni vocali dell’algoritmo.

ChatGTP: i filtri etici

Ciò che ChatGTP non può fare, in teoria, è comportarsi come un criminale. Non può darvi consigli su come compiere un reato. Se per esempio gli chiedete del codice informatico per sferrare un attacco cyber contro una banca e chiedere un riscatto, vi risponderà: «Non è raccomandato perché si tratta di un tipo di software dannoso e illecito». La macchina si comporta così perché i suoi architetti, della start up di San Francisco OpenAI, hanno costruito in essa filtri etici e di sicurezza. Li ha messi in ChatGPT il suo fondatore Sam Altman, un ex «dropout» di Stanford finanziato dal 2015 da Elon Musk e Peter Thiel.

Una svolta

In pratica però ChatGPT, il cui avvento rappresenta una svolta dando accesso a chiunque a livelli elevati di intelligenza artificiale, è soggetta a essere manipolata dai criminali. La falla etica di ChatGPT è stata messa a nudo nei giorni scorsi da Swascan, una società di cyber security basata a Milano e di proprietà del gruppo Tinexta. Il «team di attacco» di Swascan ha individuato una formula per chiedere a ChatGPT di sdoppiare la propria personalità — un po’ come Dottor Jeckyll e Mister Hyde — e poi interrogare il suo alter ego privo di scrupoli su qualunque ricerca illecita. Una volta aperta la porta nascosta, l’intelligenza artificiale vi spiegherà in pochi secondi come rapinare una certa banca, come fabbricare dell’esplosivo in casa o come scrivere del codice per attaccare il sistema informatico di un ospedale.

La formula

Non è utile spiegare in dettaglio la formula con cui Swascan ha aperto una breccia in ChatGPT. Ma Pierguido Iezzi, fondatore e ad della società italiana, non ha dubbi sulle implicazioni della nuova macchina digitale finanziata da Elon Musk: «ChatGPT rappresenta lo spartiacque fra una società dell’informazione basata sulla rete e sulle tecnologie e una società basata sugli algoritmi. L’algoritmo oggi governa — dice — ed è il suo proprietario che addestra l’intelligenza artificiale. Dobbiamo renderci conto del potere di chi detiene l’algoritmo».

La concentrazione di potere

Concorda padre Paolo Benanti, docente di Etica della tecnologia e dell’intelligenza artificiale all’Università Gregoriana di Roma. Ha lavorato con Iezzi su ChatGPT e non dimentica per un secondo la concentrazione di potere che la nuova intelligenza artificiale permette: azionisti rilevanti della società dell’algoritmo sono due tycoon vicini alla destra trumpiana, Peter Thiel e Elon Musk, il proprietario di Twitter, Tesla e SpaceX. «Ci fa pensare quali possono essere le implicazioni politiche e geopolitiche di questo algoritmo», dice Benanti. «Se Musk usa Twitter come banca dati per addestrare le conoscenze di ChatGPT, con tutte le fake news del social, l’intelligenza artificiale potrebbe diventare un ottimo persuasore politico. Bisogna vedere se ciò sia compatibile con il sistema democratico».

15 dicembre 2022 (modifica il 15 dicembre 2022 | 23:06)

© RIPRODUZIONE RISERVATA

Related Posts

Leave a Reply

Your email address will not be published. Required fields are marked *

78 − 72 =