L'intelligenza artificiale (AI) è pericolosa?
Pubblicato: 2023-05-31Lunedì 22 maggio 2023, un account Twitter verificato chiamato "Bloomberg Feed" ha condiviso un tweet affermando che c'era stata un'esplosione al Pentagono, accompagnato da un'immagine. Se ti stai chiedendo cosa abbia a che fare con l'intelligenza artificiale (AI), l'immagine è stata generata dall'intelligenza artificiale, con il tweet che è diventato rapidamente virale e ha provocato un breve calo del mercato azionario. Le cose sarebbero potute andare molto peggio: un duro promemoria dei pericoli dell'intelligenza artificiale.
I pericoli dell'intelligenza artificiale
Non è solo una notizia falsa di cui dobbiamo preoccuparci. Ci sono molti rischi immediati o potenziali associati all'intelligenza artificiale, da quelli riguardanti la privacy e la sicurezza a problemi di pregiudizio e copyright. Ci immergeremo in alcuni di questi pericoli dell'intelligenza artificiale, vedremo cosa si sta facendo per mitigarli ora e in futuro e chiederemo se i rischi dell'IA superano i benefici.
Notizie false
Ai tempi in cui i deepfake sono arrivati per la prima volta, sono sorte preoccupazioni sul fatto che potessero essere utilizzati con cattive intenzioni. Lo stesso si potrebbe dire per la nuova ondata di generatori di immagini AI, come DALL-E 2, Midjourney o DreamStudio. Il 28 marzo 2023, false immagini generate dall'intelligenza artificiale di Papa Francesco in un piumino bianco Balenciaga e che si godeva diverse avventure, tra cui lo skateboard e il gioco del poker, sono diventate virali. A meno che non si studiassero da vicino le immagini, era difficile distinguerle dalla realtà.
Mentre l'esempio con il papa è stato indubbiamente un po' divertente, l'immagine (e il tweet di accompagnamento) sul Pentagono è stato tutt'altro. Le immagini false generate dall'intelligenza artificiale hanno il potere di danneggiare la reputazione, porre fine a matrimoni o carriere, creare disordini politici e persino iniziare guerre se utilizzate dalle persone sbagliate: in breve, queste immagini generate dall'IA hanno il potenziale per essere estremamente pericolose se utilizzate in modo improprio.
Con i generatori di immagini AI ora disponibili gratuitamente per chiunque e Photoshop che aggiunge un generatore di immagini AI al suo popolare software, l'opportunità di manipolare immagini e creare notizie false è più grande che mai.
Privacy, sicurezza e hacking
La privacy e la sicurezza sono anche grandi preoccupazioni quando si tratta dei rischi dell'intelligenza artificiale, con un certo numero di paesi che stanno già vietando il ChatGPT di OpenAI. L'Italia ha vietato il modello per motivi di privacy, ritenendo che non sia conforme al Regolamento generale europeo sulla protezione dei dati (GDPR), mentre i governi di Cina, Corea del Nord e Russia lo hanno vietato per timore che diffondesse disinformazione.
Allora perché siamo così preoccupati per la privacy quando si tratta di IA? Le app e i sistemi di intelligenza artificiale raccolgono grandi quantità di dati per apprendere e fare previsioni. Ma come vengono archiviati ed elaborati questi dati? C'è un rischio reale che le violazioni dei dati, l'hacking e le informazioni finiscano nelle mani sbagliate.
Non sono solo i nostri dati personali a essere a rischio. L'hacking dell'intelligenza artificiale è un vero rischio: non è ancora accaduto, ma se coloro che hanno intenti malevoli potessero hackerare i sistemi di intelligenza artificiale, ciò potrebbe avere gravi conseguenze. Ad esempio, gli hacker potrebbero controllare veicoli senza conducente, hackerare i sistemi di sicurezza IA per ottenere l'accesso a luoghi altamente sicuri e persino hackerare sistemi di armi con sicurezza IA.
Gli esperti della DARPA (Defence Advanced Research Projects Agency) del Dipartimento della Difesa degli Stati Uniti riconoscono questi rischi e stanno già lavorando al progetto Garanting AI Robustness Against Deception (GARD) della DARPA, affrontando il problema da zero. L'obiettivo del progetto è garantire che la resistenza all'hacking e alla manomissione sia integrata negli algoritmi e nell'intelligenza artificiale.
Violazione del copyright
Un altro dei pericoli dell'intelligenza artificiale è la violazione del copyright. Questo potrebbe non sembrare così grave come alcuni altri pericoli che abbiamo menzionato, ma lo sviluppo di modelli di intelligenza artificiale come GPT-4 espone tutti a un rischio maggiore di violazione.
Ogni volta che chiedi a ChatGPT di creare qualcosa per te, che si tratti di un post sul blog sui viaggi o di un nuovo nome per la tua attività, gli fornisci informazioni che poi utilizza per rispondere a domande future. Le informazioni che ti vengono restituite potrebbero violare il copyright di qualcun altro, motivo per cui è così importante utilizzare un rilevatore di plagio e modificare qualsiasi contenuto creato da AI prima di pubblicarlo.
Bias della società e dei dati
L'intelligenza artificiale non è umana, quindi non può essere prevenuta, giusto? Sbagliato. Le persone e i dati vengono utilizzati per addestrare modelli di intelligenza artificiale e chatbot, il che significa che dati o personalità distorti si tradurranno in un'IA distorta. Esistono due tipi di bias nell'IA: bias della società e bias dei dati.
Con molti pregiudizi presenti nella società di tutti i giorni, cosa succede quando questi pregiudizi diventano parte dell'IA? I programmatori responsabili dell'addestramento del modello potrebbero avere aspettative distorte, che poi si fanno strada nei sistemi di intelligenza artificiale.
Oppure i dati utilizzati per addestrare e sviluppare un'intelligenza artificiale potrebbero essere errati, distorti o raccolti in malafede. Ciò porta al pregiudizio dei dati, che può essere pericoloso quanto il pregiudizio della società. Ad esempio, se un sistema per il riconoscimento facciale viene addestrato utilizzando principalmente i volti dei bianchi, potrebbe avere difficoltà a riconoscere quelli appartenenti a gruppi minoritari, perpetuando l'oppressione.
Robot che prendono il nostro lavoro
Lo sviluppo di chatbot come ChatGPT e Google Bard ha aperto una nuova preoccupazione per l'intelligenza artificiale: il rischio che i robot prendano il nostro lavoro. Stiamo già vedendo scrittori nel settore tecnologico sostituiti dall'intelligenza artificiale, sviluppatori di software preoccupati di perdere il lavoro a causa dei robot e aziende che utilizzano ChatGPT per creare contenuti di blog e contenuti di social media piuttosto che assumere scrittori umani.
Secondo il rapporto The Future of Jobs 2020 del World Economic Forum, l'intelligenza artificiale dovrebbe sostituire 85 milioni di posti di lavoro in tutto il mondo entro il 2025. Anche se l'intelligenza artificiale non sostituisce gli scrittori, viene già utilizzata come strumento da molti. Coloro che svolgono lavori a rischio di essere sostituiti dall'intelligenza artificiale potrebbero dover adattarsi per sopravvivere: ad esempio, gli scrittori possono diventare ingegneri dell'intelligenza artificiale, consentendo loro di lavorare con strumenti come ChatGPT per la creazione di contenuti anziché essere sostituiti da questi modelli.
Potenziali rischi futuri per l'IA
Questi sono tutti rischi immediati o incombenti, ma per quanto riguarda alcuni dei pericoli meno probabili ma ancora possibili dell'IA che potremmo vedere in futuro? Questi includono cose come l'intelligenza artificiale programmata per danneggiare gli esseri umani, ad esempio armi autonome addestrate per uccidere durante una guerra.
Poi c'è il rischio che l'IA possa concentrarsi risolutamente sul suo obiettivo programmato, sviluppando comportamenti distruttivi mentre tenta di raggiungere quell'obiettivo a tutti i costi, anche quando gli umani cercano di impedire che ciò accada.
Skynet ci ha insegnato cosa succede quando un'intelligenza artificiale diventa senziente. Tuttavia, anche se l'ingegnere di Google Blake Lemoine potrebbe aver cercato di convincere tutti che LaMDA, il generatore di chatbot artificialmente intelligente di Google era senziente nel giugno 2022, per fortuna non ci sono prove fino ad oggi per suggerire che sia vero.
Le sfide della regolamentazione dell'IA
Lunedì 15 maggio 2020, il CEO di OpenAI Sam Altman ha partecipato alla prima udienza del Congresso sull'intelligenza artificiale, avvertendo: "Se questa tecnologia va male, può andare molto male". Il CO di OpenAI ha chiarito che è favorevole alla regolamentazione e ha portato molte delle sue idee all'udienza. Il problema è che l'intelligenza artificiale si sta evolvendo a una tale velocità che è difficile sapere da dove iniziare con la regolamentazione.
Il Congresso vuole evitare di commettere gli stessi errori commessi all'inizio dell'era dei social media e un team di esperti insieme al leader della maggioranza al Senato Chuck Schumer sta già lavorando a regolamenti che richiederebbero alle aziende di rivelare quali fonti di dati hanno utilizzato per addestrare i modelli e chi li ha addestrati. Tuttavia, potrebbe passare del tempo prima che diventi chiaro esattamente come verrà regolamentata l'IA e senza dubbio ci saranno reazioni contrarie da parte delle società di intelligenza artificiale.
La minaccia di un'intelligenza generale artificiale
C'è anche il rischio della creazione di un'intelligenza generale artificiale (AGI) in grado di svolgere qualsiasi compito che un essere umano (o un animale) potrebbe svolgere. Spesso menzionato nei film di fantascienza, probabilmente siamo ancora lontani decenni da una tale creazione, ma se e quando creeremo un AGI, potrebbe rappresentare una minaccia per l'umanità.
Molte figure pubbliche sostengono già la convinzione che l'intelligenza artificiale rappresenti una minaccia esistenziale per gli esseri umani, tra cui Stephen Hawking, Bill Gates e persino l'ex CEO di Google Eric Schmidt, che ha dichiarato: "L'intelligenza artificiale potrebbe comportare rischi esistenziali e i governi devono sapere come assicurarsi la tecnologia non viene utilizzata in modo improprio da persone malvagie.
Quindi, l'intelligenza artificiale è pericolosa e il suo rischio supera i suoi benefici? La giuria è ancora fuori su quello, ma stiamo già vedendo le prove di alcuni dei rischi che ci circondano in questo momento. È meno probabile che altri pericoli si realizzino presto, se non del tutto. Una cosa è chiara, però: i pericoli dell'IA non devono essere sottovalutati. È della massima importanza garantire che l'IA sia adeguatamente regolamentata fin dall'inizio, per ridurre al minimo e, si spera, mitigare eventuali rischi futuri.