Cos'è l'orologio del giudizio universale e in che modo l'intelligenza artificiale lo influenza?

Pubblicato: 2024-01-24

Gli scienziati hanno confermato questa settimana che l'orologio dell'apocalisse rimarrà a 90 secondi a mezzanotte per il secondo anno consecutivo.

L’orologio dell’apocalisse è una metafora di quanto gli esseri umani siano vicini alla distruzione del mondo ed è stato spostato l’ultima volta più vicino alla mezzanotte – il suo punto finale simbolico – nel 2023, a causa delle preoccupazioni sul clima e della guerra in Ucraina.

Il Bulletin of Atomic Scientists, che fissa l’ora ogni anno, ha dichiarato che dovrà rimanere a 90 secondi nonostante la guerra a Gaza, un altro anno più caldo mai registrato e, cosa interessante, le crescenti preoccupazioni sull’intelligenza artificiale .

Diamo un'occhiata a cos'è esattamente il Doomsday Clock e come l'intelligenza artificiale lo sta facendo avvicinare all'annientamento.

Cos'è l'orologio del giudizio universale?

Sviluppato per la prima volta nel 1947 da J. Robert Oppenheimer e dai suoi colleghi scienziati che svilupparono la bomba atomica, il Doomsday Clock descrive quanto l'umanità sia vicina alla totale distruzione. È stato creato per fare pressione sui leader globali affinché assicurassero che le armi nucleari non venissero mai più utilizzate, in seguito agli effetti devastanti della Seconda Guerra Mondiale.

A partire da sette minuti a mezzanotte, le lancette dell’orologio si sono spostate 25 volte in totale, tornando addirittura a 17 minuti a mezzanotte dopo la fine della Guerra Fredda nel 1991.

La guerra è il fattore chiave dietro gran parte del calcolo dell’orologio. Martedì, il Bollettino ha affermato che la Cina, la Russia e gli Stati Uniti, espandendo e modernizzando le loro armi nucleari, hanno aggravato il “pericolo sempre presente di una guerra nucleare a causa di errori o calcoli errati”. Allo stesso modo, anche la guerra in Ucraina ha creato un “rischio sempre presente di escalation nucleare”.

Tuttavia, gli strumenti di intelligenza artificiale sono stati citati anche come motivo per cui l’orologio rimane il più vicino che sia mai stato all’Armageddon.

Logo Surfshark Vuoi navigare sul Web in privato? O apparire come se fossi in un altro paese?
Ottieni un enorme sconto dell'86% su Surfshark con questa offerta speciale di tech.co. Vedi il pulsante offerta

In che modo l'intelligenza artificiale influisce sul conto alla rovescia?

I membri del Bulletin of Atomic Scientists hanno incluso i rischi causati dall’uomo, come l’intelligenza artificiale, nei loro calcoli a partire dal 2007.

Tuttavia, grazie ai rapidi e straordinari progressi nella tecnologia dell'intelligenza artificiale generativa, con chatbot come ChatGPT di OpenAI che sembrano fare notizia a giorni alterni, la sua menzione significativa nell'elenco di quest'anno non sorprende.

Nel Bollettino si legge: “Evidenziamo una questione di particolare preoccupazione: la convergenza degli strumenti emergenti di intelligenza artificiale e delle tecnologie biologiche [che] potrebbero radicalmente consentire agli individui di abusare della biologia”.

Le aziende e le organizzazioni stanno raccogliendo i frutti dell’intelligenza artificiale e dei grandi modelli linguistici, grazie al loro aiuto per aumentare la produttività e ridurre al minimo gli errori. Anche il settore sanitario sta riscontrando un effetto positivo dell’intelligenza artificiale con una maggiore efficienza nella diagnosi. Ma cosa dà esattamente motivo di preoccupazione agli scienziati atomici?

Secondo la dichiarazione di Doomsday Clock :

“La preoccupazione è che i modelli linguistici di grandi dimensioni consentano a individui che altrimenti non avrebbero un know-how sufficiente di identificare, acquisire e utilizzare agenti biologici che danneggerebbero un gran numero di esseri umani, animali, piante e altri elementi dell’ambiente”.

Inoltre, l’imprevedibilità dell’intelligenza artificiale generativa, oltre al suo potenziale di corrompere le informazioni e amplificare la disinformazione, sono tutte minacce alla democrazia, che a loro volta possono avere un forte impatto sul modo in cui gestiamo i rischi nucleari, le pandemie e il cambiamento climatico.

Parlando da un punto di vista tecnologico, c’è una scala molto variabile nel modo in cui l’intelligenza artificiale influisce anche sul settore.

Prendiamo l’esempio dannoso per gli affari ma in definitiva innocuo del chatbot online di DPD, che è stato facilmente manipolato per criticare se stesso e l’azienda. Sebbene non sia devastante su larga scala, è un errore imbarazzante che può significare perdite monetarie per le aziende.

Dall’altro lato della scala c’è il rischio per la vita. L'anno scorso Tesla è stata costretta a richiamare oltre due milioni di veicoli a causa di un malfunzionamento del pilota automatico . Ciò era dovuto a una serie di incidenti che includevano due auto separate che si schiantavano nella parte posteriore di un'autopompa parcheggiata e di un'auto della polizia.

Gli scienziati atomici hanno affermato che “i progressi nell’intelligenza artificiale e nell’ingegneria genetica, ad esempio, hanno un potenziale enorme, ma comportano anche rischi considerevoli a seconda di come queste tecnologie vengono utilizzate”.

Le normative sull’intelligenza artificiale potrebbero essere d’aiuto?

Lo scopo principale del Doomsday Clock è quello di aumentare la consapevolezza e, si spera, evidenziare le questioni globali per stimolare l’azione tra politici, leader mondiali e cittadini.

Rachel Bronson, presidente e amministratore delegato del Bulletin of the Atomic Scientists, ha spiegato: “Ci sono due messaggi chiave nella nostra dichiarazione e sono uno: che 90 secondi a mezzanotte sono profondamente instabili e non devono generare autocompiacimento e due: il progresso della tecnologia sta accelerando e superando la nostra capacità di governarli”.

Ciò significa che le “nuove tecnologie dirompenti” come l’intelligenza artificiale dovrebbero essere gestite con leggi e regolamenti adeguati.

Nel mese di ottobre, il presidente degli Stati Uniti Joe Biden ha firmato un ordine esecutivo su “un’intelligenza artificiale sicura, protetta e affidabile” che chiede protezione “contro i rischi derivanti dall’utilizzo dell’intelligenza artificiale per progettare materiali biologici pericolosi sviluppando nuovi e forti standard per lo screening della sintesi biologica”. Sebbene non sia giuridicamente vincolante, questa mossa è un passo nella giusta direzione.

Allo stesso modo, molti paesi in tutto il mondo stanno riconoscendo il potenziale dannoso dell’intelligenza artificiale e stanno adottando normative di mitigazione. Ciò include un quadro normativo proposto dall’Unione Europea, una dichiarazione internazionale per affrontare i rischi dell’intelligenza artificiale e la formazione di un nuovo organo consultivo delle Nazioni Unite.

Per assicurarti di utilizzare personalmente l'intelligenza artificiale nel modo più efficace e sicuro, assicurati di comprendere appieno i limiti e i rischi di ogni strumento di intelligenza artificiale generativa con cui lavori. Ciò ti consentirà di controllare meglio il loro utilizzo e, si spera, di aiutare a tenere a bada il ticchettio del tempo.