OpenAI funziona su GPT-5?
Pubblicato: 2023-04-17Risposta rapida: No, OpenAI non funziona su GPT-5 e probabilmente non lo sarà per un po'. La continua attenzione di OpenAI nel perfezionamento delle capacità di GPT-4.
In un recente evento del MIT che discuteva delle sfide e dei potenziali pericoli dei sistemi di intelligenza artificiale, il CEO e co-fondatore di OpenAI, Sam Altman, è salito sul palco tramite un collegamento video virtuale.
Altman ha indirizzato una lettera aperta circolante che esortava le istituzioni, tra cui OpenAI, a sospendere qualsiasi ulteriore sistema di intelligenza artificiale che crei sistemi di intelligenza artificiale oltre le capacità di GPT-4.
La lettera è stata firmata da persone tra cui Elon Musk, il co-fondatore di Apple Steve Wozniak e altri. Puoi leggere la lettera qui o tramite il menu a tendina sottostante:
I sistemi di intelligenza artificiale con intelligenza competitiva umana possono comportare gravi rischi per la società e l'umanità, come dimostrato da ricerche approfondite e riconosciuto dai migliori laboratori di intelligenza artificiale. Come affermato nei Principi Asilomar AI ampiamente approvati, l'IA avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cure e risorse adeguate .
Sfortunatamente, questo livello di pianificazione e gestione non sta accadendo, anche se negli ultimi mesi i laboratori di intelligenza artificiale sono stati bloccati in una corsa fuori controllo per sviluppare e implementare menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, può capire, prevedere o controllare in modo affidabile.
I sistemi di intelligenza artificiale contemporanei stanno ora diventando competitivi per l'uomo in compiti generali e dobbiamo chiederci: dovremmo lasciare che le macchine inondino i nostri canali di informazioni con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero essere più numerose, superate in astuzia, obsolete e sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà? Tali decisioni non devono essere delegate a leader tecnologici non eletti.
Potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili. Questa fiducia deve essere ben giustificata e aumentare con l'entità degli effetti potenziali di un sistema. La recente dichiarazione di OpenAI sull'intelligenza artificiale generale afferma che "Ad un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri e, per gli sforzi più avanzati, concordare di limitare il tasso di crescita del calcolo utilizzato per creare nuovi Modelli." Siamo d'accordo. Quel punto è adesso.
Pertanto, invitiamo tutti i laboratori di intelligenza artificiale a sospendere immediatamente per almeno 6 mesi l'addestramento di sistemi di intelligenza artificiale più potenti di GPT-4 . Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori chiave. Se una tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria.
I laboratori di intelligenza artificiale e gli esperti indipendenti dovrebbero sfruttare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo avanzati di intelligenza artificiale, rigorosamente verificati e supervisionati da esperti esterni indipendenti. Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano sicuri oltre ogni ragionevole dubbio. Ciò non significa una pausa nello sviluppo dell'IA in generale, ma semplicemente un passo indietro dalla pericolosa corsa a modelli black-box sempre più grandi e imprevedibili con capacità emergenti.
La ricerca e lo sviluppo dell'IA dovrebbero essere riorientati per rendere i sistemi potenti e all'avanguardia di oggi più accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali.
Parallelamente, gli sviluppatori di intelligenza artificiale devono collaborare con i responsabili politici per accelerare drasticamente lo sviluppo di solidi sistemi di governance dell'IA. Questi dovrebbero come minimo includere: autorità di regolamentazione nuove e capaci dedicate all'IA; supervisione e tracciamento di sistemi di intelligenza artificiale altamente capaci e ampi pool di capacità computazionali; sistemi di provenienza e watermarking per aiutare a distinguere il reale dal sintetico e per tenere traccia delle fughe di modelli; un solido ecosistema di audit e certificazione; responsabilità per danni causati dall'IA; solidi finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell'IA; e istituzioni dotate di risorse adeguate per far fronte alle drammatiche perturbazioni economiche e politiche (soprattutto per la democrazia) che l'IA causerà.
L'umanità può godere di un futuro fiorente con l'IA. Dopo essere riusciti a creare potenti sistemi di intelligenza artificiale, ora possiamo goderci una "estate dell'IA" in cui raccogliamo i frutti, progettiamo questi sistemi per il chiaro vantaggio di tutti e diamo alla società la possibilità di adattarsi. La società ha messo in pausa altre tecnologie con effetti potenzialmente catastrofici sulla società. Possiamo farlo qui. Godiamoci una lunga estate AI, non precipitiamoci impreparati in una caduta.
Altman ha criticato la lettera per aver opportunamente saltato alcuni dettagli importanti e per come una versione precedente abbia diffuso voci secondo cui OpenAI stava già addestrando GPT-5. Ma questo fa sorgere una domanda giusta, vero?
OpenAI funziona su GPT-5?
Risposta breve: No
Attualmente, OpenAI non funziona su GPT-5 "e non lo farà per un po' di tempo", ha detto Altman rivolgendosi alla lettera. Altman ha affermato che lo sviluppo di GPT-5 non è nella sua agenda attuale.
Detto questo, Altman ha sottolineato la continua attenzione di OpenAI al perfezionamento delle capacità di GPT-4 e alla risoluzione di potenziali problemi di sicurezza non menzionati nella lettera aperta.
Guarda il video con la conversazione qui sotto:
"Stiamo facendo altre cose oltre a GPT-4 che penso abbiano tutti i tipi di problemi di sicurezza che è importante affrontare e che sono stati totalmente esclusi dalla lettera", ha osservato Altman, riferendosi ai plug-in GPT-4 che consentono il modello di linguaggio di grandi dimensioni per navigare in internet.
Per ora, concentriamoci su GPT-4
E questo da solo è un altro problema. Sebbene ci sia la possibilità di un annuncio GPT-5 in futuro, dobbiamo concentrarci su ciò di cui GPT-4 è pienamente capace. Non abbiamo ancora visto tutte le sue capacità.
"Man mano che le capacità diventano sempre più serie, la barra di sicurezza deve aumentare", ha aggiunto Altman. “Penso che muoversi con cautela e un crescente rigore per i problemi di sicurezza sia davvero importante. La lettera, non credo sia il modo ottimale per affrontarla.
Anche se OpenAI non si sta attualmente concentrando sulla formazione GPT-5, ciò non significa che non stiano creando altri strumenti audaci e innovativi.
Anche se al momento OpenAI potrebbe non concentrarsi su GPT-5, sono attivamente coinvolti nella creazione di vari strumenti per spingere i confini dell'intelligenza artificiale.
Hai qualche idea su questo? Scrivici una riga qui sotto nei commenti o trasferisci la discussione sul nostro Twitter o Facebook.
Raccomandazioni della redazione:
- ChatGPT e altre IA linguistiche sono irrazionali quanto noi
- ChatGPT può fare il tuo lavoro? OpenAI dice di sì, almeno il 19% di voi
- Il bug di ChatGPT ha definitivamente rivelato le tue pigre abitudini di scrittura (aggiornato)
- L'assistente alla scrittura GPT di Linkedin ti aiuta a inchiodare il tuo profilo