Le sfide dell’intelligenza artificiale nel 2024: approfondimenti di 3 importanti ricercatori sull’intelligenza artificiale
Pubblicato: 2024-01-13Il 2023 è stato un punto di svolta nell’evoluzione dell’intelligenza artificiale e del suo ruolo nella società.
L’anno ha visto l’emergere dell’intelligenza artificiale generativa, che ha spostato la tecnologia dall’ombra al centro della scena nell’immaginario pubblico. Ha anche visto il dramma del consiglio di amministrazione di una startup di intelligenza artificiale dominare il ciclo delle notizie per diversi giorni.
E ha visto l’amministrazione Biden emettere un ordine esecutivo e l’Unione Europea approvare una legge volta a regolamentare l’intelligenza artificiale, mosse forse meglio descritte come un tentativo di imbrigliare un cavallo che sta già galoppando.
Abbiamo riunito un gruppo di studiosi di intelligenza artificiale per guardare al 2024 e descrivere i problemi che gli sviluppatori, i regolatori e le persone comuni dell'IA probabilmente dovranno affrontare, e per fornire le loro speranze e raccomandazioni.
Casey Fiesler, professore associato di scienza dell'informazione, Università del Colorado Boulder
Il 2023 è stato l’anno dell’hype sull’IA. Indipendentemente dal fatto che la narrazione fosse che l’intelligenza artificiale avrebbe salvato il mondo o lo avrebbe distrutto, spesso sembrava che le visioni di ciò che l’intelligenza artificiale avrebbe potuto essere un giorno avrebbero sopraffatto la realtà attuale.
E anche se penso che anticipare i danni futuri sia una componente fondamentale per superare il debito etico nella tecnologia, farsi travolgere troppo dall’hype rischia di creare una visione dell’intelligenza artificiale che sembra più magica che una tecnologia che può ancora essere modellata da scelte esplicite.
Ma assumere il controllo richiede una migliore comprensione di tale tecnologia.
Uno dei principali dibattiti sull’intelligenza artificiale del 2023 riguardava il ruolo di ChatGPT e di chatbot simili nell’istruzione.
In questo periodo, l'anno scorso, i titoli più rilevanti si concentravano su come gli studenti potrebbero usarlo per imbrogliare e su come gli insegnanti si sforzassero di impedirgli di farlo, in modi che spesso fanno più male che bene.
Tuttavia, con il passare dell’anno, si è riconosciuto che l’incapacità di insegnare agli studenti l’intelligenza artificiale avrebbe potuto metterli in una posizione di svantaggio, e molte scuole hanno revocato i loro divieti.
Non penso che dovremmo rinnovare l’istruzione per mettere l’intelligenza artificiale al centro di tutto, ma se gli studenti non imparano come funziona l’intelligenza artificiale, non ne capiranno i limiti – e quindi come sia utile e appropriato usarla e come non lo è.
Questo non vale solo per gli studenti. Più le persone capiscono come funziona l’intelligenza artificiale, più avranno il potere di usarla e di criticarla.
Quindi, la mia previsione, o forse la mia speranza, per il 2024 è che ci sarà un’enorme spinta per imparare.
Nel 1966, Joseph Weizenbaum, il creatore del chatbot ELIZA, scrisse che le macchine sono “spesso sufficienti ad abbagliare anche l’osservatore più esperto”, ma che una volta che il loro “funzionamento interno viene spiegato in un linguaggio sufficientemente chiaro da indurre la comprensione, la loro magia si sgretola”. .”
La sfida con l'intelligenza artificiale generativa è che, in contrasto con la metodologia di base di corrispondenza e sostituzione di modelli di ELIZA, è molto più difficile trovare un linguaggio “sufficientemente semplice” per far crollare la magia dell'IA.
Penso che sia possibile far sì che ciò accada. Spero che le università che si stanno affrettando ad assumere più esperti tecnici di intelligenza artificiale si impegnino altrettanto nell’assumere esperti di etica dell’intelligenza artificiale. Spero che i media aiutino a superare l'hype. Spero che ognuno rifletta sui propri usi di questa tecnologia e sulle sue conseguenze.
E spero che le aziende tecnologiche ascoltino le critiche informate nel considerare quali scelte continueranno a plasmare il futuro. Molte delle sfide del prossimo anno hanno a che fare con i problemi dell’intelligenza artificiale che la società sta già affrontando.
Kentaro Toyama, Professore di Informazioni comunitarie, Università del Michigan
Nel 1970, Marvin Minsky, pioniere dell’intelligenza artificiale e scettico delle reti neurali, disse alla rivista Life: “Tra tre e otto anni avremo una macchina con l’intelligenza generale di un essere umano medio”.
Considerando la singolarità, nel momento in cui l’intelligenza artificiale eguaglia e inizia a superare l’intelligenza umana – non ancora del tutto arrivata – si può dire con certezza che Minsky era fuori di almeno un fattore 10. È pericoloso fare previsioni sull’intelligenza artificiale.
Tuttavia, fare previsioni per un anno non sembra altrettanto rischioso. Cosa ci si può aspettare dall’IA nel 2024?
Innanzitutto, la gara è iniziata! I progressi nell’intelligenza artificiale erano stati costanti sin dai tempi del massimo splendore di Minsky, ma il rilascio pubblico di ChatGPT nel 2022 ha dato il via a una competizione a tutto campo per il profitto, la gloria e la supremazia globale.
Aspettatevi un'IA più potente, oltre a una marea di nuove applicazioni AI.
La grande domanda tecnica è quanto presto e con quanta precisione gli ingegneri dell’intelligenza artificiale potranno affrontare l’attuale tallone d’Achille dell’apprendimento profondo – quello che potrebbe essere chiamato ragionamento difficile generalizzato, cose come la logica deduttiva.
Saranno sufficienti modifiche rapide agli algoritmi della rete neurale esistenti o richiederà un approccio fondamentalmente diverso, come suggerisce il neuroscienziato Gary Marcus?
Eserciti di scienziati dell’intelligenza artificiale stanno lavorando su questo problema, quindi mi aspetto qualche progresso nel 2024.
Nel frattempo, anche le nuove applicazioni dell’intelligenza artificiale potrebbero comportare nuovi problemi. Presto potresti iniziare a sentire parlare di chatbot e assistenti AI che parlano tra loro, avendo intere conversazioni per tuo conto ma alle tue spalle.
Alcuni andranno in tilt: comicamente, tragicamente o entrambi.
I deepfake, le immagini e i video generati dall’intelligenza artificiale difficili da rilevare rischiano di dilagare nonostante la nascente regolamentazione, causando danni sempre più squallidi agli individui e alle democrazie ovunque. E probabilmente ci saranno nuove classi di calamità legate all’intelligenza artificiale che non sarebbero state possibili nemmeno cinque anni fa.
A proposito di problemi, proprio le persone che lanciano gli allarmi più forti sull’IA – come Elon Musk e Sam Altman – non sembrano riuscire a trattenersi dal costruire un’IA sempre più potente.
Mi aspetto che continuino a fare sempre la stessa cosa. Sono come piromani che invocano l'incendio che hanno alimentato da soli, implorando le autorità di trattenerli.
E in questo senso, ciò che spero di più per il 2024 – anche se sembra lento ad arrivare – è una regolamentazione più forte dell’IA, a livello nazionale e internazionale.
Anjana Susarla, Professore di Sistemi Informativi, Michigan State University
Nell’anno trascorso dalla presentazione di ChatGPT, lo sviluppo di modelli di intelligenza artificiale generativa continua a un ritmo vertiginoso.
A differenza di ChatGPT di un anno fa, che accettava istruzioni testuali come input e produceva output testuali, la nuova classe di modelli di intelligenza artificiale generativa è addestrata per essere multimodale, il che significa che i dati utilizzati per addestrarli provengono non solo da fonti testuali come Wikipedia e Reddit, ma anche video su YouTube, brani su Spotify e altre informazioni audio e visive.
Con la nuova generazione di modelli multimodali di linguaggio di grandi dimensioni (LLM) che alimentano queste applicazioni, puoi utilizzare input di testo per generare non solo immagini e testo ma anche audio e video.
Le aziende stanno correndo per sviluppare LLM che possano essere implementati su una varietà di hardware e in una varietà di applicazioni, inclusa l'esecuzione di un LLM sul tuo smartphone.
L’emergere di questi LLM leggeri e LLM open source potrebbe inaugurare un mondo di agenti IA autonomi, un mondo per il quale la società non è necessariamente preparata.
Queste funzionalità avanzate di intelligenza artificiale offrono un immenso potere di trasformazione in applicazioni che vanno dal business alla medicina di precisione.
La mia preoccupazione principale è che tali capacità avanzate porranno nuove sfide per distinguere tra contenuti generati dall’uomo e contenuti generati dall’intelligenza artificiale, oltre a porre nuovi tipi di danni algoritmici.
Il diluvio di contenuti sintetici prodotti dall’intelligenza artificiale generativa potrebbe scatenare un mondo in cui persone e istituzioni malintenzionate possono creare identità sintetiche e orchestrare disinformazione su larga scala.
Un’ondata di contenuti generati dall’intelligenza artificiale, pronti a sfruttare filtri algoritmici e motori di raccomandazione, potrebbe presto sopraffare funzioni critiche come la verifica delle informazioni, l’alfabetizzazione informativa e la serendipità fornite dai motori di ricerca, dalle piattaforme di social media e dai servizi digitali.
La Federal Trade Commission ha messo in guardia contro frodi, inganni, violazioni della privacy e altre pratiche sleali consentite dalla facilità della creazione di contenuti assistita dall’intelligenza artificiale.
Sebbene le piattaforme digitali come YouTube abbiano istituito linee guida politiche per la divulgazione di contenuti generati dall’intelligenza artificiale, è necessario un maggiore controllo dei danni algoritmici da parte di agenzie come la FTC e di legislatori che lavorano sulla tutela della privacy come l’American Data Privacy & Protection Act.
Un nuovo disegno di legge bipartisan presentato al Congresso mira a codificare l’alfabetizzazione algoritmica come una parte fondamentale dell’alfabetizzazione digitale.
Con l’intelligenza artificiale sempre più intrecciata con tutto ciò che fanno le persone, è chiaro che è giunto il momento di concentrarsi non sugli algoritmi come elementi tecnologici ma di considerare i contesti in cui operano gli algoritmi: persone, processi e società.
Nota dell'editore: questo articolo è stato scritto da Anjana Susarla, professoressa di sistemi informativi, Michigan State University, Casey Fiesler, professore associato di scienze dell'informazione, Università del Colorado Boulder, Kentaro Toyama, professore di Community Information, Università del Michigan e ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi l'articolo originale.