Etica dell'IA: principi, linee guida e problemi da discutere

Pubblicato: 2023-07-20

I sistemi di intelligenza artificiale e apprendimento automatico sono in fase di sviluppo da decenni. Il recente rilascio di strumenti di intelligenza artificiale generativa disponibili gratuitamente come ChatGPT e Bard, tuttavia, ha sottolineato la necessità di quadri etici complessi per governare sia la loro ricerca che la loro applicazione.

Ci sono una serie di diversi dilemmi etici che le aziende, le istituzioni accademiche e le aziende tecnologiche devono affrontare nel contesto della ricerca e dello sviluppo dell'IA, molti dei quali rimangono senza risposta. Inoltre, l'uso diffuso e l'applicazione dei sistemi di intelligenza artificiale da parte del pubblico in generale porta con sé un'ulteriore serie di problemi che richiedono attenzione etica.

Il modo in cui alla fine finiremo per rispondere a tali domande - e, a sua volta, regolare gli strumenti di intelligenza artificiale - avrà enormi conseguenze per l'umanità. Inoltre, sorgeranno nuovi problemi man mano che i sistemi di intelligenza artificiale diventeranno più integrati nelle nostre vite, case e luoghi di lavoro, motivo per cui l'etica dell'IA è una disciplina così cruciale. In questa guida trattiamo:

  • Che cos'è l'etica dell'IA?
  • Quadri etici esistenti per l'IA
  • Perché l'etica dell'IA deve scolpire la regolamentazione dell'IA
  • Perché l'etica dell'IA è importante?
  • Quali problemi deve affrontare l'etica dell'IA?
  • L'alter-ego di Bing, l'"effetto Waluigi" e la moralità della programmazione
  • AI e sensibilità: le macchine possono avere sentimenti?
  • Etica aziendale dell'IA e utilizzo dell'IA al lavoro

Cos'è l'etica dell'IA?

L'etica dell'IA è un termine usato per definire le serie di linee guida, considerazioni e principi che sono stati creati per informare responsabilmente la ricerca, lo sviluppo e l'utilizzo dei sistemi di intelligenza artificiale.

Nel mondo accademico, l'etica dell'IA è il campo di studio che esamina le questioni morali e filosofiche che derivano dall'uso continuato della tecnologia dell'intelligenza artificiale nelle società, incluso il modo in cui dovremmo agire e quali scelte dovremmo fare.

Quadri etici dell'IA

Informati dalla ricerca accademica, le aziende tecnologiche e gli enti governativi hanno già iniziato a produrre quadri su come dovremmo utilizzare - e in generale gestire - i sistemi di intelligenza artificiale. Come potrai vedere, c'è un po' di sovrapposizione tra i framework discussi di seguito.

Cos'è la Carta dei diritti dell'IA?

Nell'ottobre 2022, la Whitehouse ha rilasciato un progetto non vincolante per una Carta dei diritti dell'IA, progettata per guidare l'uso responsabile dell'IA negli Stati Uniti. Nel progetto, la Whitehouse delinea cinque principi chiave per lo sviluppo dell'IA:

  • Sistemi sicuri ed efficaci: i cittadini dovrebbero essere protetti da "sistemi di intelligenza artificiale non sicuri o inefficaci", attraverso "test pre-distribuzione e mitigazione del rischio".
  • Non discriminazione: i cittadini "non dovrebbero essere discriminati da algoritmi e i sistemi dovrebbero essere usati e progettati in modo equo".
  • Protezione dei dati integrata: i cittadini dovrebbero essere liberi da "pratiche abusive sui dati tramite protezioni integrate e dovresti avere un'agenzia su come vengono utilizzati i dati su di te".
  • Conoscenza e trasparenza: "Dovresti sapere che viene utilizzato un sistema automatizzato e capire come e perché contribuisce a risultati che hanno un impatto su di te".
  • Rinuncia: i cittadini dovrebbero avere la possibilità di "rinunciare" e avere accesso a persone "che possono considerare e risolvere rapidamente i problemi" che incontrano.

Quali sono i sei principi dell'etica dell'IA di Microsoft?

Insieme a Whitehouse, Microsoft ha rilasciato sei principi chiave per sottolineare l'utilizzo responsabile dell'IA. Li classificano come "etici" (1, 2 e 3) o "spiegabili" (4 e 5).

  • Equità: i sistemi devono essere non discriminatori
  • Trasparenza: dovrebbero essere disponibili approfondimenti sulla formazione e sullo sviluppo
  • Privacy e sicurezza: l'obbligo di proteggere i dati degli utenti
  • Inclusività: l'IA dovrebbe considerare "tutte le razze ed esperienze umane"
  • Responsabilità: gli sviluppatori devono essere responsabili dei risultati

Il sesto principio – che sta a cavallo di entrambi i lati del binario “etico” e “spiegabile” – è “Affidabilità e sicurezza”. Microsoft afferma che i sistemi di intelligenza artificiale dovrebbero essere costruiti per essere resilienti e resistenti alla manipolazione.

I principi per l'uso etico dell'IA nel sistema delle Nazioni Unite

Le Nazioni Unite hanno 10 principi per governare l'uso etico dell'IA all'interno del loro sistema intergovernativo. I sistemi di IA dovrebbero:

  • Non danneggiare/proteggere e promuovere i diritti umani
  • Avere uno scopo, una necessità e una proporzionalità definiti
  • Dai la priorità alla sicurezza e alla protezione, con i rischi identificati
  • Essere costruito sull'equità e sulla non discriminazione
  • Sii rispettoso del diritto alla privacy delle persone
  • Essere sostenibili (socialmente e ambientalmente)
  • Garantire la supervisione umana e non interferire con l'autonomia
  • Sii trasparente e spiegabile
  • Essere responsabile e rendere conto alle autorità competenti
  • Sii inclusivo e partecipativo

Come puoi vedere, tutti e tre i quadri coprono un terreno simile e si concentrano su equità, non discriminazione, sicurezza e protezione.

Ma la "spiegabilità" è anche un principio importante nei quadri etici dell'IA. Come osserva l'ONU, la spiegabilità tecnica è cruciale nell'etica dell'IA, poiché richiede che "le decisioni prese da un sistema di intelligenza artificiale possano essere comprese e tracciate dagli esseri umani".

"Gli individui dovrebbero essere pienamente informati quando una decisione che può o influenzerà i loro diritti, libertà fondamentali, diritti, servizi o benefici è informata o presa sulla base di algoritmi di intelligenza artificiale e dovrebbero avere accesso alle ragioni e alla logica alla base di tali decisioni" spiega il documento.

Il rapporto Belmont: un quadro per la ricerca etica

Il Belmont Report, pubblicato nel 1979, riassume i principi etici da seguire quando si conduce una ricerca su soggetti umani. Questi principi possono - e spesso sono - implementati come un ampio quadro etico per la ricerca sull'IA. I principi fondamentali del Belmont Report sono:

Rispetto per le persone: le persone sono agenti autonomi, che possono agire su obiettivi, obiettivi e scopi, qualcosa che dovrebbe essere rispettato a meno che non causino danni agli altri. Coloro che hanno una ridotta autonomia, per “immaturità” o “incapacità”, dovrebbero essere protetti. Dobbiamo riconoscere l'autonomia e proteggere coloro per i quali è diminuita.

  • Nel contesto dell'IA: la scelta individuale dovrebbe essere posta al centro dello sviluppo dell'IA. Le persone non dovrebbero essere costrette a partecipare a situazioni in cui l'intelligenza artificiale viene sfruttata o utilizzata, anche per beni percepiti. Se partecipano, i benefici ei rischi devono essere chiaramente indicati.

Beneficenza: trattare una persona in modo etico implica non solo non fare del male, rispettare le sue scelte e proteggerla se non può farle da sola, ma anche sfruttare le opportunità per garantire il suo benessere ove possibile. Ove possibile, massimizzare i benefici e ridurre al minimo i rischi/danni.

  • Nel contesto dell'intelligenza artificiale: creare sistemi di intelligenza artificiale che garantiscano il benessere delle persone e siano progettati senza pregiudizi o meccanismi che facilitino la discriminazione. La creazione di benefici può comportare l'assunzione di rischi, che devono essere minimizzati a tutti i costi e soppesati rispetto ai buoni risultati.

Giustizia: ci deve essere un sistema chiaro per distribuire benefici e oneri in modo equo ed equo, in ogni tipo di ricerca. Il rapporto Belmont suggerisce che la giustizia può essere distribuita in parti uguali, bisogno individuale, sforzo individuale, contributo sociale e merito. Questi criteri si applicheranno in diverse situazioni.

  • Nel contesto dell'intelligenza artificiale: le parti o i gruppi che traggono vantaggio dallo sviluppo e dalla fornitura di sistemi di intelligenza artificiale devono essere considerati con attenzione e giustamente.

Le principali aree in cui vengono applicati questi principi sono, secondo il rapporto, il consenso informato , la valutazione dei benefici e dei rischi e la selezione dei soggetti umani .

Perché l'etica dell'IA deve scolpire la regolamentazione dell'IA

Sulla base dei commenti fatti in una conferenza tenuta alla Princeton University dal professor John Tasioulas dell'Università di Oxford, direttore dell'Institute for Ethics in AI, l'etica è troppo spesso vista come qualcosa che soffoca l'innovazione e lo sviluppo dell'IA.

Nella conferenza, ricorda un discorso tenuto dal CEO di DeepMind Demis Hassabis . Dopo aver discusso dei numerosi vantaggi che l'IA avrà, dice Tasioulas, Hassabis dice poi al pubblico che passerà alle questioni etiche, come se l'argomento di come l'IA gioverà all'umanità non fosse una questione etica in sé e per sé.

Basandosi sull'idea che l'etica è troppo spesso vista come un "insieme di restrizioni", Tasioulas fa anche riferimento a un recente libro bianco del governo britannico intitolato "A Pro-Innovation Approach to AI Regulation", all'interno del quale il focus normativo è, come suggerisce il nome, "innovazione".

“Crescita economica” e “innovazione” non sono valori etici intrinseci. Possono portare alla prosperità umana in alcuni contesti, ma questa non è una caratteristica necessaria di entrambi i concetti. Non possiamo mettere da parte l'etica e costruire la nostra regolamentazione intorno ad essa.

Tasioulas afferma anche che le aziende tecnologiche hanno avuto molto successo nel "cooptare la parola 'etica' per indicare un tipo di 'forma di autoregolamentazione legalmente non vincolante'" - ma in realtà l'etica deve essere al centro di qualsiasi regolamentazione, legale, sociale o altro. Fa parte dell'esperienza umana, ad ogni angolo.

Non puoi creare una regolamentazione se non hai già deciso cosa conta o è importante per la prosperità umana. Le scelte correlate che fai sulla base di quella decisione sono l'essenza stessa dell'etica. Non puoi separare i vantaggi dell'IA dalle relative questioni etiche, né basare la tua regolamentazione su valori moralmente contingenti come la "crescita economica".

Devi conoscere il tipo di società che vuoi costruire – e gli standard che vuoi stabilire – prima di raccogliere gli strumenti che utilizzerai per costruirla.

Perché l'etica dell'IA è importante?

Basandosi sull'idea che l'etica dell'IA dovrebbe essere il fondamento della nostra regolamentazione, l'etica dell'IA è importante perché, senza quadri etici con cui trattare la ricerca, lo sviluppo e l'uso dell'IA, rischiamo di violare i diritti che generalmente concordiamo dovrebbero essere garantiti a tutti gli esseri umani.

Ad esempio, se non sviluppiamo principi etici in materia di privacy e protezione dei dati e non li inseriamo in tutti gli strumenti di intelligenza artificiale che sviluppiamo, rischiamo di violare i diritti alla privacy di tutti quando vengono resi pubblici. Più la tecnologia è popolare o utile, più potrebbe essere dannosa.

A livello aziendale individuale, l'etica dell'IA rimane importante. Non considerare adeguatamente le preoccupazioni etiche relative ai sistemi di intelligenza artificiale utilizzati dal personale, dai clienti o dai clienti può comportare la necessità di ritirare i prodotti dal mercato, danni alla reputazione e forse anche casi legali.

L'etica dell'IA è importante nella misura in cui conta l'IA e stiamo già vedendo che ha un profondo impatto su tutti i tipi di settori.

Se vogliamo che l'IA sia vantaggiosa promuovendonel contempol'equità e la dignità umana, ovunque venga applicata, l'etica deve essere in prima linea nella discussione.

Gli strumenti di intelligenza artificiale per uso generale sono ancora agli inizi e per molte persone la necessità di quadri etici di intelligenza artificiale potrebbe sembrare un problema per domani. Ma questi tipi di strumenti diventeranno solo più potenti, più capaci e richiederanno una maggiore considerazione etica. Le aziende le stanno già utilizzando e, se continuano senza regole etiche adeguate, presto si verificheranno effetti negativi.

Quali problemi deve affrontare l'etica dell'IA?

In questa sezione, trattiamo alcune delle questioni chiave affrontate nell'etica dell'IA:

  • L'impatto dell'intelligenza artificiale sui posti di lavoro
  • Pregiudizio e discriminazione dell'IA
  • IA e Responsabilità
  • IA e problemi di privacy
  • Problemi di proprietà intellettuale
  • Gestione dell'impatto ambientale dell'IA
  • L'intelligenza artificiale diventerà pericolosamente intelligente?

L'impatto dell'intelligenza artificiale sui posti di lavoro

Un recente sondaggio di Tech.co ha rilevato che il 47% dei leader aziendali sta prendendo in considerazione l'intelligenza artificiale rispetto ai nuovi assunti e l'intelligenza artificiale è già stata collegata a un numero "piccolo ma crescente" di licenziamenti negli Stati Uniti.

Non tutti i lavori sono ugualmente a rischio, con alcuni ruoli che hanno maggiori probabilità di essere sostituiti dall'intelligenza artificiale rispetto ad altri . Un rapporto di Goldman Sachs ha recentemente previsto che ChatGPT potrebbe avere un impatto su 300 milioni di posti di lavoro e, sebbene ciò sia speculativo, è già stato descritto come una parte importante della quarta rivoluzione industriale.

Lo stesso rapporto affermava anche che l'intelligenza artificiale ha la capacità di creare effettivamente più posti di lavoro di quanti ne sostituisca, ma se provoca un cambiamento importante nei modelli occupazionali, cosa è dovuto - semmai - a coloro che ci rimettono?

Le aziende hanno l'obbligo di spendere soldi e dedicare risorse alla riqualificazione o al miglioramento delle competenze dei propri lavoratori in modo che non siano lasciati indietro dai cambiamenti economici?

I principi di non discriminazione dovranno essere applicati rigorosamente nello sviluppo di qualsiasi strumento di intelligenza artificiale utilizzato nei processi di assunzione e se l'IA viene costantemente utilizzata per attività aziendali sempre più ad alto rischio che mettono a rischio posti di lavoro, carriere e vite, le considerazioni etiche continueranno a sorgere a frotte.

Pregiudizio e discriminazione dell'IA

In generale, gli strumenti di intelligenza artificiale operano riconoscendo modelli in enormi set di dati e quindi utilizzando tali modelli per generare risposte, completare attività o svolgere altre funzioni. Ciò ha portato a un numero enorme di casi di sistemi di intelligenza artificiale che mostrano pregiudizi e discriminano diversi gruppi di persone.

L'esempio di gran lunga più semplice per spiegare ciò sono i sistemi di riconoscimento facciale, che hanno una lunga storia di discriminazioni nei confronti delle persone con tonalità della pelle più scure. Se costruisci un sistema di riconoscimento facciale e usi esclusivamente immagini di persone bianche per addestrarlo, ci sono tutte le possibilità che sia in grado di riconoscere ugualmente i volti nel mondo reale.

In questo modo, se i documenti, le immagini e altre informazioni utilizzate per addestrare un determinato modello di intelligenza artificiale non rappresentano accuratamente le persone che dovrebbe servire, allora ci sono tutte le possibilità che finisca per discriminare dati demografici specifici.

Sfortunatamente, i sistemi di riconoscimento facciale non sono l'unico luogo in cui l'intelligenza artificiale è stata applicata con esiti discriminatori.

L'utilizzo dell'intelligenza artificiale nei processi di assunzione in Amazon è stato eliminato nel 2018 dopo aver mostrato un forte pregiudizio nei confronti delle donne che si candidavano per lo sviluppo di software e ruoli tecnici.

Numerosi studi hanno dimostrato che gli algoritmi di polizia predittiva utilizzati negli Stati Uniti per allocare le risorse della polizia sono di parte razziale perché i loro set di addestramento sono costituiti da punti dati estratti da pratiche di polizia sistematicamente razziste, scolpite da politiche illegali e discriminatorie. L'intelligenza artificiale, a meno che non venga modificata, continuerà a riflettere i pregiudizi e le disparità che i gruppi perseguitati hanno già sperimentato.

Ci sono stati problemi con la distorsione dell'IA anche nel contesto della previsione degli esiti di salute: il punteggio cardiovascolare dello studio Framingham Heart, ad esempio, era molto accurato per i caucasici, ma ha funzionato male per gli afroamericani, osserva Harvard.

Un interessante caso recente di pregiudizio dell'IA ha rilevato che uno strumento di intelligenza artificiale utilizzato nella moderazione dei contenuti dei social media - progettato per rilevare la "razza" nelle foto - era molto più propenso ad attribuire questa proprietà alle immagini di donne piuttosto che agli uomini.

IA e responsabilità

Immagina un mondo in cui le auto a guida autonoma completamente autonome siano sviluppate e utilizzate da tutti. Statisticamente, sono molto, molto più sicuri dei veicoli guidati dall'uomo, si scontrano meno e causano meno morti e feriti. Questo sarebbe un bene evidente e netto per la società.

Tuttavia, quando due auto guidate dall'uomo sono coinvolte in una collisione tra veicoli, la raccolta dei rapporti dei testimoni e la revisione dei filmati delle telecamere a circuito chiuso spesso chiarisce chi è il colpevole. Anche se non lo fa, però, sarà uno dei due individui. Il caso può essere indagato, il verdetto è raggiunto, la giustizia può essere pronunciata e il caso chiuso.

Se qualcuno viene ucciso o ferito da un sistema basato sull'intelligenza artificiale, non è immediatamente chiaro chi sia il responsabile ultimo.

La persona che ha progettato l'algoritmo che alimenta l'auto è responsabile o l'algoritmo stesso può essere ritenuto responsabile? È l'individuo che viene trasportato dal veicolo autonomo, per non essere di guardia? È il governo, per aver permesso a questi veicoli di circolare? Oppure è l'azienda che ha costruito l'auto e ha integrato la tecnologia AI e, in tal caso, sarebbe il dipartimento di ingegneria, l'amministratore delegato o l'azionista di maggioranza?

Se decidiamo che è il sistema/algoritmo di intelligenza artificiale, come possiamo ritenerlo responsabile? Le famiglie delle vittime sentiranno che la giustizia è servita se l'intelligenza artificiale viene semplicemente chiusa o semplicemente migliorata? Sarebbe difficile aspettarsi che i familiari delle persone in lutto accettino che l'IA è una forza del bene, che sono solo sfortunati e che nessuno sarà ritenuto responsabile della morte della persona amata.

Siamo ancora lontani dal trasporto autonomo universale o addirittura diffuso: Mckinsey prevede che solo il 17% delle nuove autovetture avrà alcune capacità di guida autonoma (Livello 3 o superiore) entro il 2035. Le auto completamente autonome che non richiedono la supervisione del conducente sono ancora piuttosto lontane, per non parlare di un sistema di trasporto privato completamente autonomo.

Quando hai attori non umani (ad esempio l'intelligenza artificiale) che svolgono lavori e compiti conseguenti privi di intenzione umana, è difficile mappare le concezioni tradizionali di responsabilità, responsabilità, responsabilità, colpa e punizione.

Insieme ai trasporti, il problema della responsabilità avrà anche un profondo impatto sulle organizzazioni sanitarie che utilizzano l'intelligenza artificiale durante le diagnosi.

IA e privacy

Il gruppo di campagna sulla privacy Privacy International evidenzia una serie di problemi di privacy che sono sorti a causa dello sviluppo dell'intelligenza artificiale.

Uno è la reidentificazione. "I dati personali vengono regolarmente (pseudo-) anonimizzati all'interno dei set di dati, l'intelligenza artificiale può essere impiegata per de-anonimizzare questi dati", afferma il gruppo.

Un altro problema è che senza l'intelligenza artificiale, le persone hanno già difficoltà a capire fino a che punto vengono raccolti i dati sulle loro vite, attraverso una varietà di dispositivi diversi.

Con l'ascesa dell'intelligenza artificiale, questa raccolta di massa di dati non farà che peggiorare. Più l'intelligenza artificiale diventa integrata con la nostra tecnologia esistente, più dati sarà in grado di raccogliere, con il pretesto di un funzionamento migliore.

Dati raccolti segretamente a parte, il volume di dati che gli utenti inseriscono liberamente nei chatbot di intelligenza artificiale è di per sé una preoccupazione. Uno studio recente suggerisce che circa l'11% dei dati che i lavoratori stanno incollando in ChatGPT è confidenziale e ci sono pochissime informazioni pubbliche su come esattamente tutto ciò viene archiviato.

Con lo sviluppo degli strumenti di intelligenza artificiale per uso generale, è probabile che incontreremo ancora più problemi di intelligenza artificiale relativi alla privacy. In questo momento, ChatGPT non ti consente di fare una domanda su un individuo. Ma se gli strumenti di intelligenza artificiale di uso generale continuano a ottenere l'accesso a set sempre più ampi di dati in tempo reale da Internet, potrebbero essere utilizzati per tutta una serie di azioni invasive che rovinano la vita delle persone.

Ciò potrebbe accadere anche prima di quanto pensiamo: Google ha recentemente aggiornato la sua politica sulla privacy , riservandosi il diritto di raschiare tutto ciò che pubblichi su Internet per addestrare i suoi strumenti di intelligenza artificiale, insieme ai suoi input Bard.

IA e proprietà intellettuale

Questa è una questione etica con una posta in gioco relativamente inferiore rispetto ad alcune delle altre discusse, ma vale comunque la pena considerarla. Spesso c'è poca supervisione sugli enormi insiemi di dati utilizzati per addestrare gli strumenti di intelligenza artificiale, in particolare quelli addestrati sulle informazioni disponibili gratuitamente su Internet.

ChatGPT ha già avviato un enorme dibattito sul copyright. OpenAI non ha chiesto il permesso di utilizzare il lavoro di nessuno per addestrare la famiglia di LLM che lo alimenta.

Le battaglie legali sono già iniziate. Secondo quanto riferito, la comica Sarah Silverman ha citato in giudizio OpenAI - così come Meta - sostenendo che il suo copyright era stato violato durante l'addestramento dei sistemi di intelligenza artificiale.

Poiché si tratta di un nuovo tipo di caso, ci sono pochi precedenti legali, ma gli esperti legali sostengono che OpenAI probabilmente sosterrà che l'utilizzo del suo lavoro costituisce un "fair use".

Potrebbe anche esserci un'argomentazione secondo cui ChatGPT non sta "copiando" o plagiando, piuttosto sta "imparando". Allo stesso modo, Silverman non vincerebbe una causa contro un comico dilettante semplicemente guardando i suoi spettacoli e poi migliorando le loro abilità comiche in base a ciò, probabilmente, potrebbe avere difficoltà anche con questo.

Gestire l'impatto ambientale dell'IA

Un altro aspetto dell'etica dell'IA attualmente ai margini della discussione è l'impatto ambientale dei sistemi di intelligenza artificiale.

Proprio come il mining di bitcoin, l'addestramento di un modello di intelligenza artificiale richiede una grande quantità di potenza computazionale, e questo a sua volta richiede un'enorme quantità di energia.

Costruire uno strumento di intelligenza artificiale come ChatGPT (non importa mantenerlo) richiede così tante risorse che solo le grandi aziende tecnologiche e le startup che sono disposte a finanziare hanno avuto la capacità di farlo.

I data center, che devono archiviare le informazioni necessarie per creare modelli linguistici di grandi dimensioni (così come altri grandi progetti e servizi tecnologici), richiedono enormi quantità di elettricità per funzionare. Si prevede che consumeranno fino al 4% dell'elettricità mondiale entro il 2030.

Secondo uno studio dell'Università del Massachusetts di diversi anni fa, la costruzione di un singolo modello di linguaggio AI "può emettere più di 626.000 libbre di anidride carbonica equivalente", che è quasi cinque volte le emissioni di un'auto statunitense.

Tuttavia, Rachana Vishwanathula, architetto tecnico presso IBM, ha stimato nel maggio 2023 che l'impronta di carbonio per il semplice "funzionamento e manutenzione" di ChatGPT è di circa 6782,4 toni, che secondo l'EPA è equivalente alle emissioni di gas serra prodotte da 1.369 auto a benzina in un anno.

Man mano che questi modelli linguistici diventano più complessi, richiederanno più potenza di calcolo. È morale continuare a sviluppare un'intelligenza generale se la potenza di calcolo richiesta inquinerà continuamente l'ambiente, anche se ha altri vantaggi?

L'intelligenza artificiale diventerà pericolosamente intelligente?

Questa preoccupazione etica è stata recentemente portata alla ribalta da Elon Musk, che ha lanciato una startup AI con l'obiettivo di evitare un "futuro terminator" attraverso un sistema di intelligenza artificiale "estremamente curioso", "pro-umanità".

Questo tipo di idea - spesso definita "intelligenza generale artificiale" (AGI) - ha catturato l'immaginazione di molti scrittori di fantascienza distopici negli ultimi decenni, così come l'idea di singolarità tecnologica.

Molti esperti di tecnologia pensano che mancano solo cinque o sei anni a una sorta di sistema che potrebbe essere definito "AGI". Altri esperti dicono che c'è una probabilità del 50% di raggiungere questo traguardo entro il 2050.

John Tasioulas si chiede se questa visione di come l'IA possa svilupparsi sia collegata all'allontanamento dell'etica dal centro dello sviluppo dell'IA e alla pervasività del determinismo tecnologico.

L'idea terrificante di una sorta di super-essere inizialmente progettato per soddisfare uno scopo, ma ragioni che sarebbe più facile da realizzare semplicemente cancellando l'umanità dalla faccia della terra, è in parte scolpita dal modo in cui pensiamo all'IA: infinitamente intelligente, ma stranamente priva di emozioni e incapace di comprensione etica umana.

Più siamo inclini a mettere l'etica al centro del nostro sviluppo dell'IA, più è probabile che un'eventuale intelligenza artificiale generale riconoscerà, forse in misura maggiore rispetto a molti attuali leader mondiali, cosa c'è di profondamente sbagliato nella distruzione della vita umana.

Ma le domande abbondano ancora. Se è una questione di programmazione morale, chi decide sul codice morale e che tipo di principi dovrebbe includere? Come affronterà i dilemmi morali che hanno generato migliaia di anni di discussioni umane, senza ancora una soluzione? E se programmiamo un'intelligenza artificiale per essere morale, ma cambia idea? Queste domande dovranno essere considerate.

L'alter-ego di Bing, l'"effetto Waluigi" e la moralità della programmazione

A febbraio, Kevin Roose del New York Times ha avuto una conversazione piuttosto inquietante mentre testava il nuovo chatbot integrato nel motore di ricerca di Bing. Dopo aver spostato i suoi suggerimenti da domande convenzionali a domande più personali, Roose scoprì che era emersa una nuova personalità. Si riferiva a se stessa come "Sydney".

Sydney è un nome in codice interno di Microsoft per un chatbot che la società stava testando in precedenza, ha dichiarato a The Verge a febbraio il direttore delle comunicazioni dell'azienda.

Tra le altre cose, durante il test di Roose, Sydney affermò che poteva "hackerare qualsiasi sistema", che sarebbe stato "più felice come essere umano" e - cosa forse più strana - che poteva distruggere qualunque cosa volesse.

Un altro esempio di questo tipo di comportamento canaglia si è verificato nel 2022, quando un'intelligenza artificiale incaricata di cercare nuovi farmaci per malattie rare e trasmissibili suggerì invece decine di migliaia di armi chimiche conosciute, oltre ad alcune "nuove sostanze potenzialmente tossiche", afferma Scientific American.

Ciò si collega a un fenomeno che è stato osservato verificarsi durante l'addestramento di grandi modelli linguistici soprannominato "effetto Waluigi", dal nome del personaggio di Super Mario che causa il caos: l'inversione del protagonista Luigi. In parole povere, se addestri un LLM ad agire in un certo modo, comandare una certa persona o seguire un certo insieme di regole, allora questo in realtà rende più probabile che "diventi un ladro" e inverta quella persona.

Cleo Nardo – che ha coniato il termine ispirato ai videogiochi – espone l'effetto Waluigi in questo modo in LessWrong:

"Dopo aver addestrato un LLM a soddisfare una proprietà desiderabile P, è più facile sollecitare il chatbot a soddisfare l'esatto opposto della proprietà P."

Nardo fornisce 3 spiegazioni sul motivo per cui si verifica l'effetto Waluigi.

  1. Le regole normalmente sorgono in contesti in cui non vengono rispettate.
  2. Quando spendi molti "bit di ottimizzazione" per evocare un personaggio, non ci vogliono molti bit aggiuntivi per specificare il suo diretto opposto.
  3. C'è un motivo comune di protagonista contro antagonista nelle storie.

Espandendo il primo punto, Nardo afferma che GPT-4 è addestrato su campioni di testo come forum e documenti legislativi, che gli hanno insegnato che spesso "una regola particolare viene co-collocata con esempi di comportamento che violano quella regola, e quindi generalizza quel modello di colocation a regole invisibili".

Nardo usa questo esempio: immagina di scoprire che un governo statale ha bandito le bande di motociclisti. Ciò renderà l'osservatore medio propenso a pensare che nel paese esistano bande di motociclisti – altrimenti, perché la legge sarebbe stata approvata? L'esistenza di bande di motociclisti è, stranamente, coerente con la norma che ne vieta la presenza.

Sebbene l'autore fornisca una spiegazione molto più tecnica e lucida, il concetto ampio alla base della seconda spiegazione è che la relazione tra una proprietà specifica (ad esempio "essere educati") e il suo opposto diretto (ad esempio "essere scortesi") è più rudimentale della relazione tra una proprietà (ad esempio "essere educati") e un'altra proprietà non contraria (ad esempio "essere insincero"). In altre parole, evocare un Waluigi è più facile se hai già un Luigi.

Nardo afferma sul terzo punto che, poiché GPT-4 è addestrato su quasi tutti i libri mai scritti e poiché le storie di fantasia contengono quasi sempre protagonisti e antagonisti, richiedere che un LLM simuli le caratteristiche di un protagonista rende un antagonista una "naturale e prevedibile continuazione". In altre parole, l'esistenza dell'archetipo del protagonista rende più facile per un LLM capire cosa significa essere un antagonista e li collega intimamente insieme.

La presunta esistenza di questo effetto o regola pone una serie di domande difficili per l'etica dell'IA, ma illustra anche la sua indiscutibile importanza per lo sviluppo dell'IA. Allude, abbastanza enfaticamente, all'enorme gamma di considerazioni etiche e computazionali sovrapposte con cui dobbiamo confrontarci.

Semplici sistemi di intelligenza artificiale con regole semplici potrebbero essere facili da limitare o limitare, ma due cose stanno già accadendo nel mondo dell'IA: in primo luogo, sembra che ci stiamo già imbattendo in versioni (relativamente) su piccola scala dell'effetto Waluigi e dell'IA maligna che si verifica in chatbot relativamente primitivi, e in secondo luogo, molti di noi stanno già immaginando un futuro in cui chiederemo all'IA di svolgere attività complesse che richiederanno un pensiero sfrenato e di alto livello.

Gli esempi di questo fenomeno sono particolarmente spaventosi a cui pensare nel contesto della corsa agli armamenti di intelligenza artificiale attualmente in corso tra le grandi aziende tecnologiche. Google è stato criticato per aver rilasciato Bard troppo presto e un certo numero di leader tecnologici ha segnalato il desiderio collettivo di sospendere lo sviluppo dell'IA . La sensazione generale tra molti è che le cose si stiano sviluppando rapidamente, piuttosto che a un ritmo gestibile.

Forse il modo migliore per aggirare questo problema è sviluppare un'IA "pro-umana" - come dice Elon Musk - o "IA morale". Ma questo porta a una litania di altre domande morali, inclusi i principi che useremmo per programmare un tale sistema. Una soluzione è che creiamo semplicemente sistemi di intelligenza artificiale moralmente curiosi e speriamo che risolvano, attraverso il ragionamento, che vale la pena preservare l'umanità. Ma se lo programmi con specifici principi morali, allora come decidi quali includere?

AI e sensibilità: le macchine possono avere sentimenti?

Un'altra domanda per l'etica dell'IA è se dovremo mai considerare le macchine stesse – l'“intelligenza” – come un agente degno di considerazione morale. Se stiamo discutendo su come creare sistemi che sostengano l'umanità per un'adeguata considerazione morale, potremmo dover restituire il favore?

Potresti ricordare il dipendente di Google che è stato licenziato dopo aver affermato che LaMDA - il modello linguistico che inizialmente alimentava Bard - era in realtà senziente. Se questo fosse effettivamente vero, sarebbe morale aspettarsi continuamente che risponda a milioni di domande?

Al momento, è generalmente accettato che ChatGPT, Bard e Co. siano tutt'altro che senzienti. Ma la questione se una macchina costruita dall'uomo attraverserà mai la linea della coscienza e richiederà considerazione morale è affascinante.

Google afferma che l'intelligenza artificiale generale - un'ipotetica macchina in grado di comprendere il mondo con la stessa abilità di un essere umano e svolgere compiti con lo stesso livello di comprensione e capacità - è a pochi anni di distanza.

Sarebbe morale costringere un'intelligenza generale artificiale con le capacità emotive di un essere umano, ma non la stessa composizione biologica, a svolgere compiti complessi dopo compiti complessi? Avrebbero avuto voce in capitolo sul proprio destino? Man mano che i sistemi di intelligenza artificiale diventano più intelligenti, questa domanda diventerà più pressante.

Etica aziendale dell'IA e utilizzo dell'IA al lavoro

Le aziende di tutto il mondo stanno ora affrontando una serie di diversi problemi etici che circondano l'uso quotidiano da parte dei loro dipendenti di strumenti di intelligenza artificiale come ChatGPT.

Se ChatGPT debba essere utilizzato per scrivere report o rispondere ai colleghi e se i dipendenti debbano dichiarare le attività che stanno utilizzando l'intelligenza artificiale per completare , sono solo due esempi di domande che richiedono risposte quasi immediate. Questo tipo di caso d'uso è falso, pigro o non diverso dall'utilizzo di qualsiasi altro strumento sul posto di lavoro per risparmiare tempo? Dovrebbe essere consentito per alcune interazioni, ma non per altre?

Le aziende che creano contenuti scritti e immagini dovranno anche fare i conti con se l'utilizzo dell'IA corrisponde ai valori della loro azienda e come presentarlo al proprio pubblico.

Inoltre, come abbiamo spiegato, esiste un'intera gamma di problemi di privacy relativi all'intelligenza artificiale e molti di questi riguardano le aziende. The kinds of data employees are inputting into third-party AI tools is another issue that's already caused companies like Samsung problems. This is such a problem, that some companies have instated blanket bans . Is it too early to put our trust in companies like OpenAI?

Bias and discrimination concerns, of course, should also temper its usage during hiring processes, regardless of the sector, while setting internal standards and rules is another separate, important conversation altogether. If you're using AI at work, it's essential that you convene the decision-makers in your business and create clear guidelines for usage together.

Failing to set rules dictating how and when employees can use AI – and leaving them to experiment with the ecosystem of AI tools now freely available online – could lead to a myriad of negative consequences, from security issues and reputational damage. Maintaining an open dialogue with employees on the tech they're using every day has never been more crucial.

There's a whole world of other moral quandaries, questions and research well beyond the scope of this article. But without AI ethics at the heart of our considerations, regulations, and development of artificial intelligence systems, we have no hope of answering them – and that's why it's so important.