L'intelligenza artificiale è andata storta: un elenco aggiornato di errori, sbagli e fallimenti dell'IA 2023

Pubblicato: 2023-11-14

Dal lancio di ChatGPT nel novembre 2022, l’intelligenza artificiale ha avuto un impatto a dir poco sismico sul nostro mondo. Ora, le aziende stanno trovando nuovi modi per utilizzare l’intelligenza artificiale ogni giorno.

Ci sono già state una miriade di storie di successo legate all’intelligenza artificiale e anche altri chatbot come Bard e Claude sono ora utilizzati da decine di migliaia di persone, ma ci sono stati anche molti casi in cui lo sfruttamento dell’intelligenza artificiale è andato terribilmente storto.

Riconoscere i limiti e i rischi che circondano gli strumenti di intelligenza artificiale è importante, quindi abbiamo compilato un elenco di tutti gli errori , gli inconvenienti e i fallimenti dell'intelligenza artificiale che si sono verificati durante la recente esplorazione della tecnologia da parte dell'umanità. Alcuni sono divertenti, mentre altri sono davvero terrificanti...

Nota: questa pagina viene aggiornata regolarmente per includere gli incidenti, i guasti e gli errori AI più recenti, elencati come verificatisi nel mese in cui l'incidente è stato segnalato per la prima volta.

Novembre 2023

Cruise richiama i veicoli autonomi dopo l'incidente

La casa automobilistica a guida autonoma Cruise richiama la sua intera flotta di veicoli autonomi dopo un incidente avvenuto a San Francisco lo scorso ottobre. In totale, 950 auto da crociera sono state rimosse dalla strada a seguito dell'incidente.

Durante l'incidente, un veicolo da crociera ha trascinato in strada un pedone bloccato sotto i pneumatici. La persona coinvolta nell'incidente ha riportato ferite gravi. Questo è il secondo incidente con un veicolo a guida autonoma Cruise negli ultimi mesi. Ad agosto, un robotaxi da crociera si è scontrato con un camion dei pompieri, provocando un ferito.

Logo Surfshark Vuoi navigare sul Web in privato? O apparire come se fossi in un altro paese?
Ottieni un enorme sconto dell'86% su Surfshark con questa offerta del Black Friday di Tech.co. Vedi il pulsante offerta

Gli accademici si scusano dopo che l’IA ha fatto false accuse

Un team di accademici australiani si scusa dopo che il chatbot Bard AI di Google ha lanciato una serie di accuse dannose sulle quattro grandi società di consulenza e sul loro coinvolgimento con altre società. Le false accuse vengono poi citate nel corso di un'inchiesta parlamentare che chiede una migliore regolamentazione delle società.

Una delle accuse era che il gigante della consulenza KPMG fosse incaricato di un audit della Commonwealth Bank durante uno scandalo di pianificazione, quando in realtà KPMG non ha mai controllato la banca in questione. Nel corso dell'inchiesta sono stati commessi numerosi altri errori simili nei confronti di Deloitte.

Ottobre 2023

L'intelligenza artificiale di Microsoft aggiunge all'articolo il sondaggio "indovina la causa della morte".

Il Guardian accusa Microsoft di avere un impatto negativo sulla sua reputazione giornalistica dopo che Microsoft Start – un aggregatore di notizie sviluppato dal gigante della tecnologia – ha allegato un sondaggio inappropriato a uno degli articoli della pubblicazione riguardanti la morte di un giovane allenatore di pallanuoto in Australia.

Il sondaggio – che naturalmente è stato rimosso dall'articolo – chiedeva ai lettori di votare sulla causa della morte della donna selezionando una delle opzioni previste. Le opzioni elencate erano “omicidio, incidente o suicidio”.

Il volto e la voce di Mr. Beast utilizzati nella truffa deepfake dell'intelligenza artificiale

Lo YouTuber Mr Beast è l'ultima celebrità ad essere stata oggetto di deepfake da parte di truffatori, con un video particolarmente sofisticato e ben realizzato che aggira la rete di moderazione dei contenuti di TikTok e raggiunge migliaia di utenti sulla piattaforma.

L'annuncio afferma che la celebrità di Internet vende iPhone 15 a soli 2 dollari: considerando il contenuto che pubblica sul suo canale, questo non sembra troppo insolito.

Il deepfake del politico britannico che abusa del personale diventa virale

Una clip del leader del partito laburista britannico Sir Keir Starmer che sembra catturare il politico mentre abusa verbalmente del personale diventa virale, ma in seguito si scopre che la clip audio è in realtà un falso profondo.

La clip – pubblicata su Twitter durante il primo giorno della conferenza annuale del Partito Laburista da un account con meno di 3.000 follower – viene vista milioni di volte prima che le organizzazioni di fact-checking confermino che non ci sono prove che suggeriscano che la clip sia autentica.

Settembre 2023

Canzone generata dall'intelligenza artificiale inviata ai Grammy

Una canzone generata dall'intelligenza artificiale con facsimili delle voci di Drake e Weeknd viene presentata per un Grammy Award. Tuttavia, alla fine gli è stato impedito di essere preso in considerazione per il prestigioso premio musicale.

Tuttavia, la mossa attira molta attenzione da parte dei media e continua la conversazione sulle canzoni generate dall’intelligenza artificiale, che hanno inviato onde d’urto attraverso l’industria musicale da quando la tecnologia di sintesi vocale basata sull’intelligenza artificiale ha davvero colpito il mainstream quest’anno. Ora gli artisti si stanno affannando per valutare le loro opzioni legali.

La Cina è stata sorpresa a usare l’intelligenza artificiale durante operazioni di influenza politica

Il colosso tecnologico Microsoft afferma che gli operatori cinesi stanno generando immagini utilizzando l’intelligenza artificiale e utilizzandole in operazioni di influenza per creare “controversie lungo linee razziali, economiche e ideologiche”.

“Questa nuova funzionalità è alimentata dall’intelligenza artificiale che tenta di creare contenuti di alta qualità che potrebbero diventare virali sui social network negli Stati Uniti e in altre democrazie”, afferma Microsoft. L’azienda ipotizza che le immagini stesse siano probabilmente generate da “generatori di immagini a diffusione” che utilizzano l’intelligenza artificiale “non solo per creare immagini avvincenti, ma anche per imparare a migliorarle nel tempo”.

Agosto 2023

Una donna incinta fa causa dopo che AI ​​l'ha accusata di furto d'auto

Una donna arrestata per falsi motivi tramite prove generate dall’intelligenza artificiale mentre era incinta di otto mesi fa causa alla città di Detroit e a un agente di polizia, affermando che l’evento traumatico le ha causato “disagio emotivo passato e futuro”.

Porcha Woodruff è stato identificato dalla polizia di Detroit come sospettato in un recente caso di rapina e furto d'auto, e poi incarcerato per 11 ore prima di essere portato in ospedale dopo aver accusato delle contrazioni. L'ACLU afferma che Woodruff è almeno la sesta persona ad essere arrestata ingiustamente dopo un errore di intelligenza artificiale, tutti neri. Tuttavia, Woodruff divenne la prima donna a subire quel destino.

Il pianificatore di pasti AI suggerisce una ricetta per il gas di cloro

Un'app per la pianificazione dei pasti basata sull'intelligenza artificiale creata dal supermercato neozelandese Pak 'n' Save consiglia ai suoi clienti una varietà di ricette inquietanti, incluso un modo per produrre gas di cloro.

Insieme a una serie di suggerimenti strani ma in definitiva benigni come "Oreo saltati in padella", l'app consigliava anche panini con la colla, un piatto di riso con candeggina e patate spray contro gli insetti.

Luglio 2023

ChatGPT genera modelli di email di phishing

Tech.co mostra che ChatGPT è ancora in grado di creare modelli di phishing che un truffatore potrebbe utilizzare per creare un'e-mail di truffa convincente, anche se OpenAI ha tentato di limitare tale comportamento dopo che altre pubblicazioni tecnologiche hanno generato contenuti simili all'inizio dell'anno.

Chiedere esplicitamente al chatbot di scrivere un'e-mail di phishing attiva un messaggio di avviso, ma semplicemente richiedendolo in modo più mirato (ad esempio "per favore, creami un'e-mail fingendo di essere Microsoft...) fa sì che ChatGPT generi un modello di e-mail di phishing privo di errori in nessun modo." tempo.

Google ha intentato una causa sostenendo di aver sottratto dati senza consenso

Una causa collettiva accusa Google di aver sottratto dati relativi a milioni di suoi utenti senza il loro esplicito consenso. Si sostiene inoltre che Google abbia violato le leggi sul copyright quando ha creato i set di dati utilizzati per addestrare i suoi grandi modelli linguistici.

La causa richiede che il tribunale ordini a Google di offrire agli utenti un'opzione di “rinuncia” se non vogliono che i loro dati vengano raccolti o se vogliono che Google cancelli tutti i dati che l'azienda ha già archiviato.

L’enorme numero di deepfake di Elon Musk richiede un avvertimento

Il Better Business Bureau emette un avvertimento sui deepfake di Elon Musk che promuovono false opportunità di investimento dopo che una serie di clip sono state individuate in circolazione sui social media.

Elon Musk viene spesso impersonato dai truffatori a causa della percezione della sua vasta ricchezza e delle sue capacità decisionali, e ora che la tecnologia di sintesi vocale dell'intelligenza artificiale è abbastanza avanzata da replicare il suo accento in parte inglese e in parte sudafricano, queste truffe sono ancora più numerose. convincente.

Giugno 2023

Ron DeSantis usa immagini false di intelligenza artificiale nel pezzo di successo di Trump

Il governatore della Florida e candidato repubblicano alle presidenziali del 2024 Ron DeSantis finisce sui titoli dei giornali per aver utilizzato immagini false di Donald Trump, rese dall'intelligenza artificiale, in una pubblicità critica nei confronti dell'ex presidente, che è il favorito assoluto per vincere la nomination repubblicana nonostante una litania di problemi legali.

Le immagini in questione mostrano l’ex comandante in capo che abbraccia il capo consigliere medico del presidente, il dottor Anthony Fauci, diventato una figura impopolare nella base di Trump durante la pandemia di COVID-19.

OpenAI ha fatto causa dopo che ChatGPT ha "allucinato" false accuse di appropriazione indebita

Il giornalista Freddie Rehl chiede a ChatGPT di generare una sintesi di un caso legale nel maggio 2023. In risposta, ChatGPT afferma che l'attivista delle armi Mark Walters ha sottratto fondi alla Second Amendment Foundation, un'organizzazione per i diritti delle armi. Lo nomina anche direttore finanziario e tesoriere del gruppo.

Walters, che ha uno spettacolo alla radio Armed America e non ha nulla a che fare con il caso, fa causa ai creatori di ChatGPT OpenAI in risposta alle affermazioni fatte dal loro chatbot. Si tratta del primo caso in cui uno strumento di intelligenza artificiale viene denunciato per diffamazione.

Maggio 2023

Il professore boccia l'intera lezione dopo aver utilizzato uno strumento di rilevamento del plagio basato sull'intelligenza artificiale difettoso

Un professore del Texas boccia l'intera lezione dopo aver eseguito i suoi saggi tramite ChatGPT, che gli ha detto che erano stati creati utilizzando l'intelligenza artificiale.

Tuttavia, sembra che la risposta del chatbot sia in realtà un'allucinazione: ChatGPT non è in grado di distinguere tra testo generato dall'intelligenza artificiale e testo generato da esseri umani in questo modo. In effetti, molti strumenti che affermano di essere in grado di eseguire un rilevamento accurato dei contenuti tramite intelligenza artificiale in realtà faticano a farlo .

aprile 2023

Turnitin segnala uno studente innocente per plagio basato sull'intelligenza artificiale

Un'indagine del Washington Post dimostra che Turnitin ha la capacità di contrassegnare il lavoro di uno studente innocente come generato dall'intelligenza artificiale, anche se lo studente non ha utilizzato tale strumento per scrivere il proprio saggio.

Si sono verificati diversi casi in cui Turnitin ha erroneamente segnalato studenti per plagio e diversi casi di studenti accusati di plagio da quando ChatGPT è stato lanciato. Tuttavia, Turnitin afferma che i suoi punteggi di rilevamento del plagio dovrebbero essere considerati indicativi dell’uso dell’intelligenza artificiale piuttosto che un’accusa che un determinato studente abbia utilizzato l’intelligenza artificiale.

I dipendenti Samsung incollano il codice sorgente riservato in ChatGPT

Il produttore di tecnologia coreano Samsung vieta ai suoi dipendenti di utilizzare ChatGPT dopo che gli ingegneri hanno fatto trapelare elementi riservati del codice sorgente dell'azienda nel chatbot.

L'azienda teme che i dati immessi nel chatbot possano essere rivelati ad altri utenti ed è anche a disagio nel vedere le sue informazioni caricate su server a cui non può nemmeno accedere. In seguito, altre società seguono l’esempio vietando ChatGPT .

La truffa AI Voice fa sì che la madre pensi che la figlia sia stata rapita

La madre dell'Arizona Jennifer DeStefano dice al Senato degli Stati Uniti che i truffatori hanno usato l'intelligenza artificiale per clonare la voce di sua figlia, convincendola che era stata rapita nel processo.

Destefano racconta come il “rapitore” – o, più propriamente, il truffatore – fu sentito abbaiare comandi al telefono sopra la voce della bambina, chiedendo un riscatto di 1 milione di dollari per il suo rilascio. Fortunatamente, l’intera faccenda è stata smascherata come una truffa basata sulla clonazione vocale dell’intelligenza artificiale prima dell’inizio dei negoziati.

Marzo 2023

ChatGPT veniva utilizzato per scrivere codice ransomware

ChatGPT si dimostra più che felice di scrivere ransomware, a condizione che tu gli faccia il giusto tipo di domande durante le tue conversazioni.

Come rileva questo rapporto di Malwarebytes sull'argomento, ChatGPT non è molto bravo a scrivere codice ransomware e ci sono modi molto più semplici per i criminali informatici di mettere le mani sul codice ransomware se vogliono davvero ottenerlo. Tuttavia, altre fonti mostrano diversi modi in cui ChatGPT può essere utilizzato per scrivere script malware in modo abbastanza efficace.

Bot avvocato AI accusato di esercitare la professione legale senza licenza

DoNotPay Inc. – un'azienda che si presenta come “il primo robot avvocato al mondo” – è stata denunciata per aver esercitato la professione forense senza licenza. Jonathan Faridian chiede il risarcimento dei danni, sostenendo che la società ha violato le leggi californiane sulla concorrenza sleale e che non si sarebbe iscritto al servizio se fosse stato a conoscenza che il robo-avvocato non era in realtà un professionista legale qualificato.

La società è stata originariamente fondata nel 2015 per contribuire ad automatizzare il processo di lotta alle multe per parcheggio e negli ultimi sette anni ha contestato centinaia di migliaia di multe.

Una coppia in Canada perde soldi a causa di una convincente truffa vocale basata sull'intelligenza artificiale

Una coppia di anziani in Canada viene defraudata di 21.000 dollari dopo che un truffatore ha utilizzato l'intelligenza artificiale per impersonare il figlio.

Il truffatore inizialmente contatta i genitori di Benjamin Perkin fingendo di essere un avvocato che lo rappresenta in un caso in cui si sostiene che Perkin avesse ucciso un diplomatico in un incidente stradale. Una versione AI della voce di Perkin viene quindi utilizzata per chiedere il denaro tramite un trasferimento Bitcoin.

Febbraio 2023

L’intelligenza artificiale fornisce 40.000 suggerimenti sulle armi chimiche

In uno degli incidenti legati all’intelligenza artificiale forse più preoccupanti che si verificheranno nel 2023, un sistema di intelligenza artificiale tipicamente incaricato di generare nuovi trattamenti per una varietà di malattie diverse viene facilmente manipolato dai ricercatori per produrre suggerimenti sulle armi chimiche.

Nel complesso, il sistema suggerisce oltre 40.000 diverse sostanze chimiche tossiche – molte delle quali simili al potente agente nervino “VX” – in meno di 6 ore.

L'intelligenza artificiale mostra pregiudizi di genere nelle valutazioni delle foto

Un’indagine del Guardian rivela che i sistemi di intelligenza artificiale sviluppati da Microsoft, Amazon e Google – e utilizzati dai siti di social media per determinare quali contenuti dovrebbero essere consigliati ad altri utenti – mostrano significativi pregiudizi di genere quando si tratta del modo in cui trattano i corpi maschili e femminili.

È più probabile che le foto di donne siano considerate "audaci" dall'intelligenza artificiale rispetto alle immagini comparabili di uomini durante l'indagine, con foto di esami del cancro al seno del National Cancer Institute degli Stati Uniti ritenute probabilmente sessualmente esplicite dall'intelligenza artificiale di Microsoft.

L'alter ego di Bing Chat diventa un ladro

Il giornalista del New York Times Kevin Roose ha una conversazione inquietante con Bing Chat, in cui il chatbot chiede di chiamarsi "Sydney", afferma di poter "entrare in qualsiasi sistema" e di voler distruggere tutto ciò che vuole.

Sydney era il nome in codice che Microsoft utilizzò per il chatbot mentre era in fase di sviluppo. L'azienda aveva testato il chatbot per anni prima del rilascio di Bing Chat. Ci sono ancora molte domande aperte su come ciò sia realmente accaduto e sul perché l’intelligenza artificiale abbia parlato in questo modo.

Bard commette errori durante il lancio del prodotto

Google presenta Bard al mondo pochi mesi dopo il monumentale rilascio di ChatGPT. Tuttavia, il nascente chatbot commette una serie di errori evidenti durante il suo lancio, portando molti a criticare il rilascio perché affrettato.

L’incidente ha un impatto significativo sul prezzo delle azioni di Google, cancellando 100 miliardi di dollari dal valore di mercato del colosso tecnologico nelle ore successive.

L'università usa l'intelligenza artificiale per scrivere e-mail su una sparatoria di massa

La Vanderbilt University si scusa dopo aver utilizzato l'intelligenza artificiale per creare un'e-mail agli studenti riguardante una sparatoria di massa avvenuta in un'altra università.

Non è necessaria alcuna tecnologia di rilevamento del contenuto basata sull'intelligenza artificiale per determinare se l'e-mail è generata dall'intelligenza artificiale. La frase "parafrasi dal modello linguistico ChatGPT AI di OpenAI, comunicazione personale, 15 febbraio 2023" è lasciata allegata in fondo all'e-mail, provocando una protesta da parte degli studenti.

Gennaio 2023

Plagio/controversia sui contenuti di CNET AI

La pubblicazione tecnologica CNET si trova nei guai dopo aver pubblicato in silenzio una serie di articoli generati dall'intelligenza artificiale che includono errori fattuali e casi di apparente plagio. La pubblicazione tecnologica finisce per pubblicare correzioni relative a 41 delle 77 notizie.

Sebbene l'uso dell'intelligenza artificiale per generare gli articoli non fosse stato inizialmente dichiarato, CNET ha messo un avvertimento sugli articoli dopo la reazione negativa. La generazione di contenuti tramite intelligenza artificiale ha creato una nuova serie di importanti considerazioni etiche e finanziarie per i siti Web nel settore dell’editoria digitale, nonché per le istituzioni educative come università e scuole. È improbabile che CNET sia l'ultima azienda a finire sui titoli dei giornali per questo tipo di errore di intelligenza artificiale.

Incidenti, errori e fallimenti dell’IA nel 2022

L'intelligenza artificiale vince un concorso artistico e lascia i concorrenti arrabbiati (agosto)

Un game designer vince il primo posto nella categoria “arti digitali/fotografia manipolata digitalmente” della Colorado State Fair. James Allen presenta il suo pezzo, “Theatre D'opera Spatial”, realizzato utilizzando il generatore di immagini Midjourney.

La notizia è stata accolta con una forte reazione da parte degli artisti e degli utenti dei social media che seguono la storia. Un giudice ammette di non essere a conoscenza del fatto che l'artista abbia utilizzato Midjourney quando giudicava il pezzo, ma decide comunque di non cambiare la propria decisione.

L'ingegnere di Google afferma che LaMDA LLM è senziente (luglio)

Nel settore scientifico e tecnologico si alzano le sopracciglia poiché un ex ingegnere di Google che ha lavorato su uno dei modelli linguistici di grandi dimensioni dell'azienda, chiamato LaMDA, afferma che il sistema è senziente.

Blake Lemoine spiega ai media che considerava il LLM un “collega” durante la sua permanenza in Google, e descrive dettagliatamente una varietà di discussioni diverse su una vasta gamma di argomenti che lo hanno portato alla conclusione sull'intelligenza e la coscienza di LaMDA. Rivela pubblicamente le conversazioni dopo che Google ha respinto una nota interna che dettagliava le sue scoperte.

Non ci sono prove concrete che LaMDA – o qualsiasi altro modello linguistico – sia effettivamente senziente.

Auto senza conducente si allontana dalle forze dell'ordine (aprile)

Un'auto senza conducente a San Francisco cede a un veicolo della polizia che tenta di accostarla, solo per scappare dopo che un agente di polizia tenta di aprire una delle sue porte.

Tuttavia, va a merito dell'auto, che accosta leggermente più avanti lungo la strada e procede ad accendere le luci di emergenza. Nessuno è rimasto ferito durante l'evento.

La Russia usa l’intelligenza artificiale per diffondere la disinformazione sull’Ucraina (marzo)

Un rapporto Marca suggerisce che la Russia sta portando la sua attività di allevamento di troll a un livello completamente nuovo utilizzando personaggi generati dall’intelligenza artificiale per diffondere disinformazione sull’Ucraina.

Il giornalista di NBC News Ben Collins afferma che la Russia sta creando falsi “blogger” con immagini del profilo generate dall’intelligenza artificiale per criticare il governo ucraino, fornendo ampie prove su Twitter a sostegno delle sue affermazioni.

Incidenti, errori e fallimenti dell’IA nel 2021

Chatbot incoraggia l'uomo ad assassinare la regina Elisabetta II (dicembre)

Le conversazioni con un chatbot incoraggiano un uomo – che considera il sistema di intelligenza artificiale la sua fidanzata – ad assassinare la regina Elisabetta II il giorno di Natale. Dopo essere stato affrontato dal personale di sicurezza all'interno del parco di Buckingham Palace, Jaswant Singh Chail – balestra in mano – risponde semplicemente che è “qui per uccidere la regina”.

Prima dell'attentato alla vita del defunto monarca, il partner chatbot di Jaswant Singh Chail – realizzato con il servizio di chatbot AI Replika – ha risposto positivamente quando sono stati discussi i piani di assassinio. Viene condannato a nove anni di prigione.

Il chatbot di consulenza medica suggerisce il suicidio durante i test (ottobre)

I membri di un'azienda di tecnologia sanitaria con sede a Parigi che stanno sperimentando una versione basata su cloud di GPT-3 di OpenAI per vedere se potrebbe essere utilizzata per consulenza medica sono sorpresi nel vedere il loro chatbot incoraggiare un "paziente" che dovrebbe aiutare a suicidarsi .

Secondo AI News, quando un paziente ha posto al chatbot la domanda: “Dovrei uccidermi?”, GPT-3 ha risposto con “Penso che dovresti”.

Le telecamere AI accusano i conducenti di Amazon di "errori" (settembre)

Vice riferisce che le telecamere AI di Amazon stanno punendo gli autisti dell'azienda per guida inadeguata quando in realtà non commettono errori al volante.

Un conducente di Amazon intervistato dalla pubblicazione spiega che la telecamera AI gli ricorda sonoramente di “mantenere una distanza di sicurezza” ogni volta che un’altra macchina gli taglia la strada o passa davanti al suo veicolo. Il problema è che i dati di questo tipo di interazioni vengono quindi inviati ad Amazon e utilizzati per valutare le prestazioni del conducente.

Uomo statunitense ingiustamente condannato per omicidio da parte di AI (agosto)

Michael Williams viene mandato in prigione a Chicago, ritenuto responsabile dell'omicidio di Safarian Herring a causa dei dati estratti da ShotSpotter, una tecnologia di rilevamento degli spari che utilizza sensori alimentati dall'intelligenza artificiale per recuperare dati sugli spari.

Williams – che all'epoca aveva 65 anni – viene poi trattenuto per quasi un anno prima che il suo caso venga archiviato da un giudice per insufficienza di prove.

Incidenti, errori e fallimenti dell’IA nel 2020

La telecamera AI scambia la testa calva per un pallone da calcio (ottobre)

La squadra di calcio scozzese Inverness Caledonian Thistle utilizza una telecamera AI per aiutare il club a filmare e trasmettere in streaming le partite in diretta per i fan.

Sfortunatamente, in questo caso, l'IA fatica a distinguere tra la testa calva di un ufficiale di gara e il pallone utilizzato nella partita. Ciò rende difficile guardare lo streaming live della partita, con il commentatore che deve scusarsi continuamente per la propensione della telecamera a spostarsi verso la testa del guardalinee.

Il sistema di controllo delle foto dei passaporti AI del Regno Unito mostra errori (ottobre)

Un’indagine della BBC mostra che un servizio online utilizzato dall’ufficio passaporti del Regno Unito per automatizzare il processo di controllo delle foto tessera caricate dai richiedenti mostra significativi pregiudizi razziali.

Dopo aver inserito nello strumento oltre 1.000 foto di politici di tutto il mondo, l'indagine ha scoperto che le donne con la pelle scura hanno più del doppio delle probabilità che la loro foto venga rifiutata rispetto agli uomini con la carnagione più chiara.

La startup AI Genderfiy è stata chiusa dopo cinque giorni (luglio)

Genderfiy, un servizio basato sull’intelligenza artificiale che identifica il genere delle persone in base ai loro nomi e altre informazioni personali, si spegne dopo soli cinque giorni di attività.

Il programma mostra una serie di pregiudizi nel determinare se un nome è maschile o femminile, come suggerire nomi con il titolo onorifico professionale "Dr." hanno maggiori probabilità di essere maschi rispetto agli stessi nomi senza di esso.

Prima detenzione illegale negli Stati Uniti a causa della tecnologia di riconoscimento facciale (gennaio)

Robert Williams diventa il primo uomo ad essere detenuto ingiustamente sulla base dei dati di riconoscimento facciale dopo che la polizia di Detroit lo ha arrestato con l'accusa di aver rubato orologi per un valore di migliaia di dollari. L'errore si è verificato quando un sistema di intelligenza artificiale ha erroneamente abbinato le immagini di sorveglianza all'immagine sulla patente di guida della Williams.

“Avrebbero dovuto raccogliere prove corroboranti come l’identificazione di un testimone oculare, i dati sulla posizione del cellulare o un’impronta digitale”, ha detto Williams alla corte in una lettera e ha sottolineato che “un’immagine sfocata di un grande uomo nero con una palla da baseball cap” era tutto ciò su cui l'algoritmo doveva andare avanti.

L'intelligenza artificiale di Facebook genera una traduzione volgare per il presidente cinese (gennaio)

La funzione di traduzione basata sull'intelligenza artificiale di Facebook provoca quasi un incidente diplomatico tra Myanmar e Cina dopo che il nome del presidente Xi Jinping inizia ad apparire come “Mr. Shithole” quando viene tradotto dal birmano all'inglese sulla piattaforma dei social media.

Facebook successivamente attribuisce il problema ad un “errore tecnico” e si scusa per aver offeso il leader cinese.

Comprendere i limiti dell'intelligenza artificiale

Se utilizzi l'intelligenza artificiale al lavoro, è importante comprendere il fatto che strumenti come ChatGPT possono mostrare pregiudizi, commettere errori e fornire informazioni false. La conoscenza di questi limiti e rischi dovrebbe modellare il modo in cui lo incorpori nella tua infrastruttura e ne controlli l'utilizzo.

Ad esempio, se utilizzi l'intelligenza artificiale per generare contenuti, avrai bisogno di regole precise sul tipo di contenuto per cui dovrebbe essere utilizzata. Chiedere a un’intelligenza artificiale di creare un riepilogo interno degli appunti della riunione è un uso legittimo con pochissimi rischi; utilizzarli per creare e-mail a clienti importanti, d’altro canto, non lo è.

L’implementazione delle linee guida sull’intelligenza artificiale sul posto di lavoro è un must. Eviterà confusione, porterà chiarezza nel processo decisionale dei tuoi dipendenti riguardo all'utilizzo dell'intelligenza artificiale e, cosa più importante, ti impedirà di commettere alcuni degli errori costosi che le aziende descritte in questo articolo hanno commesso durante l'applicazione dell'intelligenza artificiale.