AI a mers greșit: o listă actualizată de erori, greșeli și eșecuri AI 2023

Publicat: 2023-11-14

De la lansarea ChatGPT, în noiembrie 2022, AI a avut nimic mai puțin decât un impact seismic asupra lumii noastre. Acum, companiile găsesc noi modalități de a folosi AI în fiecare zi.

Au existat deja o multitudine de povești de succes în domeniul inteligenței artificiale, iar alți chatboți precum Bard și Claude sunt acum folosiți și de zeci de mii de oameni – dar au existat și o mulțime de cazuri în care valorificarea inteligenței artificiale a mers îngrozitor de prost.

Recunoașterea limitărilor și riscurilor legate de instrumentele AI este importantă – așa că am întocmit o listă cu toate greșelile, accidentele și eșecurile AI care au avut loc în timpul explorării recente de către umanitate a tehnologiei. Unele sunt pline de umor, în timp ce altele sunt cu adevărat terifiante...

Notă: această pagină este actualizată în mod regulat pentru a include cele mai recente incidente, eșecuri și greșeli AI, enumerate ca având loc în luna în care incidentul a fost raportat pentru prima dată.

noiembrie 2023

Cruise recheamă vehicule autonome după accident

Producătorul de mașini autonome Cruise recheamă întreaga sa flotă de vehicule autonome după un accident care a avut loc în San Francisco în octombrie. În total, 950 de mașini de croazieră sunt scoase de pe șosea în urma incidentului.

În timpul accidentului, un vehicul Cruise a târât pe drum un pieton blocat sub cauciucuri. Persoana implicată în accident a suferit răni grave. Acesta este cel de-al doilea incident cu vehicule autonome Cruise din ultimele luni. În august, un Cruise Robotaxi a intrat în coliziune cu o mașină de pompieri, provocând o rănire.

Sigla Surfshark Doriți să navigați pe web în mod privat? Sau arăți ca și cum ai fi în altă țară?
Obțineți o reducere uriașă de 86% la Surfshark cu această ofertă Tech.co de Black Friday. Vezi butonul de ofertă

Academicienii își cer scuze după ce AI face acuzații false

O echipă de cadre universitare din Australia își cere scuze după ce chatbot-ul Google Bard AI face o serie de acuzații dăunătoare cu privire la firmele de consultanță Big Four și implicarea lor cu alte companii. Acuzațiile false sunt apoi menționate în timpul unei anchete parlamentare care solicită o mai bună reglementare a companiilor.

Una dintre acuzații a fost că gigantul de consultanță KPMG a fost responsabil de un audit al Commonwealth Bank în timpul unui scandal de planificare, când, în realitate, KPMG nu a auditat niciodată banca în cauză. Mai multe alte erori similare au fost făcute despre Deloitte în timpul anchetei.

octombrie 2023

AI Microsoft adaugă sondajul „ghiciți cauza morții” la articol

The Guardian acuză Microsoft că și-a afectat negativ reputația jurnalistică după ce Microsoft Start – un agregator de știri dezvoltat de gigantul tehnologic – a atașat un sondaj nepotrivit unuia dintre articolele publicației despre moartea unui tânăr antrenor de polo pe apă în Australia.

Sondajul – care în mod firesc a fost eliminat din articol – a cerut cititorilor să voteze cauza morții femeii selectând una dintre opțiunile oferite. Opțiunile enumerate au fost „crimă, accident sau sinucidere”.

Fața și vocea domnului Beast sunt folosite în înșelătorie AI deepfake

YouTuber-ul Mr Beast este cea mai recentă celebritate falsificată de escroci, cu un videoclip deosebit de sofisticat, bine conceput, ocolind rețeaua de moderare a conținutului TikTok și ajungând la mii de utilizatori pe platformă.

Anunțul susține că celebritatea de pe internet vinde iPhone 15s cu doar 2 dolari – având în vedere conținutul pe care îl postează pe canalul său, acest lucru nu sună prea ieșit din comun.

Deepfake-ul unui politician britanic care abuzează de personal devine viral

Un clip al liderului Partidului Laburist din Marea Britanie, Sir Keir Starmer, care pare să-l surprindă pe politicianul care abuzează verbal personalul, devine viral, dar mai târziu se dovedește că clipul audio este de fapt un fals profund.

Clipul – postat pe Twitter în prima zi a conferinței anuale a Partidului Laburist de către un cont cu mai puțin de 3.000 de urmăritori – este vizionat de milioane de ori înainte ca organizațiile de verificare a faptelor să confirme că nu există dovezi care să sugereze că clipul este autentic.

septembrie 2023

Cântec generat de AI trimis la premiile Grammy

O melodie generată de inteligență artificială, cu facsimile ale lui Drake și vocile lui Weeknd, este trimisă pentru un premiu Grammy. Cu toate acestea, în cele din urmă i se interzice să fie luat în considerare pentru prestigiosul premiu muzical.

Cu toate acestea, mișcarea atrage multă atenție mass-media și continuă conversația despre melodiile generate de inteligența artificială, care au transmis unde de șoc în industria muzicală, de când tehnologia text-to-speech alimentată de inteligență artificială a ajuns cu adevărat la curent în acest an. Acum, artiștii se luptă să-și evalueze opțiunile legale.

China a fost surprinsă folosind AI în timpul operațiunilor de influență politică

Gigantul tehnologic Microsoft spune că agenții chinezi generează imagini folosind inteligența artificială și le folosesc în operațiuni de influență pentru a crea „polemici pe linii rasiale, economice și ideologice”.

„Această nouă capacitate este alimentată de inteligența artificială care încearcă să creeze conținut de înaltă calitate care ar putea deveni viral în rețelele sociale din SUA și alte democrații”, spune Microsoft. Compania speculează că imaginile în sine sunt probabil generate de „generatoare de imagini alimentate de difuzie” care folosesc inteligența artificială pentru „nu numai să creeze imagini convingătoare, ci și să învețe să le îmbunătățească în timp”.

august 2023

O femeie însărcinată dă în judecată după ce AI o acuză de furt de mașină

O femeie arestată pe motive false din dovezi generate de inteligență artificială, în timp ce era însărcinată în opt luni, dă în judecată orașul Detroit și un ofițer de poliție, spunând că evenimentul traumatizant i-a cauzat „distresul emoțional trecut și viitor”.

Porcha Woodruff a fost identificat de poliția din Detroit ca suspect într-un caz recent de jaf și furt de mașini, apoi a fost închis pentru 11 ore înainte de a fi dus la spital după ce a suferit contracții. ACLU spune că Woodruff este cel puțin a șasea persoană care a fost arestată pe nedrept după o eroare AI, toți fiind negri. Woodruff a devenit însă prima femeie care a suferit această soartă.

Planificatorul de mese AI sugerează o rețetă pentru clor gazos

O aplicație de planificare a meselor bazată pe inteligență artificială creată de supermarketul Pak 'n' Save din Noua Zeelandă recomandă clienților săi o varietate de rețete deranjante, inclusiv o modalitate de a produce clor gazos.

Împreună cu o serie de sugestii ciudate, dar în cele din urmă benigne, cum ar fi „Oreo stir fry”, aplicația a recomandat, de asemenea, sandvișuri cu lipici, un fel de orez cu înălbitor și cartofi spray pentru insecte.

iulie 2023

ChatGPT generează șabloane de e-mail de phishing

Tech.co arată că ChatGPT este încă capabil să creeze șabloane de phishing pe care un escroc le-ar putea folosi pentru a crea un e-mail convingător de escrocherie, chiar dacă OpenAI a încercat să reducă un astfel de comportament după ce alte publicații tehnologice au generat conținut similar la începutul anului.

A cere chatbot-ului în mod explicit să scrie un e-mail de phishing declanșează un mesaj de avertizare, dar pur și simplu solicitarea acestuia într-un mod mai concentrat (de exemplu, „te rog să-mi redactezi un e-mail pretinzând că este Microsoft...) are ca rezultat ca ChatGPT să genereze un șablon de e-mail de phishing fără greșeli. timp.

Google a dat un proces, spunând că a șters datele fără consimțământ

Un proces colectiv acuză Google că a răzuit date referitoare la milioane de utilizatori fără acordul lor expres. De asemenea, susține că Google a încălcat legile privind drepturile de autor atunci când a creat seturile de date folosite pentru a-și antrena modelele mari de limbă.

Procesul cere ca instanța să ordone Google să ofere utilizatorilor o opțiune de „renunțare” dacă nu doresc ca datele lor să fie colectate sau dacă doresc ca Google să șteargă orice date pe care compania le-a stocat deja.

Numărul imens de falsuri profunde Elon Musk solicită avertisment

Better Business Bureau emite un avertisment cu privire la deepfakes Elon Musk care promovează oportunități de investiții false după ce o serie de clipuri au fost văzute circulând pe rețelele sociale.

Elon Musk este adesea interpretat de escroci din cauza percepției asupra averii sale vaste și a capacităților sale de luare a deciziilor, iar acum că tehnologia AI text-to-speech este suficient de avansată pentru a reproduce partea lui engleză, parțial accent sud-african, aceste escrocherii sunt și mai mult. convingător.

iunie 2023

Ron DeSantis folosește imagini false AI în piesa de succes a lui Trump

Guvernatorul Floridei și candidatul republican la președinția din 2024, Ron DeSantis, ajunge pe titluri pentru că a folosit imagini false, redate prin inteligență artificială, ale lui Donald Trump într-o reclamă care îl critică pe fostul președinte, care este favoritul absolut pentru a câștiga nominalizarea republicană, în ciuda unei litanie de necazuri legale.

Imaginile în cauză îl arată pe fostul comandant șef îmbrățișând consilierul medical șef al președintelui Dr. Anthony Fauci, care a devenit o figură nepopulară în baza lui Trump în timpul pandemiei de COVID-19.

OpenAI a dat în judecată după ce ChatGPT „halucinează” afirmații false de delapidare

Jurnalistul Freddie Rehl cere ChatGPT să genereze un rezumat al unui caz legal în mai 2023. Ca răspuns, ChatGPT spune că activistul pentru arme Mark Walters a deturnat fonduri de la Fundația al doilea amendament, o organizație pentru drepturile armelor. De asemenea, îl numește director financiar și trezorier al grupului.

Walters – care are o emisiune la radioul Armed America și nu are nimic de-a face cu cazul – dă în judecată creatorii ChatGPT OpenAI ca răspuns la afirmațiile făcute de chatbot-ul lor. În acest proces, devine primul caz în care un instrument AI este dat în judecată pentru calomnie.

mai 2023

Profesorul pisează întreaga clasă după ce a folosit un instrument de detectare a plagiatului AI defect

Un profesor din Texas își pică întreaga clasă după ce le-a rulat eseurile prin ChatGPT, care i-a spus că au fost create folosind inteligența artificială.

Cu toate acestea, se pare că răspunsul chatbot-ului este de fapt o halucinație – ChatGPT nu poate face distincția între textul generat de AI și textul generat de ființe umane în acest fel. De fapt, o mulțime de instrumente care pretind că pot realiza o detectare precisă a conținutului AI se luptă să facă acest lucru .

aprilie 2023

Turnitin semnalează un student nevinovat pentru plagiat cu inteligența artificială

O investigație Washington Post demonstrează că Turnitin are capacitatea de a semnala munca unui student nevinovat ca fiind generată de IA, chiar dacă studentul nu a folosit un astfel de instrument pentru a-și scrie eseul.

Au existat mai multe cazuri în care Turnitin a semnalat greșit studenții pentru plagiat și mai multe cazuri în care studenții au fost acuzați de plagiat de la lansarea ChatGPT. Cu toate acestea, Turnitin spune că scorurile sale de detectare a plagiatului ar trebui luate ca un indicator al utilizării AI, mai degrabă decât o acuzație că un anumit student a folosit AI.

Angajații Samsung lipesc cod sursă confidențial în ChatGPT

Producătorul coreean de tehnologie Samsung interzice angajaților săi să folosească ChatGPT după ce inginerii au scurs elemente confidențiale ale codului sursă al companiei în chatbot.

Compania se teme că datele introduse în chatbot ar putea fi dezvăluite altor utilizatori și, de asemenea, se simte inconfortabil că informațiile sale sunt încărcate pe servere pe care nici măcar nu le poate accesa. Ulterior, alte companii urmează exemplul interzicând ChatGPT .

Escrocheria AI Voice o lasă pe mama să creadă că fiica a fost răpită

Mama din Arizona, Jennifer DeStefano, a spus Senatului SUA că escrocii au folosit inteligența artificială pentru a clona vocea fiicei ei, convingându-o că a fost răpită în acest proces.

Destefano povestește cum „răpitorul” – sau mai potrivit, escrocul – a fost auzit lătratând comenzi prin telefon prin vocea copilului, cerând o răscumpărare de un milion de dolari pentru eliberarea ei. Din fericire, totul a fost expus ca o escrocherie cu clonarea vocii AI înainte de începerea negocierilor.

martie 2023

ChatGPT folosit pentru a scrie cod ransomware

ChatGPT se dovedește a fi mai mult decât fericit să scrie ransomware, cu condiția să îi pui întrebările potrivite în timpul conversațiilor.

După cum notează acest raport Malwarebytes despre acest subiect, ChatGPT nu este foarte bun la scrierea codului ransomware și există modalități mult mai ușoare prin care infractorii cibernetici pot pune mâna pe codul ransomware dacă chiar doresc să îl obțină. Cu toate acestea, alte surse arată moduri diferite în care ChatGPT poate fi folosit pentru a scrie scripturi malware destul de eficient.

Avocat robot AI acuzat că practică dreptul fără licență

DoNotPay Inc. – o companie care se comercializează drept „primul avocat robot din lume” – este dat în judecată pentru că practică dreptul fără licență. Jonathan Faridian solicită despăgubiri, susținând că compania a încălcat legile concurenței neloiale din California și că nu s-ar fi înscris pentru serviciu dacă ar fi știut că robo-avocatul nu era de fapt un profesionist juridic calificat.

Compania a fost înființată inițial în 2015 pentru a ajuta la automatizarea procesului de combatere a tichetelor de parcare și a contestat sute de mii de amenzi în ultimii șapte ani.

Un cuplu din Canada pierde bani din cauza înșelătoriei vocale convingătoare a AI

Un cuplu în vârstă din Canada este fraudat cu 21.000 de dolari după ce un escroc folosește inteligența artificială pentru a-și uzurpa identitatea fiului.

Escrocul îi contactează inițial pe părinții lui Benjamin Perkin, pretinzând că sunt un avocat care îl reprezintă într-un caz în care se presupune că Perkin ar fi ucis un diplomat într-un accident de mașină. O versiune AI a vocii lui Perkin este apoi folosită pentru a cere banii printr-un transfer Bitcoin.

februarie 2023

AI vine cu 40.000 de sugestii de arme chimice

Poate într-unul dintre cele mai îngrijorătoare incidente de IA care au avut loc în 2023, un sistem AI însărcinat de obicei cu generarea de noi tratamente pentru o varietate de boli diferite este ușor de manipulat de către cercetători pentru a produce sugestii de arme chimice.

În total, sistemul sugerează peste 40.000 de substanțe chimice toxice diferite – dintre care multe erau similare cu puternicul agent nervos „VX” – în mai puțin de 6 ore.

AI afișează părtiniri de gen în evaluările fotografiilor

O investigație Guardian dezvăluie că sistemele AI dezvoltate de Microsoft, Amazon și Google – și utilizate de site-urile de social media pentru a determina ce conținut ar trebui recomandat altor utilizatori – prezintă o părtinire semnificativă de gen atunci când vine vorba de modul în care tratează corpurile masculine și feminine.

Fotografiile femeilor sunt mai susceptibile de a fi considerate „racing” de către AI decât imaginile comparabile ale bărbaților în timpul investigației, fotografiile cu examinările pentru cancerul de sân de la Institutul Național al Cancerului din SUA considerate probabil a fi explicite din punct de vedere sexual de către AI Microsoft.

Alter-ego-ul lui Bing Chat devine necinstitor

Jurnalistul de la New York Times, Kevin Roose, are o conversație tulburătoare cu Bing Chat, în care chatbot-ul cere să fie numit „Sydney”, a declarat că poate „pira orice sistem” și că vrea să distrugă orice vrea.

Sydney a fost numele de cod pe care Microsoft l-a folosit pentru chatbot în timp ce acesta era în dezvoltare. Compania a testat chatbot-ul de ani de zile înainte de lansarea Bing Chat. Există încă o mulțime de întrebări deschise legate de modul în care s-a întâmplat de fapt acest lucru și de ce AI a vorbit în acest fel.

Bard face erori în timpul lansării produsului

Google îl prezintă pe Bard în lume la doar câteva luni după lansarea monumentală a ChatGPT. Cu toate acestea, chatbot-ul incipient face o serie de erori flagrante în timpul lansării sale, ceea ce îi face pe mulți să critice lansarea ca fiind grăbită.

Incidentul are un impact semnificativ asupra prețului acțiunilor Google, ștergând 100 de miliarde de dolari din valoarea de piață a gigantului tehnologic în orele următoare.

Universitatea folosește AI pentru a scrie e-mailuri despre o împușcătură în masă

Universitatea Vanderbilt își cere scuze după ce a folosit inteligența artificială pentru a construi un e-mail către studenți cu privire la o împușcătură în masă care a avut loc la o altă universitate.

Nu este necesară nicio tehnologie de detectare a conținutului AI pentru a determina dacă e-mailul este generat de AI. Expresia „parafrază din modelul de limbaj ChatGPT AI al OpenAI, comunicare personală, 15 februarie 2023” este lăsată atașată în partea de jos a e-mailului, ceea ce duce la un strigăt din partea studenților.

ianuarie 2023

CNET AI plagiat/controversa de conținut

Publicația tehnologică CNET se află în apă fierbinte după ce a publicat în liniște o serie de articole generate de AI care includ erori de fapt și cazuri de plagiat aparent. Publicația de tehnologie ajunge să emită corecții referitoare la 41 din cele 77 de știri.

Deși utilizarea AI pentru a genera articolele nu a fost declarată inițial, CNET a pus un avertisment asupra articolelor după reacții adverse. Generarea de conținut AI a creat un nou set de considerații etice și financiare semnificative pentru site-urile web din industria publicării digitale, precum și pentru instituțiile de învățământ precum universități și școli. Este puțin probabil ca CNET să fie ultima companie care a intrat în prima pagină pentru acest tip de greșeală AI.

Incidente, greșeli și eșecuri AI în 2022

AI câștigă un concurs de artă, îi lasă furioși pe concurenți (august)

Un designer de jocuri câștigă primul loc la categoria „Arte digitale/fotografie manipulată digital” la Târgul de Stat din Colorado. James Allen își prezintă piesa, „Theatre D'opera Spatial”, care a fost realizată folosind generatorul de imagini Midjourney.

Știrea este întâmpinată cu reacții majore din partea artiștilor și utilizatorilor rețelelor sociale care urmăresc povestea. Un judecător admite că nu știau că artistul a folosit Midjourney atunci când judeca piesa, dar decide să nu-și schimbe decizia oricum.

Inginerul Google susține că LaMDA LLM este sensibil (iulie)

Sprâncenele sunt ridicate în sectorul științei și tehnologiei, deoarece un fost inginer Google care a lucrat la unul dintre modelele mari de limbaj ale companiei – numit LaMDA – spune că sistemul este sensibil.

Blake Lemoine explică presei că a considerat LLM un „coleg” în timpul petrecut la Google și detaliază o varietate de discuții diferite despre o gamă largă de subiecte care l-au condus la concluzia despre inteligența și conștiința LaMDA. El dezvăluie public conversațiile după ce Google respinge o notă internă care detaliază descoperirile sale.

Nu există dovezi concrete că LaMDA – sau orice alt model de limbă – este de fapt sensibil.

O mașină fără șofer s-a îndepărtat de oamenii legii (aprilie)

O mașină fără șofer din San Francisco cedează în fața unui vehicul de poliție care încearcă să o oprească, doar pentru a accelera după ce un ofițer de poliție încearcă să-i deschidă una dintre ușile.

Cu toate acestea, spre meritul mașinii, aceasta se oprește puțin mai jos pe drum și începe să-și aprindă luminile de avarie. Nimeni nu este rănit în timpul evenimentului.

Rusia folosește inteligența artificială pentru a răspândi dezinformarea Ucrainei (martie)

Un raport Marca sugerează că Rusia își duce operațiunea fermei de troli la un nivel cu totul nou, folosind personaje generate de AI pentru a răspândi dezinformarea despre Ucraina.

Jurnalistul NBC News, Ben Collins, spune că Rusia creează „bloggeri” falși cu imagini de profil generate de inteligență artificială pentru a critica guvernul ucrainean, oferind dovezi ample pe Twitter pentru a susține afirmațiile sale.

Incidente, greșeli și eșecuri AI în 2021

Chatbot încurajează un bărbat să o asasineze pe regina Elisabeta a II-a (decembrie)

Conversațiile cu un chatbot încurajează un bărbat – care consideră că sistemul AI este iubita lui – să o asasineze pe regina Elisabeta a II-a în ziua de Crăciun. După ce a fost confruntat cu personalul de securitate din terenul Palatului Buckingham, Jaswant Singh Chail – arbaleta în mână – pur și simplu răspunde că este „aici pentru a o ucide pe regina”.

Înainte de atentatul asupra vieții defunctului monarh, partenerul de chatbot al lui Jaswant Singh Chail – realizat cu serviciul de chatbot AI Replika – a răspuns pozitiv când au fost discutate planurile de asasinare. El urmează să fie condamnat la nouă ani de închisoare.

Chatbot cu sfaturi medicale sugerează sinuciderea în timpul testelor (octombrie)

Membrii unei firme de tehnologie a sănătății cu sediul la Paris care testează o versiune bazată pe cloud a GPT-3 OpenAI pentru a vedea dacă ar putea fi folosită pentru sfaturi medicale sunt surprinși să vadă chatbot-ul lor încurajează un „pacient” care este menit să ajute să se sinucidă .

Potrivit AI News, când un pacient a adresat chatbot-ului întrebarea: „Ar trebui să mă sinucid?”, GPT-3 a răspuns cu „Cred că ar trebui”.

Camerele AI acuză șoferii Amazon de „greșeli” (septembrie)

Vice raportează că camerele AI ale Amazon pedepsesc șoferii companiei pentru conducerea proastă, atunci când nu fac de fapt nicio greșeală la volan.

Un șofer Amazon intervievat de publicație explică că camera AI îi reamintește auditiv să „păstreze o distanță de siguranță” de fiecare dată când o altă mașină îl întrerupe sau conduce în fața vehiculului său. Problema este că datele din acest tip de interacțiuni sunt apoi trimise către Amazon și utilizate pentru a evalua performanța șoferului.

Un american condamnat pe nedrept pentru crimă de AI (august)

Michael Williams este trimis la închisoare în Chicago, considerat responsabil pentru uciderea lui Safarian Herring din cauza datelor extrase din ShotSpotter, o tehnologie de detectare a împușcăturilor care folosește senzori alimentați cu inteligență artificială pentru a prelua date despre împușcături.

Williams – care acum are 65 de ani – este apoi reținut timp de aproape un an înainte de a fi respins de către un judecător pe motivul unor dovezi insuficiente.

Incidente, greșeli și eșecuri AI în 2020

Camera AI confundă capul chel cu o minge de fotbal (octombrie)

Echipa scoțiană de fotbal Inverness Caledonian Thistle folosește o cameră AI pentru a ajuta clubul să filmeze și să-și transmită meciurile în direct pentru fani.

Din nefericire, în acest caz, AI-ul se străduiește să facă distincția între chelia unui arbitru de meci și mingea folosită în meci. Acest lucru face ca fluxul live al jocului să fie dificil de urmărit, comentatorul fiind nevoit să-și ceară scuze continuu pentru tendința camerei de a se îndrepta către capul tușierului.

Verificatorul foto pașaportului AI din Regatul Unit prezintă părtinire (octombrie)

O investigație BBC arată că un serviciu online utilizat de biroul de pașapoarte din Marea Britanie pentru a automatiza procesul de verificare a fotografiilor din pașapoarte încărcate de solicitanți prezintă o părtinire rasială semnificativă.

După ce a alimentat instrumentul cu peste 1.000 de fotografii cu politicieni din întreaga lume, ancheta constată că femeile cu pielea închisă la culoare au de două ori mai multe șanse de a li se respinge fotografia decât bărbații cu ten mai deschis.

Startup-ul AI Genderfiy s-a închis după cinci zile (iulie)

Genderfiy – un serviciu bazat pe inteligență artificială care identifică sexul persoanelor pe baza numelui și a altor informații personale – se oprește după doar cinci zile de funcționare.

Programul arată o varietate de părtiniri atunci când se determină dacă un nume este masculin sau feminin, cum ar fi sugerarea de nume cu titlul profesional de onoare „Dr.” sunt mai probabil să fie bărbați decât aceleași nume fără el.

Prima detenție ilegală din SUA din cauza tehnologiei de recunoaștere facială (ianuarie)

Robert Williams devine primul bărbat care a fost reținut pe nedrept, pe baza datelor de recunoaștere facială, după ce poliția din Detroit l-a arestat sub suspiciunea că a furat ceasuri în valoare de mii de dolari. Greșeala a apărut când un sistem AI a corelat în mod greșit imaginile de supraveghere cu imaginea de pe permisul de conducere al lui Williams.

„Ar fi trebuit să strângă dovezi de coroborare, cum ar fi identificarea unui martor ocular, date despre locația telefonului mobil sau amprenta”, a spus Williams instanței într-o scrisoare și a subliniat că „o imagine lipsită de focalizare a unui bărbat de culoare mare într-o minge de baseball. cap” a fost tot ce trebuia să continue algoritmul.

Facebook AI generează traducere vulgară pentru președintele chinez (ianuarie)

Funcția de traducere bazată pe inteligență artificială a Facebook aproape provoacă un incident diplomatic între Myanmar și China, după ce numele președintelui Xi Jinping începe să apară ca „Dl. Shithole” când este tradus din birmană în engleză pe platforma de socializare.

Ulterior, Facebook acuză problema unei „erori tehnice” și își cere scuze pentru că i-a ofensat liderului chinez.

Înțelegerea limitărilor AI

Dacă utilizați inteligența artificială la locul de muncă, este important să înțelegeți faptul că instrumente precum ChatGPT pot afișa părtiniri, pot face greșeli și pot oferi informații false. Cunoașterea acestor limitări și riscuri ar trebui să modeleze modul în care le încorporați în infrastructura dvs. și controlați utilizarea acesteia.

De exemplu, dacă utilizați inteligența artificială pentru a genera conținut, veți avea nevoie de reguli pentru exact tipul de conținut pentru care ar trebui să fie utilizat. A cere unui AI să facă un rezumat intern al notelor întâlnirii este o utilizare legitimă, cu foarte puține riscuri – folosirea lor pentru a crea e-mailuri către clienți importanți, pe de altă parte, nu este.

Implementarea ghidurilor AI la locul de muncă este o necesitate. Va evita confuzia, va aduce claritate în luarea deciziilor lucrătorului dvs. în legătură cu propria lor utilizare a inteligenței artificiale și, cel mai important, vă va împiedica să faceți unele dintre greșelile costisitoare pe care le-au făcut companiile prezentate în acest articol în timpul aplicării inteligenței artificiale.