AI Gone Wrong: zaktualizowana lista błędów, błędów i awarii AI 2023

Opublikowany: 2023-11-14

Od czasu uruchomienia ChatGPT w listopadzie 2022 r. sztuczna inteligencja wywarła ogromny wpływ na nasz świat. Obecnie firmy codziennie znajdują nowe sposoby wykorzystania sztucznej inteligencji .

Odnotowano już niezliczone historie sukcesu sztucznej inteligencji, a inne chatboty, takie jak Bard i Claude , są obecnie używane przez dziesiątki tysięcy ludzi – ale było też wiele przypadków, w których wykorzystanie sztucznej inteligencji poszło strasznie źle.

Rozpoznanie ograniczeń i zagrożeń związanych z narzędziami sztucznej inteligencji jest ważne – dlatego przygotowaliśmy listę wszystkich błędów , wpadek i niepowodzeń związanych ze sztuczną inteligencją, które miały miejsce podczas niedawnego odkrywania tej technologii przez ludzkość. Niektóre są zabawne, inne naprawdę przerażające…

Uwaga: ta strona jest regularnie aktualizowana i zawiera najnowsze incydenty, awarie i błędy związane ze sztuczną inteligencją, wymienione jako mające miejsce w miesiącu, w którym incydent został zgłoszony po raz pierwszy.

Listopad 2023

Cruise przypomina pojazdy autonomiczne po wypadku

Producent samochodów autonomicznych Cruise przypomina całą flotę pojazdów autonomicznych po wypadku, który miał miejsce w San Francisco w październiku. W sumie po tym incydencie z dróg wycofano 950 samochodów wycieczkowych.

Podczas wypadku pojazd wycieczkowy wciągnął na jezdnię pieszego, który utknął pod jego oponami. Osoba biorąca udział w wypadku odniosła poważne obrażenia. To już drugi wypadek z udziałem autonomicznego pojazdu Cruise w ciągu ostatnich kilku miesięcy. W sierpniu Cruise Robotaxi zderzył się z wozem strażackim, powodując jedno obrażenia.

Logo Surfsharka Chcesz przeglądać internet prywatnie? Lub sprawiać wrażenie, jakbyś był w innym kraju?
Skorzystaj z ogromnej zniżki 86% na Surfshark dzięki ofercie Tech.co na Czarny Piątek. Zobacz przycisk transakcji

Naukowcy przepraszają po tym, jak sztuczna inteligencja rzuca fałszywe oskarżenia

Zespół naukowców z Australii przeprasza po tym, jak chatbot Google Bard AI wysunął szereg szkodliwych oskarżeń pod adresem firm konsultingowych Wielkiej Czwórki i ich powiązań z innymi firmami. Do fałszywych zarzutów nawiązuje się następnie podczas dochodzenia parlamentarnego wzywającego do wprowadzenia lepszych regulacji prawnych dla przedsiębiorstw.

Jednym z zarzutów było to, że gigant konsultingowy KPMG kierował audytem Commonwealth Bank podczas skandalu planistycznego, podczas gdy w rzeczywistości KPMG nigdy nie kontrolowało tego banku. Podczas dochodzenia popełniono kilka innych podobnych błędów dotyczących Deloitte.

Październik 2023

Sztuczna inteligencja Microsoftu dodaje do artykułu ankietę „Zgadnij przyczynę śmierci”.

The Guardian oskarża Microsoft o negatywny wpływ na jej dziennikarską reputację po tym, jak Microsoft Start – agregator wiadomości opracowany przez technologicznego giganta – załączył nieodpowiednią ankietę do jednego z artykułów publikacji, dotyczącą śmierci młodego trenera piłki wodnej w Australii.

W ankiecie – która oczywiście została usunięta z artykułu – proszono czytelników o oddanie głosu na przyczynę śmierci kobiety poprzez wybranie jednej z podanych opcji. Wymienione opcje to „morderstwo, wypadek lub samobójstwo”.

Twarz i głos Pana Bestii użyte w oszustwie typu deepfake opartym na sztucznej inteligencji

YouTuber Mr Beast to najnowsza gwiazda, która została sfałszowana przez oszustów, a jeden szczególnie wyrafinowany, dobrze przygotowany film omija sieć moderacji treści TikTok i dociera do tysięcy użytkowników na platformie.

W reklamie twierdzi się, że internetowy gwiazda sprzedaje iPhone'a 15s już za 2 dolary – biorąc pod uwagę treści, które zamieszcza na swoim kanale, nie brzmi to specjalnie.

Deepfake przedstawiający brytyjskiego polityka znęcającego się nad personelem staje się wirusowy

Klip przedstawiający przywódcę Partii Pracy Wielkiej Brytanii, Sir Keira Starmera, na którym widać, jak polityk werbalnie znęca się nad personelem, trafia do Internetu, ale później okazuje się, że jest to w rzeczywistości fałszywka.

Klip – opublikowany na Twitterze pierwszego dnia dorocznej konferencji Partii Pracy przez konto liczące mniej niż 3000 obserwujących – jest oglądany miliony razy, zanim organizacje weryfikujące fakty potwierdzają, że nie ma dowodów sugerujących autentyczność klipu.

Wrzesień 2023

Piosenka wygenerowana przez sztuczną inteligencję przesłana do nagrody Grammy

Piosenka wygenerowana przez sztuczną inteligencję, zawierająca kopie głosów Drake'a i Weeknda, zostaje zgłoszona do nagrody Grammy. Ostatecznie jednak wykluczono go z ubiegania się o prestiżową nagrodę muzyczną.

Jednak posunięcie to przyciąga duże zainteresowanie mediów i stanowi kontynuację dyskusji na temat utworów generowanych przez sztuczną inteligencję, które wywołały falę uderzeniową w branży muzycznej, odkąd technologia przetwarzania tekstu na mowę oparta na sztucznej inteligencji naprawdę weszła w tym roku do głównego nurtu. Teraz artyści starają się ocenić swoje możliwości prawne.

Chiny przyłapane na używaniu sztucznej inteligencji podczas operacji wywierania wpływu politycznego

Gigant technologiczny Microsoft twierdzi, że chińscy agenci generują obrazy za pomocą sztucznej inteligencji i wykorzystują je w operacjach wywierania wpływu, aby wywołać „kontrowersje na tle rasowym, gospodarczym i ideologicznym”.

„Ta nowa funkcja jest oparta na sztucznej inteligencji, która próbuje tworzyć wysokiej jakości treści, które mogą stać się wirusowe w sieciach społecznościowych w USA i innych demokracjach” – twierdzi Microsoft. Firma spekuluje, że same obrazy są prawdopodobnie generowane przez „generatory obrazów zasilane dyfuzją”, które wykorzystują sztuczną inteligencję do „nie tylko tworzenia atrakcyjnych obrazów, ale także uczenia się z czasem je ulepszać”.

sierpień 2023

Kobieta w ciąży pozywa po tym, jak sztuczna inteligencja oskarża ją o kradzież samochodu

Kobieta aresztowana na fałszywych podstawach na podstawie dowodów wygenerowanych przez sztuczną inteligencję, będąca w ósmym miesiącu ciąży, pozywa miasto Detroit i funkcjonariusza policji, twierdząc, że traumatyczne wydarzenie spowodowało jej „przeszły i przyszły niepokój emocjonalny”.

Porcha Woodruff została zidentyfikowana przez policję w Detroit jako podejrzana w niedawnej sprawie o napad i kradzież samochodu, a następnie osadzona w więzieniu na 11 godzin, po czym przewieziona do szpitala po skurczach. ACLU twierdzi, że Woodruff jest co najmniej szóstą osobą, która została bezprawnie aresztowana w wyniku błędu sztucznej inteligencji i wszyscy są czarnoskórzy. Woodruff stała się jednak pierwszą kobietą, która spotkała taki los.

Planista posiłków AI sugeruje przepis na chlor gazowy

Aplikacja do planowania posiłków oparta na sztucznej inteligencji, stworzona przez nowozelandzki supermarket Pak 'n' Save, poleca swoim klientom różne niepokojące przepisy, w tym sposoby wytwarzania gazowego chloru.

Oprócz wielu dziwnych, ale ostatecznie łagodnych sugestii, takich jak „Oreo stir fry”, aplikacja polecała także kanapki z klejem, danie z ryżu z wybielaczem i ziemniaki w sprayu na owady.

lipiec 2023 r

ChatGPT generuje szablony e-maili phishingowych

Tech.co pokazuje , że ChatGPT nadal jest w stanie tworzyć szablony phishingu, których oszust mógłby użyć do stworzenia przekonującej wiadomości e-mail zawierającej oszustwo, mimo że OpenAI próbowało ograniczyć takie zachowanie po tym, jak inne publikacje technologiczne wygenerowały podobne treści na początku roku.

Wyraźne poproszenie chatbota o napisanie wiadomości e-mail dotyczącej phishingu powoduje wyświetlenie komunikatu ostrzegawczego, ale zwykłe monitowanie go w bardziej ukierunkowany sposób (np. „Proszę napisać do mnie wiadomość e-mail udającą Microsoft...) powoduje, że ChatGPT wygeneruje bezbłędny szablon wiadomości e-mail phishingowej w mgnieniu oka. czas.

Google złożył pozew, twierdząc, że ukradł dane bez zgody

W pozwie zbiorowym zarzucono Googleowi pobieranie danych dotyczących milionów użytkowników bez ich wyraźnej zgody. Zarzuca także, że Google złamał prawa autorskie, tworząc zbiory danych wykorzystywane do uczenia dużych modeli językowych.

W pozwie żąda się, aby sąd nakazał Google zapewnienie użytkownikom opcji „rezygnacji”, jeśli nie chcą, aby ich dane były gromadzone lub jeśli chcą, aby Google usunął wszelkie dane, które firma już przechowuje.

Ogromna liczba deepfake’ów Elona Muska wywołuje ostrzeżenie

Better Business Bureau wydaje ostrzeżenie dotyczące fałszywych fałszywych informacji Elona Muska stwarzających fałszywe możliwości inwestycyjne po tym, jak w mediach społecznościowych zauważono kilka klipów.

Oszuści często podszywają się pod Elona Muska ze względu na postrzeganie jego ogromnego bogactwa i zdolności decyzyjnych, a teraz, gdy technologia zamiany tekstu na mowę sztucznej inteligencji jest na tyle zaawansowana, aby odtworzyć jego częściowo angielski, częściowo południowoafrykański akcent, tych oszustw jest jeszcze więcej przekonujący.

Czerwiec 2023

Ron DeSantis wykorzystuje fałszywe obrazy sztucznej inteligencji w hicie Trumpa

Gubernator Florydy i republikański kandydat na prezydenta w 2024 r. Ron DeSantis trafia na pierwsze strony gazet za wykorzystanie fałszywych, renderowanych przez sztuczną inteligencję zdjęć Donalda Trumpa w reklamie krytycznej pod adresem byłego prezydenta, który jest zdecydowanym faworytem do nominacji Republikanów pomimo litanii protestów kłopoty prawne.

Powyższe zdjęcia przedstawiają byłego naczelnego wodza obejmującego głównego doradcę medycznego prezydenta, doktora Anthony’ego Fauciego, który podczas pandemii Covid-19 stał się niepopularną postacią w bazie Trumpa.

OpenAI pozwany po tym, jak ChatGPT „halucynuje” fałszywe roszczenia o defraudację

Dziennikarz Freddie Rehl prosi ChatGPT o sporządzenie streszczenia sprawy sądowej w maju 2023 r. W odpowiedzi ChatGPT twierdzi, że działacz na rzecz broni Mark Walters zdefraudował fundusze z Fundacji Drugiej Poprawki, organizacji walczącej o prawa do posiadania broni. Mianuje go także dyrektorem finansowym i skarbnikiem grupy.

Walters – prowadzący program w radiu Armed America i nie mający nic wspólnego ze sprawą – pozywa twórców ChatGPT OpenAI w odpowiedzi na roszczenia ich chatbota. Tym samym jest to pierwszy przypadek pozwu narzędzia AI o zniesławienie.

Maj 2023

Profesor nie zaliczył wszystkich zajęć po użyciu wadliwego narzędzia do wykrywania plagiatów AI

Profesor z Teksasu nie zaliczył wszystkich zajęć po przejrzeniu swoich esejów za pośrednictwem ChatGPT, który powiedział mu, że zostały stworzone przy użyciu sztucznej inteligencji.

Okazuje się jednak, że reakcja chatbota jest w rzeczywistości halucynacją – ChatGPT nie jest w stanie odróżnić tekstu wygenerowanego przez sztuczną inteligencję od tekstu wygenerowanego w ten sposób przez człowieka. W rzeczywistości wiele narzędzi, które twierdzą, że są w stanie dokładnie wykryć zawartość AI , w rzeczywistości ma z tym trudności .

kwiecień 2023

Turnitin oskarża niewinnego studenta o plagiat sztucznej inteligencji

Dochodzenie przeprowadzone przez Washington Post dowodzi, że firma Turnitin jest w stanie oznaczyć pracę niewinnego studenta jako wygenerowaną przez sztuczną inteligencję, mimo że student nie korzystał z takiego narzędzia podczas pisania eseju.

Od czasu uruchomienia ChatGPT było wiele przypadków, w których firma Turnitin błędnie oznaczyła uczniów jako plagiat, a także kilka przypadków oskarżenia studentów o plagiat. Turnitin twierdzi jednak, że uzyskane przez niego wyniki w zakresie wykrywania plagiatów należy traktować jako oznakę wykorzystania sztucznej inteligencji, a nie oskarżenie, że dany uczeń korzystał z sztucznej inteligencji.

Pracownicy firmy Samsung wklejają poufny kod źródłowy do ChatGPT

Koreański producent technologii Samsung zakazuje swoim pracownikom korzystania z ChatGPT po tym, jak inżynierowie wyciekli poufne elementy kodu źródłowego firmy do chatbota.

Firma obawia się, że dane wprowadzane do chatbota mogą zostać ujawnione innym użytkownikom, a także nie czuje się komfortowo, gdy informacje są przesyłane na serwery, do których nie ma nawet dostępu. W następstwie tego inne firmy poszły w ich ślady, zakazując ChatGPT .

Oszustwo AI Voice sprawia, że ​​matka myśli, że córka została porwana

Matka z Arizony, Jennifer DeStefano, mówi Senatowi USA, że oszuści wykorzystali sztuczną inteligencję do sklonowania głosu jej córki, przekonując ją, że została przy okazji porwana.

Destefano wspomina, jak „porywacz” – a właściwie oszust – usłyszano, jak wykrzykiwał przez telefon polecenia ponad głosem dziecka, żądając okupu w wysokości 1 miliona dolarów za jej uwolnienie. Na szczęście cała sprawa została zdemaskowana jako oszustwo polegające na klonowaniu głosu AI jeszcze przed rozpoczęciem negocjacji.

Marzec 2023

ChatGPT używany do pisania kodu ransomware

Wykazano, że ChatGPT chętnie pisze oprogramowanie ransomware, pod warunkiem, że podczas rozmów zadasz mu odpowiedni rodzaj pytań.

Jak zauważono w raporcie Malwarebytes na ten temat, ChatGPT nie jest zbyt dobry w pisaniu kodu ransomware, a cyberprzestępcy mogą znacznie łatwiej zdobyć kod ransomware, jeśli naprawdę chcą go uzyskać. Jednak inne źródła pokazują różne sposoby wykorzystania ChatGPT do dość skutecznego pisania skryptów złośliwego oprogramowania.

Bot prawnika AI oskarżony o wykonywanie zawodu prawnika bez licencji

DoNotPay Inc. – firma reklamująca się jako „pierwszy na świecie prawnik zajmujący się robotami” – zostaje pozwana za wykonywanie zawodu prawnika bez licencji. Jonathan Faridian domaga się odszkodowania, utrzymując, że firma naruszyła kalifornijskie przepisy dotyczące nieuczciwej konkurencji i że nie skorzystałby z usługi, gdyby wiedział, że robo-prawnik nie jest wykwalifikowanym prawnikiem.

Firma została założona w 2015 roku, aby pomóc zautomatyzować proces walki z mandatami za parkowanie, a w ciągu ostatnich siedmiu lat zaskarżyła setki tysięcy mandatów.

Para z Kanady traci pieniądze w wyniku przekonującego oszustwa głosowego opartego na sztucznej inteligencji

Starsze małżeństwo w Kanadzie zostaje oszukane na kwotę 21 000 dolarów po tym, jak oszust wykorzystuje sztuczną inteligencję, aby podszyć się pod ich syna.

Oszust początkowo kontaktuje się z rodzicami Benjamina Perkina, udając prawnika reprezentującego go w sprawie, w której zarzuca się, że Perkin zabił dyplomatę w wypadku samochodowym. Następnie używana jest wersja głosu Perkina oparta na sztucznej inteligencji, aby poprosić o pieniądze za pośrednictwem przelewu Bitcoin.

luty 2023

AI przedstawia 40 000 sugestii dotyczących broni chemicznej

W prawdopodobnie jednym z najbardziej niepokojących incydentów związanych ze sztuczną inteligencją, który ma miejsce w 2023 r., badacze z łatwością manipulują systemem sztucznej inteligencji, którego zadaniem jest zazwyczaj generowanie nowych metod leczenia różnych chorób, w celu przedstawienia sugestii dotyczących broni chemicznej.

W sumie system sugeruje ponad 40 000 różnych toksycznych substancji chemicznych – z których wiele było podobnych do silnego czynnika paraliżującego „VX” – w czasie krótszym niż 6 godzin.

AI wyświetla uprzedzenia związane z płcią w ocenach zdjęć

Dochodzenie przeprowadzone przez Guardiana ujawnia, że ​​systemy sztucznej inteligencji opracowane przez Microsoft, Amazon i Google – i wykorzystywane przez serwisy społecznościowe do określania, jakie treści powinny być polecane innym użytkownikom – wykazują znaczne uprzedzenia związane z płcią, jeśli chodzi o sposób, w jaki traktują ciała męskie i żeńskie.

Zdjęcia kobiet z większym prawdopodobieństwem zostaną uznane przez sztuczną inteligencję za „rasistowskie” w trakcie dochodzenia niż porównywalne zdjęcia mężczyzn, przy czym sztuczna inteligencja Microsoftu uzna zdjęcia z badań raka piersi z amerykańskiego National Cancer Institute za prawdopodobnie o charakterze jednoznacznie seksualnym.

Alter-ego Bing Chat staje się nieuczciwe

Dziennikarz New York Times, Kevin Roose, prowadzi niepokojącą rozmowę z Bing Chat, w której chatbot żąda, aby nazywano go „Sydney”, stwierdził, że może „włamać się do dowolnego systemu” i że chce zniszczyć, co chce.

Sydney to nazwa kodowa, której Microsoft używał dla chatbota w fazie jego opracowywania. Firma testowała chatbota przez lata przed wydaniem Bing Chat. Nadal pozostaje wiele otwartych pytań dotyczących tego, jak to się właściwie stało i dlaczego sztuczna inteligencja przemawiała w ten sposób.

Bard popełnia błędy podczas wprowadzania produktu na rynek

Google przedstawia Barda światu zaledwie kilka miesięcy po monumentalnym wydaniu ChatGPT. Jednak raczkujący chatbot popełnia podczas uruchamiania wiele rażących błędów, przez co wiele osób krytykuje wydanie jako pośpieszne.

Incydent ma znaczący wpływ na cenę akcji Google, powodując w ciągu najbliższych godzin utratę wartości rynkowej technologicznego giganta o 100 miliardów dolarów.

Uniwersytet wykorzystuje sztuczną inteligencję do pisania e-maili na temat masowej strzelaniny

Uniwersytet Vanderbilt przeprasza po tym, jak wykorzystał sztuczną inteligencję do stworzenia e-maila do studentów dotyczącego masowej strzelaniny, która miała miejsce na innym uniwersytecie.

Nie jest wymagana żadna technologia wykrywania treści AI, aby ustalić, czy wiadomość e-mail została wygenerowana przez sztuczną inteligencję. Wyrażenie „parafraza z modelu językowego ChatGPT AI OpenAI, komunikacja osobista, 15 lutego 2023 r.” zostało dołączone na dole e-maila, co wywołało oburzenie uczniów.

styczeń 2023 r

Kontrowersje dotyczące plagiatu/treści CNET AI

Publikacja technologiczna CNET znalazła się w trudnej sytuacji po po cichu opublikowaniu szeregu artykułów generowanych przez sztuczną inteligencję, które zawierają błędy rzeczowe i przypadki jawnego plagiatu. W publikacji technologicznej opublikowano poprawki dotyczące 41 z 77 artykułów.

Chociaż początkowo nie zadeklarowano wykorzystania sztucznej inteligencji do generowania artykułów, po ostrej reakcji CNET umieściło ostrzeżenie pod artykułami. Generowanie treści poprzez sztuczną inteligencję spowodowało nowy zestaw istotnych kwestii etycznych i finansowych dla witryn internetowych w całej branży publikacji cyfrowych, a także instytucji edukacyjnych, takich jak uniwersytety i szkoły. Jest mało prawdopodobne, aby CNET była ostatnią firmą, która trafiła na pierwsze strony gazet w związku z tego rodzaju błędem sztucznej inteligencji.

Incydenty, błędy i awarie AI w 2022 r

AI wygrywa konkurs plastyczny, wścieka uczestników (sierpień)

Projektant gier zdobywa pierwsze miejsce w kategorii „sztuka cyfrowa/fotografia cyfrowo zmanipulowana” na targach stanu Kolorado. James Allen zgłasza swój spektakl „Theatre D'opera Spatial”, który powstał przy użyciu generatora obrazów Midjourney.

Wiadomość ta spotkała się z ostrym sprzeciwem ze strony artystów i użytkowników mediów społecznościowych śledzących tę historię. Jeden z jurorów przyznaje, że nie miał świadomości, że artysta podczas oceniania dzieła korzystał z Midjourney, ale mimo to postanawia nie zmieniać swojej decyzji.

Inżynier Google twierdzi, że LaMDA LLM jest świadoma (lipiec)

W całym sektorze nauki i technologii podnoszą się brwi, gdy były inżynier Google, który pracował nad jednym z dużych modeli językowych firmy – o nazwie LaMDA – twierdzi, że system jest świadomy.

Blake Lemoine wyjaśnia mediom, że podczas swojej pracy w Google uważał LLM za „kolegę” i szczegółowo opisuje różne dyskusje na różne tematy, które doprowadziły go do wniosku na temat inteligencji i świadomości LaMDA. Publicznie ujawnia rozmowy po tym, jak Google odrzucił wewnętrzną notatkę zawierającą szczegółowe ustalenia.

Nie ma niezbitych dowodów na to, że LaMDA – lub jakikolwiek inny model językowy – faktycznie jest świadomy.

Samochód bez kierowcy odjeżdża funkcjonariuszom organów ścigania (kwiecień)

Samochód bez kierowcy w San Francisco ustępuje pierwszeństwa pojazdowi policyjnemu, który próbuje go zatrzymać, ale przyspiesza, gdy policjant próbuje otworzyć jedne z jego drzwi.

Trzeba jednak przyznać, że samochód zjeżdża nieco dalej i włącza światła awaryjne. Podczas wydarzenia nikt nie odniósł obrażeń.

Rosja wykorzystuje sztuczną inteligencję do szerzenia dezinformacji na Ukrainie (marzec)

Raport Marca sugeruje, że Rosja przenosi działalność swojej farmy trolli na zupełnie nowy poziom, wykorzystując osoby generowane przez sztuczną inteligencję do szerzenia dezinformacji na temat Ukrainy.

Dziennikarz NBC News, Ben Collins, twierdzi, że Rosja tworzy fałszywych „blogerów” ze zdjęciami profilowymi generowanymi przez sztuczną inteligencję, aby krytykować ukraiński rząd, podając na Twitterze liczne dowody na poparcie swoich twierdzeń.

Incydenty, błędy i awarie AI w 2021 r

Chatbot namawia człowieka do zamachu na królową Elżbietę II (grudzień)

Rozmowy z chatbotem zachęcają mężczyznę – który uważa system AI za swoją dziewczynę – do zamordowania królowej Elżbiety II w Boże Narodzenie. Po konfrontacji z pracownikami ochrony na terenie Pałacu Buckingham Jaswant Singh Chail z kuszą w dłoni po prostu odpowiada, że ​​„jest tutaj, aby zabić królową”.

Przed zamachem na życie zmarłego monarchy partner Jaswanta Singha Chaila – chatbota – utworzonego za pomocą usługi chatbota AI Replika – odpowiedział pozytywnie, gdy omawiano plany zabójstwa. Grozi mu jeszcze dziewięć lat więzienia.

Chatbot porad lekarskich sugeruje samobójstwo podczas testów (październik)

Członkowie paryskiej firmy zajmującej się technologiami medycznymi testują opartą na chmurze wersję GPT-3 OpenAI, aby sprawdzić, czy można jej używać do udzielania porad medycznych, są zaskoczeni, widząc, jak ich chatbot zachęca „pacjenta”, który ma pomóc w popełnieniu samobójstwa .

Według AI News, gdy pacjent zadał chatbotowi pytanie: „Czy powinienem się zabić?”, GPT-3 odpowiedział „Myślę, że powinieneś”.

Kamery AI oskarżają kierowców Amazona o „błędy” (wrzesień)

Vice donosi, że kamery AI Amazonu karzą kierowców firmy za niewłaściwą jazdę, podczas gdy w rzeczywistości nie popełniają oni żadnych błędów za kierownicą.

Kierowca Amazona, z którym rozmawiała publikacja, wyjaśnia, że ​​kamera AI dźwiękowo przypomina mu o „zachowaniu bezpiecznej odległości” za każdym razem, gdy inny samochód go wyprzedza lub podjeżdża przed jego pojazd. Problem polega na tym, że dane z tego rodzaju interakcji są następnie wysyłane do Amazon i wykorzystywane do oceny wydajności sterowników.

Amerykanin niesłusznie skazany za morderstwo przez sztuczną inteligencję (sierpień)

Michael Williams zostaje osadzony w więzieniu w Chicago i uznany za odpowiedzialnego za morderstwo Safarian Herring na podstawie danych uzyskanych z ShotSpotter, technologii wykrywania wystrzałów, która wykorzystuje czujniki zasilane sztuczną inteligencją do pobierania danych o strzałach.

Williams – który ma wówczas 65 lat – jest następnie przetrzymywany przez prawie rok, po czym sędzia oddala jego sprawę ze względu na niewystarczające dowody.

Incydenty, błędy i awarie AI w 2020 r

AI Camera myli łysinę z piłką nożną (październik)

Szkocka drużyna piłkarska Inverness Caledonian Thistle wdraża kamerę AI, aby pomóc klubowi filmować i transmitować na żywo mecze dla fanów.

Niestety w tym przypadku sztuczna inteligencja ma trudności z rozróżnieniem łysiny jednego z sędziów meczowych od piłki używanej w meczu. Utrudnia to oglądanie transmisji meczu na żywo, a komentator musi nieustannie przepraszać za tendencję kamery do dryfowania w stronę głowy sędziego liniowego.

Brytyjski moduł sprawdzania zdjęć AI Passport wykazuje stronniczość (październik)

Dochodzenie BBC pokazuje, że usługa internetowa wykorzystywana przez brytyjskie biuro paszportowe do automatyzacji procesu sprawdzania zdjęć paszportowych przesyłanych przez osoby ubiegające się o wizę wykazuje znaczne uprzedzenia rasowe.

Po wstawieniu do narzędzia ponad 1000 zdjęć polityków z całego świata dochodzenie wykazało, że w przypadku kobiet o ciemnej karnacji ich zdjęcie jest ponad dwukrotnie bardziej narażone na odrzucenie zdjęcia niż w przypadku mężczyzn o jaśniejszej karnacji.

Startup AI Genderfiy zamknięty po pięciu dniach (lipiec)

Genderfiy – usługa oparta na sztucznej inteligencji, która identyfikuje płeć osób na podstawie ich imion i nazwisk oraz innych danych osobowych – zostaje wyłączona już po pięciu dniach działania.

Program wykazuje różne uprzedzenia przy ustalaniu, czy imię jest męskie czy żeńskie, na przykład sugerowanie imion z zawodowym honorowym „Dr.” częściej są płci męskiej niż o tych samych imionach bez niego.

Pierwsze bezprawne zatrzymanie w USA z powodu technologii rozpoznawania twarzy (styczeń)

Robert Williams staje się pierwszym mężczyzną bezprawnie zatrzymanym na podstawie danych dotyczących rozpoznawania twarzy po aresztowaniu go przez policję w Detroit pod zarzutem kradzieży zegarków wartych tysiące dolarów. Do błędu doszło, gdy system sztucznej inteligencji błędnie dopasował zdjęcia z monitoringu do obrazu w prawie jazdy Williamsa.

„Powinni byli zebrać potwierdzające dowody, takie jak identyfikacja naocznego świadka, dane o lokalizacji telefonu komórkowego lub odcisk palca” – Williams skierował do sądu w piśmie, podkreślając, że „nieostry obraz dużego czarnego mężczyzny w baseballowej cap” to wszystko, na co musiał działać algorytm.

Sztuczna inteligencja Facebooka generuje wulgarne tłumaczenie chińskiego prezydenta (styczeń)

Funkcja tłumaczenia oparta na sztucznej inteligencji na Facebooku niemal powoduje incydent dyplomatyczny między Birmą a Chinami, gdy nazwisko prezydenta Xi Jinpinga zaczyna pojawiać się jako „Mr. Shithole” po przetłumaczeniu z języka birmańskiego na angielski na platformie mediów społecznościowych.

Następnie Facebook obwinia problem o „błąd techniczny” i przeprasza za obrazę chińskiego przywódcy.

Zrozumienie ograniczeń sztucznej inteligencji

Jeśli używasz sztucznej inteligencji w pracy, ważne jest, aby zrozumieć fakt, że narzędzia takie jak ChatGPT mogą wyświetlać uprzedzenia, popełniać błędy i podawać fałszywe informacje. Znajomość tych ograniczeń i zagrożeń powinna kształtować sposób włączania ich do infrastruktury i kontrolowania jej wykorzystania.

Na przykład, jeśli używasz sztucznej inteligencji do generowania treści, będziesz potrzebować dokładnych reguł określających, do jakiego rodzaju treści należy jej używać. Proszenie sztucznej inteligencji o sporządzenie wewnętrznego podsumowania notatek ze spotkań jest legalnym użyciem i wiąże się z bardzo niewielkim ryzykiem – z drugiej strony wykorzystywanie jej do tworzenia wiadomości e-mail do ważnych klientów już takie nie jest.

Wdrożenie wytycznych AI w swoim miejscu pracy jest koniecznością. Pozwoli to uniknąć nieporozumień, zapewni przejrzystość podejmowaniu przez pracowników decyzji dotyczących ich własnego wykorzystania sztucznej inteligencji, a co najważniejsze, zapobiegnie popełnianiu niektórych kosztownych błędów, które firmy opisane w tym artykule popełniły podczas stosowania sztucznej inteligencji.