Czy sztuczna inteligencja (AI) jest niebezpieczna?
Opublikowany: 2023-05-31W poniedziałek 22 maja 2023 r. zweryfikowane konto na Twitterze o nazwie „Bloomberg Feed” udostępniło tweet, w którym twierdził, że w Pentagonie doszło do eksplozji, któremu towarzyszyło zdjęcie. Jeśli zastanawiasz się, co to ma wspólnego ze sztuczną inteligencją (AI), obraz został wygenerowany przez sztuczną inteligencję, a tweet szybko stał się wirusowy i wywołał krótki spadek na giełdzie. Mogło być znacznie gorzej – dobitne przypomnienie niebezpieczeństw związanych ze sztuczną inteligencją.
Zagrożenia związane ze sztuczną inteligencją
Musimy się martwić nie tylko fałszywymi wiadomościami. Istnieje wiele bezpośrednich lub potencjalnych zagrożeń związanych ze sztuczną inteligencją, od tych związanych z prywatnością i bezpieczeństwem po stronniczość i kwestie związane z prawami autorskimi. Zagłębimy się w niektóre z tych zagrożeń związanych ze sztuczną inteligencją, zobaczymy, co jest robione, aby je złagodzić teraz iw przyszłości, i zapytamy, czy ryzyko związane ze sztuczną inteligencją przewyższa korzyści.
Fałszywe wiadomości
Kiedy po raz pierwszy pojawiły się deepfake, pojawiły się obawy, że mogą być użyte w złych zamiarach. To samo można powiedzieć o nowej fali generatorów obrazów AI, takich jak DALL-E 2, Midjourney czy DreamStudio. 28 marca 2023 r. Fałszywe, wygenerowane przez sztuczną inteligencję zdjęcia papieża Franciszka w białej puchowej kurtce Balenciagi i cieszącego się kilkoma przygodami, w tym jazdą na deskorolce i grą w pokera, stały się wirusowe. Jeśli nie przyjrzałeś się uważnie obrazom, trudno było odróżnić te obrazy od prawdziwych.
Podczas gdy przykład z papieżem był niewątpliwie zabawny, zdjęcie (i towarzyszący mu tweet) o Pentagonie było zupełnie inne. Fałszywe obrazy generowane przez sztuczną inteligencję mogą szkodzić reputacji, kończyć małżeństwa lub kariery, wywoływać niepokoje polityczne, a nawet wywoływać wojny, jeśli są używane przez niewłaściwych ludzi — krótko mówiąc, te generowane przez sztuczną inteligencję obrazy mogą być niezwykle niebezpieczne, jeśli zostaną niewłaściwie wykorzystane.
Dzięki generatorom obrazów AI, które są teraz dostępne dla każdego, a program Photoshop dodaje generator obrazów AI do swojego popularnego oprogramowania, możliwości manipulowania obrazami i tworzenia fałszywych wiadomości są większe niż kiedykolwiek.
Prywatność, bezpieczeństwo i hakowanie
Prywatność i bezpieczeństwo są również dużym problemem, jeśli chodzi o zagrożenia związane ze sztuczną inteligencją, a wiele krajów już zakazuje ChatGPT OpenAI. Włochy zakazały tego modelu ze względu na obawy dotyczące prywatności, uważając, że nie jest on zgodny z europejskim ogólnym rozporządzeniem o ochronie danych (RODO), podczas gdy rządy Chin, Korei Północnej i Rosji zakazały go z powodu obaw, że rozpowszechnia dezinformację.
Dlaczego więc tak bardzo martwimy się o prywatność, jeśli chodzi o sztuczną inteligencję? Aplikacje i systemy sztucznej inteligencji gromadzą duże ilości danych w celu uczenia się i przewidywania. Ale w jaki sposób te dane są przechowywane i przetwarzane? Istnieje realne ryzyko naruszenia bezpieczeństwa danych, włamania i dostania się informacji w niepowołane ręce.
Zagrożone są nie tylko nasze dane osobowe. Hakowanie AI to prawdziwe ryzyko — jeszcze się nie zdarzyło, ale jeśli osoby o złych intencjach mogłyby włamać się do systemów AI, mogłoby to mieć poważne konsekwencje. Na przykład hakerzy mogą kontrolować pojazdy bez kierowcy, hakować systemy bezpieczeństwa AI, aby uzyskać dostęp do bardzo bezpiecznych lokalizacji, a nawet hakować systemy broni z zabezpieczeniami AI.
Eksperci z Agencji Zaawansowanych Projektów Badawczych Departamentu Obrony USA (DARPA) dostrzegają te zagrożenia i już pracują nad projektem DARPA Guaranteeing AI Robustness Against Deception (GARD), zajmującym się problemem od podstaw. Celem projektu jest zapewnienie odporności na włamania i manipulacje w algorytmach i sztucznej inteligencji.
Naruszenie praw autorskich
Kolejnym niebezpieczeństwem sztucznej inteligencji jest naruszenie praw autorskich. To może nie brzmieć tak poważnie, jak niektóre inne zagrożenia, o których wspomnieliśmy, ale rozwój modeli sztucznej inteligencji, takich jak GPT-4, naraża wszystkich na zwiększone ryzyko naruszenia.
Za każdym razem, gdy prosisz ChatGPT o stworzenie czegoś dla Ciebie — niezależnie od tego, czy będzie to post na blogu o podróżach, czy nowa nazwa dla Twojej firmy — przekazujesz mu informacje, których następnie używa do odpowiadania na przyszłe zapytania. Informacje, które przekazuje, mogą naruszać czyjeś prawa autorskie, dlatego tak ważne jest, aby użyć wykrywacza plagiatu i edytować wszelkie treści stworzone przez sztuczną inteligencję przed ich opublikowaniem.
Stronniczość społeczna i dane
Sztuczna inteligencja nie jest człowiekiem, więc nie może być stronnicza, prawda? Zło. Ludzie i dane są wykorzystywane do szkolenia modeli sztucznej inteligencji i chatbotów, co oznacza, że stronnicze dane lub osobowości spowodują stronniczą sztuczną inteligencję. Istnieją dwa rodzaje stronniczości w sztucznej inteligencji: stronniczość społeczna i stronniczość danych.
Przy wielu uprzedzeniach obecnych w codziennym społeczeństwie, co się stanie, gdy te uprzedzenia staną się częścią sztucznej inteligencji? Programiści odpowiedzialni za szkolenie modelu mogą mieć nieobiektywne oczekiwania, które następnie trafiają do systemów sztucznej inteligencji.
Lub dane wykorzystywane do szkolenia i rozwijania sztucznej inteligencji mogą być nieprawidłowe, stronnicze lub gromadzone w złej wierze. Prowadzi to do stronniczości danych, która może być równie niebezpieczna jak stronniczość społeczna. Na przykład, jeśli system rozpoznawania twarzy jest szkolony przy użyciu głównie twarzy białych ludzi, może mieć trudności z rozpoznaniem osób z grup mniejszościowych, utrwalając ucisk.
Roboty Zabierają Naszą Pracę
Rozwój chatbotów, takich jak ChatGPT i Google Bard, wywołał zupełnie nowy problem związany ze sztuczną inteligencją: ryzyko, że roboty zabiorą nam pracę. Widzimy już, jak pisarze w branży technologicznej są zastępowani przez sztuczną inteligencję, programiści martwią się, że stracą pracę na rzecz botów, a firmy używają ChatGPT do tworzenia treści na blogi i treści w mediach społecznościowych, zamiast zatrudniać pisarzy.
Według raportu Światowego Forum Ekonomicznego The Future of Jobs Report 2020, sztuczna inteligencja ma zastąpić 85 milionów miejsc pracy na całym świecie do 2025 roku. Nawet jeśli sztuczna inteligencja nie zastępuje pisarzy, jest już używana jako narzędzie przez wielu. Osoby na stanowiskach zagrożonych zastąpieniem przez sztuczną inteligencję mogą potrzebować przystosowania się, aby przetrwać — na przykład pisarze mogą zostać inżynierami AI, umożliwiając im pracę z narzędziami takimi jak ChatGPT do tworzenia treści, zamiast być zastępowanymi przez te modele.
Przyszłe potencjalne zagrożenia AI
To wszystko są bezpośrednie lub zbliżające się zagrożenia, ale co z niektórymi mniej prawdopodobnymi, ale wciąż możliwymi zagrożeniami związanymi ze sztuczną inteligencją, które możemy zobaczyć w przyszłości? Należą do nich takie rzeczy, jak sztuczna inteligencja zaprogramowana do krzywdzenia ludzi, na przykład autonomiczna broń wyszkolona do zabijania podczas wojny.
Istnieje ryzyko, że sztuczna inteligencja może skoncentrować się na swoim zaprogramowanym celu, rozwijając destrukcyjne zachowania, próbując osiągnąć ten cel za wszelką cenę, nawet jeśli ludzie próbują temu zapobiec.
Skynet nauczył nas, co się dzieje, gdy sztuczna inteligencja staje się świadoma. Jednak chociaż inżynier Google, Blake Lemoine, mógł próbować przekonać wszystkich, że LaMDA, generator sztucznie inteligentnych chatbotów Google, był świadomy już w czerwcu 2022 r., na szczęście nie ma do tej pory dowodów sugerujących, że to prawda.
Wyzwania związane z regulacją AI
W poniedziałek, 15 maja 2020 roku, dyrektor generalny OpenAI, Sam Altman, wziął udział w pierwszym przesłuchaniu w Kongresie dotyczącym sztucznej inteligencji, ostrzegając: „Jeśli ta technologia się nie powiedzie, może pójść całkiem źle”. Dyrektor generalny OpenAI jasno dał do zrozumienia, że opowiada się za regulacjami i przedstawił wiele własnych pomysłów na rozprawie. Problem polega na tym, że sztuczna inteligencja ewoluuje w takim tempie, że trudno jest określić, od czego zacząć regulacje.
Kongres chce uniknąć błędów popełnionych na początku ery mediów społecznościowych, a zespół ekspertów wraz z przywódcą większości w Senacie Chuckiem Schumerem już pracuje nad przepisami, które zobowiązywałyby firmy do ujawnienia, z jakich źródeł danych korzystały do szkolenia modeli i kto ich wyszkolił. Może jednak minąć trochę czasu, zanim dokładnie stanie się jasne, w jaki sposób sztuczna inteligencja będzie regulowana, i bez wątpienia nastąpi reakcja firm zajmujących się sztuczną inteligencją.
Zagrożenie sztuczną inteligencją ogólną
Istnieje również ryzyko stworzenia sztucznej inteligencji ogólnej (AGI), która byłaby w stanie wykonać dowolne zadania, które mógłby wykonać człowiek (lub zwierzę). Często wspominane w filmach science-fiction, prawdopodobnie wciąż jesteśmy daleko od takiego stworzenia, ale jeśli stworzymy AGI, może to stanowić zagrożenie dla ludzkości.
Wiele osób publicznych już popiera przekonanie, że sztuczna inteligencja stanowi egzystencjalne zagrożenie dla ludzi, w tym Stephen Hawking, Bill Gates, a nawet były dyrektor generalny Google Eric Schmidt, który stwierdził: „Sztuczna inteligencja może stanowić zagrożenie egzystencjalne, a rządy muszą wiedzieć, jak się upewnić, że technologia nie jest niewłaściwie wykorzystywana przez złych ludzi”.
Czy zatem sztuczna inteligencja jest niebezpieczna i czy związane z nią ryzyko przewyższa korzyści? Ława przysięgłych wciąż jest w tej sprawie, ale już teraz widzimy dowody na niektóre zagrożenia wokół nas. Inne niebezpieczeństwa są mniej prawdopodobne w najbliższym czasie, jeśli w ogóle. Jedno jest jednak jasne: nie należy lekceważyć niebezpieczeństw związanych ze sztuczną inteligencją. Niezwykle ważne jest, abyśmy od samego początku zapewnili odpowiednią regulację sztucznej inteligencji, aby zminimalizować i miejmy nadzieję złagodzić wszelkie przyszłe zagrożenia.