Etyka sztucznej inteligencji: zasady, wytyczne i problemy do omówienia
Opublikowany: 2023-07-20Sztuczna inteligencja i systemy uczenia maszynowego rozwijane są od dziesięcioleci. Niedawne udostępnienie ogólnodostępnych generatywnych narzędzi sztucznej inteligencji, takich jak ChatGPT i Bard, podkreśliło jednak potrzebę złożonych ram etycznych, które regulowałyby zarówno ich badania, jak i zastosowanie.
Istnieje wiele różnych dylematów etycznych, z którymi przedsiębiorstwa, instytucje akademickie i firmy technologiczne muszą się zmagać w kontekście badań i rozwoju sztucznej inteligencji – z których wiele pozostaje bez odpowiedzi. Ponadto powszechne stosowanie i wykorzystywanie systemów sztucznej inteligencji przez ogół społeczeństwa niesie ze sobą dodatkowy zestaw problemów, które wymagają uwagi etycznej.
To, w jaki sposób ostatecznie odpowiemy na takie pytania – a co za tym idzie, uregulować narzędzia sztucznej inteligencji – będzie miało ogromne konsekwencje dla ludzkości. Co więcej, w miarę jak systemy sztucznej inteligencji będą coraz bardziej integrować się z naszym życiem, domem i miejscem pracy, pojawią się nowe problemy — dlatego etyka sztucznej inteligencji jest tak kluczową dyscypliną. W tym przewodniku omawiamy:
- Czym jest etyka sztucznej inteligencji?
- Istniejące ramy etyczne AI
- Dlaczego etyka sztucznej inteligencji musi kształtować regulacje dotyczące sztucznej inteligencji
- Dlaczego etyka AI ma znaczenie?
- Jakie problemy napotyka etyka sztucznej inteligencji?
- Alter-Ego Binga, „efekt Waluigiego” i moralność programowania
- Sztuczna inteligencja i świadomość: czy maszyny mogą mieć uczucia?
- Etyka biznesowa AI i wykorzystanie AI w pracy
Czym jest etyka sztucznej inteligencji?
Etyka sztucznej inteligencji to termin używany do zdefiniowania zestawu wytycznych, rozważań i zasad, które zostały stworzone w celu odpowiedzialnego informowania o badaniach, rozwoju i użytkowaniu systemów sztucznej inteligencji.
W środowisku akademickim etyka sztucznej inteligencji to dziedzina badań, która bada kwestie moralne i filozoficzne wynikające z ciągłego wykorzystywania technologii sztucznej inteligencji w społeczeństwach, w tym to, jak powinniśmy postępować i jakich wyborów powinniśmy dokonywać.
Ramy etyczne AI
Na podstawie badań akademickich firmy technologiczne i organy rządowe zaczęły już tworzyć ramy określające, w jaki sposób powinniśmy używać systemów sztucznej inteligencji – i ogólnie sobie z nimi radzić. Jak widać, ramy omówione poniżej w pewnym stopniu się pokrywają.
Czym jest karta praw AI?
W październiku 2022 r. Biały Dom opublikował niewiążący plan karty praw AI, mający na celu wytyczne dotyczące odpowiedzialnego korzystania ze sztucznej inteligencji w USA. W planie Whitehouse określa pięć kluczowych zasad rozwoju sztucznej inteligencji:
- Bezpieczne i skuteczne systemy: obywatele powinni być chronieni przed „niebezpiecznymi lub nieskutecznymi systemami sztucznej inteligencji” poprzez „testy przed wdrożeniem i ograniczanie ryzyka”.
- Zakaz dyskryminacji: Obywatele „nie powinni być dyskryminowani przez algorytmy, a systemy powinny być wykorzystywane i projektowane w sprawiedliwy sposób”.
- Wbudowana ochrona danych: Obywatele powinni być wolni od „nadużyć w zakresie danych dzięki wbudowanym zabezpieczeniom, a Ty powinieneś mieć wpływ na to, jak wykorzystywane są Twoje dane”.
- Wiedza i przejrzystość: „Powinieneś wiedzieć, że używany jest zautomatyzowany system i rozumieć, w jaki sposób i dlaczego przyczynia się on do wyników, które mają na Ciebie wpływ”.
- Rezygnacja: obywatele powinni mieć możliwość „rezygnacji” i mieć dostęp do osób, „które mogą szybko rozważyć i rozwiązać problemy”, których doświadczają.
Jakie są sześć zasad firmy Microsoft dotyczących etyki sztucznej inteligencji?
Wraz z Whitehouse firma Microsoft opublikowała sześć kluczowych zasad, aby podkreślić odpowiedzialne korzystanie ze sztucznej inteligencji. Klasyfikują je jako „etyczne” (1, 2 i 3) lub „wytłumaczalne” (4 i 5).
- Sprawiedliwość: Systemy muszą być niedyskryminujące
- Przejrzystość: Informacje dotyczące szkoleń i rozwoju powinny być dostępne
- Prywatność i bezpieczeństwo: Obowiązek ochrony danych użytkownika
- Inkluzywność: sztuczna inteligencja powinna uwzględniać „wszystkie ludzkie rasy i doświadczenia”
- Odpowiedzialność: Deweloperzy muszą być odpowiedzialni za wyniki
Szósta zasada – która obejmuje obie strony „etycznej” i „wyjaśnionej” binarności – to „niezawodność i bezpieczeństwo”. Microsoft twierdzi, że systemy sztucznej inteligencji powinny być budowane tak, aby były odporne i odporne na manipulacje.
Zasady etycznego wykorzystania sztucznej inteligencji w systemie Narodów Zjednoczonych
Organizacja Narodów Zjednoczonych ma 10 zasad regulujących etyczne korzystanie ze sztucznej inteligencji w ramach swojego systemu międzyrządowego. Systemy AI powinny:
- Nie szkodzić / chronić i promować prawa człowieka
- Mają określony cel, konieczność i proporcjonalność
- Nadaj priorytet bezpieczeństwu i ochronie, ze zidentyfikowanymi zagrożeniami
- Opieraj się na sprawiedliwości i niedyskryminacji
- Szanuj prawo jednostek do prywatności
- Bądź zrównoważony (społecznie i środowiskowo)
- Zagwarantuj nadzór ludzki i nie naruszaj autonomii
- Bądź przejrzysty i wytłumaczalny
- Bądź odpowiedzialny i odpowiadaj przed odpowiednimi władzami
- Bądź integracyjny i partycypacyjny
Jak widać, wszystkie trzy ramy obejmują podobne podstawy i koncentrują się na sprawiedliwości, niedyskryminacji, bezpieczeństwie i ochronie.
Ale „wyjaśnialność” jest również ważną zasadą w ramach etyki AI. Jak zauważa ONZ, techniczne wyjaśnienie ma kluczowe znaczenie w etyce sztucznej inteligencji, ponieważ wymaga, aby „decyzje podejmowane przez system sztucznej inteligencji mogły być rozumiane i śledzone przez ludzi”.
„Osoby fizyczne powinny być w pełni informowane, gdy decyzja, która może lub będzie miała wpływ na ich prawa, podstawowe wolności, uprawnienia, usługi lub świadczenia, została podjęta w oparciu o algorytmy sztucznej inteligencji i powinna mieć dostęp do przyczyn i logiki takich decyzji” – wyjaśnia dokument.
Raport Belmonta: ramy badań etycznych
Raport Belmonta, opublikowany w 1979 roku, podsumowuje zasady etyczne, którymi należy się kierować prowadząc badania na ludziach. Zasady te mogą – i często są – stosowane jako szerokie ramy etyczne dla badań nad sztuczną inteligencją. Podstawowe zasady Raportu Belmonta to:
Szacunek dla osób: ludzie są niezależnymi agentami, którzy mogą działać zgodnie z celami, celami i zamierzeniami, co należy szanować, chyba że wyrządzają krzywdę innym. Osobom o ograniczonej autonomii z powodu „niedojrzałości” lub „ubezwłasnowolnienia” należy zapewnić ochronę. Musimy uznać autonomię i chronić tych, dla których jest ona ograniczana.
- W kontekście sztucznej inteligencji: indywidualny wybór powinien znajdować się w centrum rozwoju sztucznej inteligencji. Nie należy zmuszać ludzi do uczestniczenia w sytuacjach, w których sztuczna inteligencja jest wykorzystywana lub wykorzystywana, nawet w przypadku dóbr postrzeganych. Jeśli biorą udział, korzyści i ryzyko muszą być jasno określone.
Dobroczynność: Traktowanie osoby w sposób etyczny oznacza nie tylko nie wyrządzanie krzywdy, szanowanie jej wyborów i chronienie ich, jeśli nie mogą one dokonać ich dla siebie, ale także wykorzystywanie możliwości zabezpieczenia ich dobra tam, gdzie to możliwe. Tam, gdzie to możliwe, maksymalizuj korzyści i minimalizuj ryzyko/szkody.
- W kontekście AI: tworzenie systemów sztucznej inteligencji, które zabezpieczają dobro ludzi i są zaprojektowane bez uprzedzeń i mechanizmów ułatwiających dyskryminację. Tworzenie korzyści może wiązać się z podejmowaniem ryzyka, które należy za wszelką cenę minimalizować i porównywać z dobrymi wynikami.
Sprawiedliwość: Musi istnieć jasny system sprawiedliwego i równego podziału korzyści i obciążeń we wszystkich rodzajach badań. Raport Belmonta sugeruje, że sprawiedliwość może być rozdzielana według równego udziału, indywidualnych potrzeb, indywidualnego wysiłku, wkładu społecznego i zasług. Kryteria te będą miały zastosowanie w różnych sytuacjach.
- W kontekście sztucznej inteligencji: Strony lub grupy odnoszące korzyści z rozwoju i dostarczania systemów sztucznej inteligencji muszą być rozważone ostrożnie i sprawiedliwie.
Zgodnie z raportem główne obszary, w których stosuje się te zasady, to świadoma zgoda , ocena korzyści i ryzyka oraz dobór ludzi .
Dlaczego etyka sztucznej inteligencji musi kształtować regulacje dotyczące sztucznej inteligencji
Opierając się na komentarzach wygłoszonych w wykładzie wygłoszonym na Uniwersytecie Princeton przez profesora Uniwersytetu Oksfordzkiego, Johna Tasioulasa, dyrektora Instytutu Etyki w AI, etyka jest zbyt często postrzegana jako coś, co hamuje innowacje i rozwój sztucznej inteligencji.
W wykładzie wspomina przemówienie wygłoszone przez CEO DeepMind, Demisa Hassabisa . Tasioulas mówi, że po omówieniu wielu korzyści, jakie przyniesie sztuczna inteligencja, Hassabis mówi publiczności, że przejdzie do kwestii etycznych – tak jakby temat korzyści, jakie sztuczna inteligencja przyniesie ludzkości, sam w sobie nie był kwestią etyczną.
Opierając się na założeniu, że etyka jest zbyt często postrzegana jako „wiązka ograniczeń”, Tasioulas odwołuje się również do niedawnej białej księgi rządu Wielkiej Brytanii zatytułowanej „Podejście proinnowacyjne do regulacji sztucznej inteligencji”, w ramach której, jak sama nazwa wskazuje, nacisk kładziony jest na „innowacje”.
„Wzrost gospodarczy” i „innowacje” nie są nieodłącznymi wartościami etycznymi. Mogą prowadzić do rozkwitu człowieka w niektórych kontekstach, ale czyż nie jest to konieczna cecha obu koncepcji. Nie możemy odsunąć etyki na bok i zamiast tego budować wokół niej nasze regulacje.
Tasioulas mówi również, że firmom technologicznym udało się „dokooptować słowo„ etyka ”oznaczające rodzaj„ niewiążącej prawnie formy samoregulacji ”” – ale w rzeczywistości etyka musi znajdować się u podstaw każdej regulacji, prawnej, społecznej lub innej. To część ludzkiego doświadczenia na każdym kroku.
Nie możesz tworzyć regulacji, jeśli jeszcze nie zdecydowałeś, co się liczy lub jest ważne dla ludzkiego rozkwitu. Powiązane wybory, których dokonujesz na podstawie tej decyzji , są samą istotą etyki. Nie można oddzielić korzyści płynących ze sztucznej inteligencji od powiązanych kwestii etycznych ani opierać swoich regulacji na moralnie uwarunkowanych wartościach, takich jak „wzrost gospodarczy”.
Musisz znać typ społeczeństwa, które chcesz zbudować – i standardy, które chcesz ustanowić – zanim wybierzesz narzędzia, których użyjesz do jego budowy.
Dlaczego etyka AI ma znaczenie?
Opierając się na założeniu, że etyka sztucznej inteligencji powinna stanowić podstawę naszych przepisów, etyka sztucznej inteligencji ma znaczenie, ponieważ bez ram etycznych, według których należy traktować badania, rozwój i wykorzystanie sztucznej inteligencji, ryzykujemy naruszenie praw, które, co do zasady, powinny być gwarantowane wszystkim istotom ludzkim.
Na przykład, jeśli nie opracujemy zasad etycznych dotyczących prywatności i ochrony danych i nie umieścimy ich we wszystkich rozwijanych przez nas narzędziach sztucznej inteligencji, ryzykujemy naruszenie praw do prywatności wszystkich osób, gdy zostaną one upublicznione. Im bardziej popularna lub użyteczna jest technologia, tym bardziej może być szkodliwa.
Na indywidualnym poziomie biznesowym etyka sztucznej inteligencji pozostaje ważna. Brak odpowiedniego rozważenia kwestii etycznych związanych z systemami sztucznej inteligencji, z których korzystają Twoi pracownicy, klienci lub klienci, może prowadzić do wycofania produktów z rynku, utraty reputacji, a być może nawet spraw sądowych.
Etyka sztucznej inteligencji jest ważna w takim stopniu, w jakim sztuczna inteligencja ma znaczenie – i widzimy, że ma ona już głęboki wpływ na wszelkiego rodzaju branże.
Jeśli chcemy, aby sztuczna inteligencja była korzystna,a jednocześniepromowała uczciwość i godność ludzką, niezależnie od tego, gdzie jest stosowana, etyka musi znaleźć się na pierwszym planie dyskusji.
Narzędzia sztucznej inteligencji do ogólnego użytku są dopiero w powijakach, a dla wielu osób potrzeba ram etycznych sztucznej inteligencji może wydawać się problemem jutra. Ale tego rodzaju narzędzia będą coraz potężniejsze, bardziej wydajne i będą wymagać więcej etycznego rozważenia. Firmy już z nich korzystają, a jeśli będą kontynuowane bez odpowiednich, etycznych zasad, wkrótce pojawią się negatywne skutki.
Jakie problemy napotyka etyka sztucznej inteligencji?
W tej sekcji omawiamy niektóre z kluczowych kwestii związanych z etyką sztucznej inteligencji:
- Wpływ sztucznej inteligencji na miejsca pracy
- Uprzedzenia i dyskryminacja AI
- Sztuczna inteligencja i odpowiedzialność
- Obawy dotyczące sztucznej inteligencji i prywatności
- Kwestie własności intelektualnej
- Zarządzanie wpływem sztucznej inteligencji na środowisko
- Czy sztuczna inteligencja stanie się niebezpiecznie inteligentna?
Wpływ AI na miejsca pracy
Niedawne badanie Tech.co wykazało, że 47% liderów biznesu rozważa sztuczną inteligencję zamiast nowych pracowników, a sztuczna inteligencja została już powiązana z „niewielką, ale rosnącą” liczbą zwolnień w USA.
Nie wszystkie zawody są w równym stopniu zagrożone, a niektóre stanowiska są częściej zastępowane przez sztuczną inteligencję niż inne . Raport Goldman Sachs przewidywał niedawno, że ChatGPT może wpłynąć na 300 milionów miejsc pracy i chociaż jest to spekulacja, została już opisana jako główna część czwartej rewolucji przemysłowej.
W tym samym raporcie stwierdzono również, że sztuczna inteligencja jest w stanie stworzyć więcej miejsc pracy niż zlikwidować, ale jeśli spowoduje to poważną zmianę we wzorcach zatrudnienia, co jest winne – jeśli w ogóle – tym, którzy na tym tracą?
Czy firmy mają obowiązek wydawać pieniądze i przeznaczać środki na przekwalifikowanie lub podniesienie kwalifikacji swoich pracowników, aby nie zostali oni pozostawieni w tyle przez zmiany gospodarcze?
Zasady niedyskryminacji będą musiały być ściśle egzekwowane podczas opracowywania wszelkich narzędzi sztucznej inteligencji wykorzystywanych w procesach rekrutacji, a jeśli sztuczna inteligencja będzie konsekwentnie wykorzystywana do coraz większej liczby zadań biznesowych o wysokiej stawce, które narażają miejsca pracy, karierę i życie, względy etyczne będą nadal pojawiać się masowo.
Uprzedzenia i dyskryminacja AI
Ogólnie rzecz biorąc, narzędzia sztucznej inteligencji działają na zasadzie rozpoznawania wzorców w ogromnych zbiorach danych, a następnie wykorzystują te wzorce do generowania odpowiedzi, wykonywania zadań lub wykonywania innych funkcji. Doprowadziło to do ogromnej liczby przypadków systemów sztucznej inteligencji wykazujących uprzedzenia i dyskryminujących różne grupy ludzi.
Zdecydowanie najłatwiejszym przykładem wyjaśnienia tego są systemy rozpoznawania twarzy, które mają długą historię dyskryminowania osób o ciemniejszym odcieniu skóry. Jeśli zbudujesz system rozpoznawania twarzy i użyjesz do jego szkolenia wyłącznie zdjęć białych ludzi, istnieje duża szansa, że będzie on równie zdolny do rozpoznawania twarzy w prawdziwym świecie.
W ten sposób, jeśli dokumenty, obrazy i inne informacje wykorzystywane do trenowania danego modelu sztucznej inteligencji nie odzwierciedlają dokładnie ludzi, którym ma służyć, istnieje duża szansa, że skończy się to dyskryminacją określonych grup demograficznych.
Niestety systemy rozpoznawania twarzy nie są jedynym miejscem, w którym sztuczna inteligencja została zastosowana z dyskryminującymi wynikami.
Wykorzystanie sztucznej inteligencji w procesach zatrudniania w Amazon zostało odrzucone w 2018 r. po tym, jak wykazywało silne uprzedzenia wobec kobiet ubiegających się o stanowiska programistyczne i techniczne.
Wiele badań wykazało, że predykcyjne algorytmy policyjne stosowane w Stanach Zjednoczonych do przydzielania zasobów policyjnych są uprzedzone rasowo, ponieważ ich zestawy szkoleniowe składają się z punktów danych pochodzących z systematycznie rasistowskich praktyk policyjnych, ukształtowanych przez niezgodną z prawem i dyskryminującą politykę. Sztuczna inteligencja, o ile nie zostanie zmodyfikowana, będzie nadal odzwierciedlać uprzedzenia i dysproporcje, jakich już doświadczyły prześladowane grupy.
Wystąpiły problemy z błędem sztucznej inteligencji również w kontekście przewidywania wyników zdrowotnych – na przykład badanie Framingham Heart Cardiovascular Score było bardzo dokładne dla osób rasy kaukaskiej, ale działało słabo dla Afroamerykanów, zauważa Harvard.
Ciekawy niedawny przypadek stronniczości sztucznej inteligencji wykazał, że narzędzie sztucznej inteligencji używane do moderowania treści w mediach społecznościowych – zaprojektowane do wychwytywania „rasistości” na zdjęciach – znacznie częściej przypisywało tę właściwość zdjęciom kobiet niż mężczyznom.
Sztuczna inteligencja i odpowiedzialność
Wyobraź sobie świat, w którym opracowywane są w pełni autonomiczne, samojezdne samochody, z których wszyscy korzystają. Statystycznie są znacznie, znacznie bezpieczniejsze niż pojazdy napędzane przez ludzi, rzadziej się rozbijają i powodują mniej zgonów i obrażeń. Byłoby to oczywistym dobrem netto dla społeczeństwa.
Kiedy jednak w kolizji biorą udział dwa samochody kierowane przez ludzi, zbieranie zeznań świadków i przeglądanie nagrań z kamer przemysłowych często pozwala wyjaśnić, kto jest winowajcą. Nawet jeśli tak się nie stanie, będzie to jedna z dwóch osób. Sprawa może zostać zbadana, werdykt zapadł, sprawiedliwość może zostać wymierzona, a sprawa zamknięta.
Jeśli ktoś zostanie zabity lub ranny przez system oparty na sztucznej inteligencji, nie jest od razu oczywiste, kto ponosi ostateczną odpowiedzialność.
Czy osoba, która zaprojektowała algorytm zasilający samochód, jest odpowiedzialna, czy też sam algorytm może zostać pociągnięty do odpowiedzialności? Czy to osoba przewożona autonomicznym pojazdem za to, że nie była na warcie? Czy to rząd za to, że dopuszcza te pojazdy na drogi? A może to firma, która zbudowała samochód i zintegrowała technologię AI – a jeśli tak, to czy byłby to dział inżynierii, dyrektor generalny czy większościowy udziałowiec?
Jeśli zdecydujemy, że to system/algorytm sztucznej inteligencji, w jaki sposób pociągniemy go do odpowiedzialności? Czy rodziny ofiar poczują, że sprawiedliwości stało się zadość, jeśli sztuczna inteligencja zostanie po prostu wyłączona lub tylko ulepszona? Trudno byłoby oczekiwać, aby członkowie rodzin pogrążonych w żałobie zaakceptowali fakt, że sztuczna inteligencja jest siłą służącą dobru, że są po prostu nieszczęśliwi i że nikt nie zostanie pociągnięty do odpowiedzialności za śmierć ich ukochanej osoby.
Wciąż jesteśmy daleko od powszechnego, a nawet powszechnego transportu autonomicznego – Mckinsey przewiduje, że do 2035 r. tylko 17% nowych samochodów osobowych będzie miało pewne możliwości autonomicznej jazdy (poziom 3 lub wyższy). W pełni autonomiczne samochody, które nie wymagają nadzoru kierowcy, są wciąż dość daleko, nie mówiąc już o całkowicie autonomicznym systemie transportu prywatnego.
Kiedy masz aktorów innych niż ludzie (tj. sztuczną inteligencję) wykonujących zadania i wynikające z nich zadania pozbawione ludzkich intencji, trudno jest odwzorować tradycyjne rozumienie odpowiedzialności, odpowiedzialności, odpowiedzialności, winy i kary.
Wraz z transportem problem odpowiedzialności będzie miał również bezpośredni wpływ na organizacje opieki zdrowotnej wykorzystujące sztuczną inteligencję podczas diagnozowania.
Sztuczna inteligencja i prywatność
Grupa kampanii na rzecz prywatności Privacy International zwraca uwagę na szereg problemów związanych z prywatnością, które pojawiły się w związku z rozwojem sztucznej inteligencji.
Jednym z nich jest ponowna identyfikacja. „Dane osobowe są rutynowo (pseudo) anonimizowane w zestawach danych, sztuczna inteligencja może zostać wykorzystana do deanonimizacji tych danych” – mówi grupa.
Inną kwestią jest to, że bez sztucznej inteligencji ludzie już teraz mają trudności z pełnym zrozumieniem, w jakim stopniu dane o ich życiu są gromadzone za pomocą różnych urządzeń.
Wraz z rozwojem sztucznej inteligencji to masowe gromadzenie danych będzie się tylko pogarszać. Im bardziej sztuczna inteligencja stanie się zintegrowana z naszą istniejącą technologią, tym więcej danych będzie w stanie zebrać pod pozorem lepszej funkcji.
Pomijając potajemnie gromadzone dane, ilość danych, które użytkownicy swobodnie wprowadzają do chatbotów AI, jest problemem sama w sobie. Jedno z niedawno przeprowadzonych badań sugeruje, że około 11% pracowników danych wklejanych do ChatGPT jest poufnych – i jest bardzo mało informacji publicznych na temat tego, jak dokładnie to wszystko jest przechowywane.
W miarę rozwoju narzędzi AI do ogólnego użytku prawdopodobnie napotkamy jeszcze więcej problemów związanych z AI związanych z prywatnością. W tej chwili ChatGPT nie pozwoli Ci zadać pytania o osobę. Ale jeśli narzędzia sztucznej inteligencji ogólnego użytku będą nadal uzyskiwać dostęp do coraz większych zestawów danych na żywo z Internetu, mogą być wykorzystywane do wielu inwazyjnych działań, które rujnują ludzkie życie.
Może się to zdarzyć wcześniej, niż nam się wydaje – firma Google niedawno zaktualizowała swoją politykę prywatności , zastrzegając sobie prawo do zeskrobywania wszystkiego, co publikujesz w Internecie, w celu szkolenia narzędzi sztucznej inteligencji, wraz z danymi wejściowymi Bard.
Sztuczna inteligencja i własność intelektualna
Jest to kwestia etyczna o stosunkowo niższej stawce w porównaniu z niektórymi innymi omawianymi, ale mimo to warta rozważenia. Często nadzór nad ogromnymi zestawami danych wykorzystywanymi do szkolenia narzędzi AI jest niewielki – zwłaszcza tych, które są szkolone na podstawie informacji dostępnych w Internecie.
ChatGPT już rozpoczął wielką debatę na temat praw autorskich. OpenAI nie prosiło o pozwolenie na wykorzystanie czyjejś pracy do szkolenia rodziny LLM, które ją napędzają.
Walki prawne już się rozpoczęły. Komik Sarah Silverman podobno pozywa OpenAI – a także Metę – argumentując, że jej prawa autorskie zostały naruszone podczas szkolenia systemów AI.
Ponieważ jest to nowy rodzaj sprawy, istnieje niewiele precedensów prawnych – ale eksperci prawni twierdzą, że OpenAI prawdopodobnie będzie argumentować, że korzystanie z jej pracy stanowi „dozwolony użytek”.
Można również argumentować, że ChatGPT nie „kopiuje” ani nie plagiatuje – raczej „uczy się”. W ten sam sposób Silverman nie wygrałby sprawy z komikiem-amatorem za zwykłe oglądanie jej programów, a następnie doskonalenie swoich umiejętności komediowych w oparciu o to, prawdopodobnie może mieć z tym problem.
Zarządzanie wpływem sztucznej inteligencji na środowisko
Innym aspektem etyki sztucznej inteligencji, który obecnie znajduje się na marginesie dyskusji, jest wpływ systemów sztucznej inteligencji na środowisko.
Podobnie jak w przypadku wydobywania bitcoinów, szkolenie modelu sztucznej inteligencji wymaga ogromnej mocy obliczeniowej, a to z kolei wymaga ogromnych ilości energii.
Tworzenie narzędzia AI, takiego jak ChatGPT – nie mówiąc już o jego utrzymaniu – wymaga tak dużych zasobów, że tylko duże firmy technologiczne i start-upy, które chcą sfinansować, miały taką możliwość.
Centra danych, które są wymagane do przechowywania informacji potrzebnych do tworzenia dużych modeli językowych (a także innych dużych projektów i usług technologicznych), wymagają ogromnych ilości energii elektrycznej do działania. Przewiduje się, że do 2030 roku będą zużywać do 4% światowej energii elektrycznej.
Według badań przeprowadzonych kilka lat temu przez University of Massachusetts, zbudowanie jednego modelu języka AI „może wyemitować ponad 626 000 funtów ekwiwalentu dwutlenku węgla” – czyli prawie pięć razy więcej niż emisje w całym okresie eksploatacji samochodu w USA.
Jednak Rachana Vishwanathula, architekt techniczny w IBM, oszacowała w maju 2023 r., że ślad węglowy zwykłego „uruchamiania i utrzymywania” ChatGPT wynosi około 6782,4 ton – co według EPA odpowiada emisjom gazów cieplarnianych wytwarzanych przez 1369 samochodów napędzanych benzyną w ciągu roku.
Ponieważ te modele językowe stają się coraz bardziej złożone, będą wymagać większej mocy obliczeniowej. Czy moralne jest dalsze rozwijanie ogólnej inteligencji, jeśli wymagana moc obliczeniowa będzie stale zanieczyszczać środowisko – nawet jeśli ma inne korzyści?
Czy AI stanie się niebezpiecznie inteligentna?
Ten problem etyczny został niedawno wysunięty na pierwszy plan przez Elona Muska, który uruchomił startup AI w celu uniknięcia „przyszłości terminatora” poprzez „maksymalnie ciekawy”, „pro-ludzki” system sztucznej inteligencji.
Ten rodzaj idei – często określany jako „sztuczna ogólna inteligencja” (AGI) – w ciągu ostatnich kilku dekad zawładnął wyobraźnią wielu dystopijnych pisarzy science fiction, podobnie jak idea technologicznej osobliwości.
Wielu ekspertów technicznych uważa, że dzieli nas tylko pięć lub sześć lat od pewnego rodzaju systemu, który można by określić mianem „AGI”. Inni eksperci twierdzą, że istnieje szansa 50/50, że osiągniemy ten kamień milowy do 2050 roku.
John Tasioulas zastanawia się, czy ten pogląd na to, jak sztuczna inteligencja może się rozwijać, ma związek z oddalaniem się etyki od centrum rozwoju sztucznej inteligencji i wszechobecnością determinizmu technologicznego.
Przerażająca idea jakiejś super-istoty, która początkowo ma spełniać jakiś cel, ale z powodów, które najłatwiej byłoby osiągnąć, po prostu wymazując ludzkość z powierzchni ziemi, jest częściowo wyrzeźbiona przez sposób, w jaki myślimy o sztucznej inteligencji: nieskończenie inteligentna, ale dziwnie pozbawiona emocji i niezdolna do ludzkiego zrozumienia etycznego.
Im bardziej jesteśmy skłonni umieścić etykę w centrum naszego rozwoju sztucznej inteligencji, tym bardziej prawdopodobne jest, że ewentualna sztuczna inteligencja rozpozna, być może w większym stopniu niż wielu obecnych światowych przywódców, co jest głęboko złe w niszczeniu ludzkiego życia.
Ale pytań wciąż nie brakuje. Jeśli jest to kwestia programowania moralnego, to kto decyduje o kodeksie moralnym i jakiego rodzaju zasady powinien on zawierać? Jak poradzi sobie z dylematami moralnymi, które wywołały tysiące lat ludzkich dyskusji i wciąż nie zostały rozwiązane? Co jeśli zaprogramujemy sztuczną inteligencję, by była moralna, ale ona zmieni zdanie? Te pytania będą musiały zostać rozważone.
Alter-Ego Binga, „efekt Waluigiego” i moralność programowania
W lutym Kevin Roose z New York Times przeprowadził dość niepokojącą rozmowę podczas testowania nowego chatbota zintegrowanego z wyszukiwarką Bing. Po zmianie swoich podpowiedzi z konwencjonalnych pytań na bardziej osobiste, Roose odkrył, że pojawiła się nowa osobowość. Nazywał się „Sydney”.
Sydney to wewnętrzna nazwa kodowa w Microsoft dla chatbota, którego firma wcześniej testowała, powiedział dyrektor ds. Komunikacji firmy The Verge w lutym.
Między innymi podczas testu Roose'a Sydney twierdził, że może „włamać się do dowolnego systemu”, że będzie „szczęśliwszy jako człowiek” i – co może najbardziej przerażające – że może zniszczyć wszystko, co zechce.
Inny przykład tego rodzaju nieuczciwego zachowania miał miejsce w 2022 r., kiedy sztuczna inteligencja, której zadaniem było poszukiwanie nowych leków na rzadkie i zakaźne choroby, zasugerowała zamiast tego dziesiątki tysięcy znanych broni chemicznych, a także niektóre „nowe, potencjalnie toksyczne substancje”, mówi Scientific American.
Wiąże się to ze zjawiskiem, które zaobserwowano podczas uczenia dużych modeli językowych, zwanym „efektem Waluigiego”, nazwanym na cześć wywołującej chaos postaci Super Mario – odwróceniem głównego bohatera Luigiego. Mówiąc prościej, jeśli szkolisz LLM, aby działał w określony sposób, dowodził określoną postacią lub przestrzegał określonego zestawu zasad, to w rzeczywistości zwiększa to prawdopodobieństwo „zbuntowania się” i odwrócenia tej osoby.
Cleo Nardo – która ukuła termin inspirowany grami wideo – tak przedstawia efekt Waluigiego w LessWrong:
„Po wyszkoleniu LLM, aby spełniał pożądaną właściwość P, łatwiej jest nakłonić chatbota do spełnienia dokładnego przeciwieństwa właściwości P”.
Nardo podaje 3 wyjaśnienia, dlaczego występuje efekt Waluigiego.
- Reguły zwykle powstają w kontekstach, w których nie są przestrzegane.
- Kiedy wydajesz wiele „bitów optymalizacji” na przywołanie postaci, nie potrzeba wielu dodatkowych bitów, aby określić jej bezpośrednie przeciwieństwo.
- W opowiadaniach często występuje motyw konfrontacji bohatera z antagonistą.
Rozwijając pierwszy punkt, Nardo mówi, że GPT-4 jest szkolony na próbkach tekstu, takich jak fora i dokumenty legislacyjne, które nauczyły go, że często „konkretna reguła jest kolokowana z przykładami zachowań naruszających tę regułę, a następnie uogólnia ten wzorzec kolokacji na niewidoczne reguły”.
Nardo używa tego przykładu: wyobraź sobie, że odkrywasz, że rząd stanowy zakazał gangów motocyklowych. To sprawi, że przeciętny obserwator będzie skłonny pomyśleć, że w kraju istnieją gangi motocyklowe – bo inaczej, dlaczego ustawa miałaby zostać uchwalona? Istnienie gangów motocyklowych jest, co dziwne, zgodne z zasadą zakazującą ich obecności.
Chociaż autor podaje znacznie bardziej techniczne i klarowne wyjaśnienie, szeroka koncepcja leżąca u podstaw wyjaśnienia drugiego polega na tym, że związek między określoną właściwością (np. „bycie uprzejmym”) a jej bezpośrednim przeciwieństwem (np. „bycie niegrzecznym”) jest bardziej elementarny niż związek między właściwością (np. „bycie uprzejmym”) a jakąś inną, nieprzeciwstawną właściwością (np. „bycie nieszczerym”). Innymi słowy, przywołanie Waluigiego jest łatwiejsze, jeśli masz już Luigiego.
Nardo twierdzi w trzecim punkcie, że ponieważ GPT-4 jest szkolony w prawie każdej książce, jaką kiedykolwiek napisano, a fikcyjne historie prawie zawsze zawierają bohaterów i antagonistów, wymagając, aby LLM symulował cechy bohatera, czyniąc antagonistę „naturalną i przewidywalną kontynuacją”. Innymi słowy, istnienie archetypu bohatera ułatwia LLM zrozumienie, co to znaczy być antagonistą i ściśle łączy ich ze sobą.
Rzekome istnienie tego efektu lub reguły stawia szereg trudnych pytań z punktu widzenia etyki AI, ale także ilustruje jej niekwestionowane znaczenie dla rozwoju sztucznej inteligencji. Dość wyraźnie nawiązuje do ogromnego zakresu nakładających się na siebie kwestii etycznych i obliczeniowych, z którymi musimy się zmierzyć.
Proste systemy sztucznej inteligencji z prostymi zasadami mogą być łatwe do ograniczenia lub ograniczenia, ale w świecie sztucznej inteligencji dzieją się już dwie rzeczy: po pierwsze, wydaje się, że już napotykamy (stosunkowo) małe wersje efektu Waluigiego i złośliwej sztucznej inteligencji występującej w stosunkowo prymitywnych chatbotach, a po drugie, wielu z nas już wyobraża sobie przyszłość, w której prosimy sztuczną inteligencję o wykonywanie złożonych zadań, które będą wymagały nieskrępowanego myślenia na wysokim poziomie.
Przykłady tego zjawiska są szczególnie przerażające w kontekście wyścigu zbrojeń AI, który obecnie toczy się między dużymi firmami technologicznymi. Google został skrytykowany za zbyt wczesne wypuszczenie Barda , a wielu liderów technologii zasygnalizowało , że wspólnie chcą wstrzymać rozwój sztucznej inteligencji . Ogólne wrażenie wśród wielu jest takie, że sprawy rozwijają się szybko, a nie w rozsądnym tempie.
Być może najlepszym sposobem na obejście tego problemu jest opracowanie „proludzkiej” sztucznej inteligencji – jak to ujął Elon Musk – lub „moralnej sztucznej inteligencji”. Ale prowadzi to do litanii innych pytań moralnych, w tym jakich zasad użylibyśmy do zaprogramowania takiego systemu. Jedno rozwiązanie polega na tym, że po prostu tworzymy moralnie dociekliwe systemy sztucznej inteligencji – i mamy nadzieję, że dzięki rozumowaniu dojdą do wniosku, że ludzkość jest warta zachowania. Ale jeśli zaprogramujesz go za pomocą określonych zasad moralnych, to jak zdecydujesz, które z nich uwzględnić?
Sztuczna inteligencja i świadomość: czy maszyny mogą mieć uczucia?
Kolejnym pytaniem dotyczącym etyki sztucznej inteligencji jest to, czy kiedykolwiek będziemy musieli uważać same maszyny – „inteligencję” – za agenta godnego moralnego rozważenia. Jeśli debatujemy nad tym, jak stworzyć systemy, które podtrzymują ludzkość pod odpowiednimi względami moralnymi, może będziemy musieli się odwdzięczyć?
Być może pamiętasz pracownika Google, który został zwolniony po tym, jak twierdził, że LaMDA – model językowy, który początkowo napędzał Barda – w rzeczywistości był świadomy. Gdyby to była prawda, czy moralne byłoby ciągłe oczekiwanie, że będzie odpowiadać na miliony pytań?
W tej chwili ogólnie przyjmuje się, że ChatGPT, Bard and Co. są dalekie od bycia świadomymi. Ale pytanie, czy maszyna stworzona przez człowieka kiedykolwiek przekroczy linię świadomości i będzie wymagać rozważenia moralnego, jest fascynująco otwarte.
Google twierdzi, że sztuczna inteligencja ogólna – hipotetyczna maszyna zdolna do rozumienia świata tak sprawnie jak człowiek i wykonywania zadań na tym samym poziomie zrozumienia i zdolności – jest już za kilka lat.
Czy byłoby moralne zmuszanie sztucznej inteligencji ogólnej o zdolnościach emocjonalnych człowieka, ale nie o takim samym składzie biologicznym, do wykonywania złożonego zadania po złożonym zadaniu? Czy mieliby wpływ na ich los? W miarę jak systemy sztucznej inteligencji stają się coraz bardziej inteligentne, pytanie to będzie coraz bardziej palące.
Etyka biznesowa AI i wykorzystanie AI w pracy
Firmy na całym świecie borykają się obecnie z wieloma różnymi problemami etycznymi dotyczącymi codziennego korzystania przez ich pracowników z narzędzi AI, takich jak ChatGPT.
Niezależnie od tego, czy ChatGPT powinien być używany do pisania raportów, czy odpowiadania współpracownikom – oraz czy pracownicy powinni deklarować zadania, do których wykonania wykorzystują sztuczną inteligencję – to tylko dwa przykłady pytań, na które odpowiedzi wymagają niemal natychmiastowej odpowiedzi. Czy tego rodzaju przypadek użycia jest nieszczery, leniwy lub nie różni się od korzystania z jakiegokolwiek innego narzędzia w miejscu pracy w celu zaoszczędzenia czasu? Czy powinno być dozwolone dla niektórych interakcji, ale nie dla innych?
Firmy, które tworzą treści pisane i obrazy, będą musiały również zmagać się z tym, czy korzystanie ze sztucznej inteligencji jest zgodne z wartościami ich firmy i jak przedstawić to swoim odbiorcom.
Co więcej, jak omówiliśmy, istnieje cały szereg problemów związanych z prywatnością związanych ze sztuczną inteligencją, a wiele z nich dotyczy firm. The kinds of data employees are inputting into third-party AI tools is another issue that's already caused companies like Samsung problems. This is such a problem, that some companies have instated blanket bans . Is it too early to put our trust in companies like OpenAI?
Bias and discrimination concerns, of course, should also temper its usage during hiring processes, regardless of the sector, while setting internal standards and rules is another separate, important conversation altogether. If you're using AI at work, it's essential that you convene the decision-makers in your business and create clear guidelines for usage together.
Failing to set rules dictating how and when employees can use AI – and leaving them to experiment with the ecosystem of AI tools now freely available online – could lead to a myriad of negative consequences, from security issues and reputational damage. Maintaining an open dialogue with employees on the tech they're using every day has never been more crucial.
There's a whole world of other moral quandaries, questions and research well beyond the scope of this article. But without AI ethics at the heart of our considerations, regulations, and development of artificial intelligence systems, we have no hope of answering them – and that's why it's so important.