Czym jest zegar zagłady i jaki wpływ na niego ma sztuczna inteligencja?

Opublikowany: 2024-01-24

W tym tygodniu naukowcy potwierdzili, że Zegar Zagłady drugi rok z rzędu będzie wskazywał 90 sekund do północy.

Zegar Zagłady to metafora tego, jak blisko człowieka jest zniszczenie świata. Ostatni raz przesunięto go bliżej północy – symbolicznego punktu końcowego – w 2023 r. ze względu na obawy klimatyczne i wojnę na Ukrainie.

Biuletyn Naukowców Atomowych, który co roku ustala czas, podaje, że ma on pozostać na poziomie 90 sekund pomimo wojny w Gazie, kolejnego najgorętszego roku w historii i – co ciekawe – rosnących obaw związanych ze sztuczną inteligencją .

Przyjrzyjmy się dokładnie, czym jest Zegar Zagłady i w jaki sposób sztuczna inteligencja powoduje, że zbliża się on do zagłady.

Co to jest zegar zagłady?

Zegar Zagłady , opracowany po raz pierwszy w 1947 roku przez J. Roberta Oppenheimera i jego kolegów naukowców, którzy opracowali bombę atomową, pokazuje, jak blisko ludzkości jest całkowitej zagłady. Został stworzony, aby wywrzeć presję na światowych przywódców, aby dopilnowali, aby broń nuklearna nigdy więcej nie została użyta po niszczycielskich skutkach drugiej wojny światowej.

Zaczynając od siódmej minuty do północy, wskazówki zegara przesunęły się w sumie 25 razy, a po zakończeniu zimnej wojny w 1991 r. spadły nawet do 17 minut do północy.

Wojna jest kluczowym czynnikiem wpływającym na większość obliczeń zegara. We wtorek w „Biuletynie” stwierdzono, że ekspansja i modernizacja broni nuklearnej Chin, Rosji i Stanów Zjednoczonych zwiększyła „nieustannie obecne niebezpieczeństwo wojny nuklearnej spowodowanej błędem lub błędnymi obliczeniami”. Podobnie wojna na Ukrainie stworzyła „ciągle obecne ryzyko eskalacji nuklearnej”.

Jednak jako powód, dla którego zegar pozostaje najbliżej armagedonu, wymieniono również narzędzia sztucznej inteligencji.

Logo Surfsharka Chcesz przeglądać internet prywatnie? Lub sprawiać wrażenie, jakbyś był w innym kraju?
Skorzystaj z ogromnej zniżki 86% na Surfshark dzięki tej specjalnej ofercie tech.co. Zobacz przycisk transakcji

Jak sztuczna inteligencja wpływa na odliczanie?

Od 2007 roku członkowie Biuletynu Naukowców Atomowych uwzględniają w swoich obliczeniach ryzyko spowodowane przez człowieka, takie jak sztuczna inteligencja.

Jednak dzięki dramatycznemu i szybkiemu postępowi w technologii generatywnej sztucznej inteligencji, w którym chatboty, takie jak ChatGPT OpenAI , pozornie co drugi dzień pojawiają się na pierwszych stronach gazet, jego znacząca wzmianka na tegorocznej liście nie jest zaskoczeniem.

W Biuletynie czytamy: „Podkreślamy jedną kwestię budzącą szczególne obawy: zbieżność pojawiających się narzędzi sztucznej inteligencji i technologii biologicznych, które mogą radykalnie umożliwić jednostkom niewłaściwe wykorzystanie biologii”.

Firmy i organizacje czerpią korzyści ze sztucznej inteligencji i dużych modeli językowych, dzięki ich pomocy w zwiększaniu produktywności i minimalizowaniu błędów. Nawet branża opieki zdrowotnej dostrzega pozytywny efekt sztucznej inteligencji w postaci zwiększonej efektywności diagnozowania. Co więc właściwie daje powód do niepokoju Atomowych Naukowców?

Według oświadczenia Zegara Zagłady :

„Obawy polegają na tym, że duże modele językowe umożliwiają osobom, którym w przeciwnym razie brak wystarczającej wiedzy, identyfikowanie, pozyskiwanie i wdrażanie czynników biologicznych, które mogłyby zaszkodzić dużej liczbie ludzi, zwierząt, roślin i innych elementów środowiska”.

Co więcej, nieprzewidywalność generatywnej sztucznej inteligencji oraz jej potencjał do zakłócania informacji i powiększania dezinformacji stanowią zagrożenia dla demokracji, co z kolei może mieć poważny wpływ na sposób, w jaki zarządzamy zagrożeniami nuklearnymi, pandemiami i zmianami klimatycznymi.

Mówiąc z technologicznego punktu widzenia, wpływ sztucznej inteligencji na branżę jest bardzo płynny.

Weźmy szkodliwy dla biznesu, ale ostatecznie nieszkodliwy przykład internetowego chatbota DPD, którym łatwo można było zmanipulować, aby skrytykował siebie i firmę. Choć nie jest to katastrofalne rozwiązanie na wielką skalę, jest to zawstydzający błąd, który może oznaczać straty finansowe dla firm.

Na drugim końcu skali znajduje się zagrożenie życia. W ubiegłym roku Tesla była zmuszona wycofać z rynku ponad dwa miliony swoich pojazdów z powodu awarii autopilota . Było to spowodowane serią wypadków, w których dwa oddzielne samochody wjechały w tył zaparkowanego wozu strażackiego i radiowozu.

Atomic Naukowcy stwierdzili, że „na przykład postępy w sztucznej inteligencji i inżynierii genetycznej mają ogromny potencjał, ale niosą ze sobą także znaczne ryzyko w zależności od sposobu wykorzystania tych technologii”.

Czy regulacje dotyczące sztucznej inteligencji mogą pomóc?

Głównym celem Zegara Zagłady jest podniesienie świadomości i, miejmy nadzieję, zwrócenie uwagi na problemy globalne, aby pobudzić do działania polityków, światowych przywódców i obywateli.

Prezes i dyrektor generalna Biuletynu Naukowców Atomowych Rachel Bronson wyjaśniła: „W naszym oświadczeniu znajdują się dwa kluczowe przesłania i są one jedno: że 90 sekund do północy jest całkowicie niestabilne i nie może powodować samozadowolenia, a drugie: postęp technologii przyspiesza i przewyższa naszą zdolność do zarządzania nimi”.

Oznacza to, że z „nowymi, przełomowymi technologiami”, takimi jak sztuczna inteligencja, należy postępować zgodnie z odpowiednimi przepisami i regulacjami.

W październiku prezydent USA Joe Biden podpisał rozporządzenie wykonawcze w sprawie „bezpiecznej i godnej zaufania sztucznej inteligencji”, w którym wzywa się do ochrony „przed ryzykiem związanym z wykorzystywaniem sztucznej inteligencji do konstruowania niebezpiecznych materiałów biologicznych poprzez opracowanie nowych, rygorystycznych standardów badań przesiewowych syntezy biologicznej”. Chociaż nie jest to prawnie wiążące, posunięcie to jest krokiem we właściwym kierunku.

Podobnie wiele krajów na całym świecie uznaje potencjał sztucznej inteligencji do wyrządzania szkód i wprowadza regulacje łagodzące. Obejmuje to ramy regulacyjne zaproponowane przez Unię Europejską, międzynarodową deklarację w sprawie rozwiązania problemu zagrożeń związanych ze sztuczną inteligencją oraz utworzenie nowego organu doradczego ONZ.

Aby mieć pewność, że osobiście korzystasz ze sztucznej inteligencji w najbardziej efektywny i bezpieczny sposób, pamiętaj o pełnym zrozumieniu ograniczeń i zagrożeń związanych z każdym narzędziem generatywnej sztucznej inteligencji, z którym pracujesz. Pozwoli ci to lepiej kontrolować ich użycie i, miejmy nadzieję, pomoże powstrzymać tykający zegar.