Wyzwania związane ze sztuczną inteligencją w 2024 r.: spostrzeżenia 3 czołowych badaczy sztucznej inteligencji
Opublikowany: 2024-01-13Rok 2023 był punktem zwrotnym w ewolucji sztucznej inteligencji i jej roli w społeczeństwie.
W tym roku pojawiło się generatywnej sztucznej inteligencji, która przeniosła technologię z cienia na centralne miejsce w wyobraźni publicznej. W wiadomościach przez kilka dni dominował dramat na sali konferencyjnej startupu AI.
I w tym czasie administracja Bidena wydała rozporządzenie wykonawcze, a Unia Europejska przyjęła ustawę mającą na celu uregulowanie sztucznej inteligencji, co być może najlepiej można opisać jako próbę okiełznania konia, który już galopuje.
Zebraliśmy panel naukowców zajmujących się sztuczną inteligencją, aby spojrzeć w przyszłość na rok 2024 i opisać problemy, z którymi prawdopodobnie będą musieli się zmierzyć twórcy sztucznej inteligencji, organy regulacyjne i zwykli ludzie, a także przedstawić swoje nadzieje i zalecenia.
Casey Fiesler, profesor nadzwyczajny informatyki, Uniwersytet Kolorado w Boulder
Rok 2023 był rokiem szumu dotyczącego sztucznej inteligencji. Niezależnie od tego, czy narracja głosiła, że sztuczna inteligencja uratuje świat, czy go zniszczy, często odnosiło się wrażenie, że wizje tego, czym pewnego dnia może być sztuczna inteligencja, przytłoczyły obecną rzeczywistość.
I chociaż uważam, że przewidywanie przyszłych szkód jest kluczowym elementem przezwyciężenia długu etycznego w technologii, nadmierne wciągnięcie się w ten szum medialny grozi stworzeniem wizji sztucznej inteligencji, która bardziej przypomina magię niż technologię, którą wciąż można kształtować w drodze wyraźnych wyborów.
Jednak przejęcie kontroli wymaga lepszego zrozumienia tej technologii.
Jedna z głównych debat na temat sztucznej inteligencji w 2023 r. dotyczyła roli ChatGPT i podobnych chatbotów w edukacji.
W zeszłym roku o tej porze najbardziej istotne nagłówki skupiały się na tym, jak uczniowie mogą wykorzystać to do ściągania i jak nauczyciele starają się ich od tego powstrzymać – w sposób, który często przynosi więcej szkody niż pożytku.
Jednak w miarę upływu roku uznano, że brak nauczania uczniów na temat sztucznej inteligencji może postawić ich w niekorzystnej sytuacji, w związku z czym wiele szkół uchyliło swoje zakazy.
Nie sądzę, że powinniśmy modernizować edukację, aby umieścić sztuczną inteligencję w centrum wszystkiego, ale jeśli uczniowie nie dowiedzą się, jak działa sztuczna inteligencja, nie zrozumieją jej ograniczeń – a tym samym tego, jak przydatne i właściwe jest jej używanie i jak to nie jest.
Nie dotyczy to tylko studentów. Im więcej ludzie rozumieją, jak działa sztuczna inteligencja, tym większe mają uprawnienia do jej stosowania i krytykowania.
Tak więc moja prognoza, a może i nadzieja, na rok 2024 jest taka, że będzie ogromny nacisk na naukę.
W 1966 roku Joseph Weizenbaum, twórca chatbota ELIZA, napisał, że maszyny „często wystarczą, aby olśnić nawet najbardziej doświadczonego obserwatora”, ale gdy „wewnętrzne działanie zostanie wyjaśnione językiem na tyle prostym, aby wywołać zrozumienie, ich magia zanika”. .”
Wyzwanie związane z generatywną sztuczną inteligencją polega na tym, że w przeciwieństwie do bardzo podstawowej metodologii dopasowywania wzorców i zastępowania stosowanej przez ELIZA, znacznie trudniej jest znaleźć język „wystarczająco prosty”, aby magia sztucznej inteligencji się rozpadła.
Myślę, że jest to możliwe do zrealizowania. Mam nadzieję, że uniwersytety, które spieszą się z zatrudnieniem większej liczby technicznych ekspertów w dziedzinie sztucznej inteligencji, włożą równie wiele wysiłku w zatrudnienie etyków sztucznej inteligencji. Mam nadzieję, że media pomogą przełamać ten szum. Mam nadzieję, że każdy zastanowi się nad własnym wykorzystaniem tej technologii i jej konsekwencjami.
Mam też nadzieję, że firmy technologiczne wysłuchają świadomej krytyki, zastanawiając się, jakie wybory będą w dalszym ciągu kształtować przyszłość. Wiele wyzwań w nadchodzącym roku ma związek z problemami sztucznej inteligencji, przed którymi stoi już społeczeństwo.
Kentaro Toyama, profesor informacji społecznej na Uniwersytecie Michigan
W 1970 roku Marvin Minsky, pionier sztucznej inteligencji i sceptyk sieci neuronowych, powiedział magazynowi Life: „Za trzy do ośmiu lat będziemy mieli maszynę o ogólnej inteligencji przeciętnego człowieka”.
Jeśli chodzi o osobliwość, w momencie, gdy sztuczna inteligencja dorównuje ludzkiej inteligencji i zaczyna ją przewyższać – jeszcze nie do końca – można śmiało powiedzieć, że Minsky pomylił się co najmniej 10-krotnie. Przewidywania dotyczące sztucznej inteligencji są niebezpieczne.
Mimo to prognozowanie na dany rok nie wydaje się aż tak ryzykowne. Czego można się spodziewać po sztucznej inteligencji w 2024 roku?
Po pierwsze, wyścig trwa! Postęp w dziedzinie sztucznej inteligencji był stały od czasów świetności Minsky’ego, ale publiczne wydanie ChatGPT w 2022 r. zapoczątkowało totalną rywalizację o zysk, chwałę i globalną dominację.
Spodziewaj się potężniejszej sztucznej inteligencji oraz zalewu nowych aplikacji AI.
Najważniejszym pytaniem technicznym jest to, jak szybko i jak dokładnie inżynierowie AI mogą zająć się obecną piętą achillesową głębokiego uczenia się – czymś, co można nazwać uogólnionym twardym rozumowaniem, na przykład logiką dedukcyjną.
Czy wystarczą szybkie poprawki w istniejących algorytmach sieci neuronowych, czy też będzie to wymagało zupełnie innego podejścia, jak sugeruje neurobiolog Gary Marcus?
Nad tym problemem pracują armie naukowców zajmujących się sztuczną inteligencją, więc spodziewam się pewnych postępów w 2024 r.
Tymczasem nowe zastosowania sztucznej inteligencji prawdopodobnie również spowodują nowe problemy. Być może wkrótce zaczniesz słyszeć o chatbotach i asystentach AI rozmawiających ze sobą, prowadzących całe rozmowy w Twoim imieniu, ale za Twoimi plecami.
Niektóre z nich oszaleją – komicznie, tragicznie lub jedno i drugie.
Deepfakes, trudne do wykrycia obrazy i filmy generowane przez sztuczną inteligencję, będą prawdopodobnie szerzyć się pomimo powstających regulacji, powodując coraz bardziej marne szkody dla jednostek i demokracji 1. na całym świecie. Prawdopodobnie pojawią się nowe klasy katastrof związanych ze sztuczną inteligencją, które nie byłyby możliwe nawet pięć lat temu.
A skoro już mowa o problemach, ci sami ludzie, którzy najgłośniej alarmują o sztucznej inteligencji – jak Elon Musk i Sam Altman – nie mogą powstrzymać się od budowania coraz potężniejszej sztucznej inteligencji.
Oczekuję, że będą robić więcej tego samego. Są jak podpalacze wzywający do pożaru, który sami podsycili, i błagają władze, aby ich powstrzymały.
I w związku z tym największą nadzieją na rok 2024 – choć wydaje się, że nadchodzi to powoli – są silniejsze regulacje dotyczące sztucznej inteligencji na poziomie krajowym i międzynarodowym.
Anjana Susarla, profesor systemów informatycznych na Uniwersytecie Stanowym Michigan
W ciągu roku od odsłonięcia ChatGPT rozwój generatywnych modeli AI postępuje w zawrotnym tempie.
W przeciwieństwie do ChatGPT rok temu, który pobierał podpowiedzi tekstowe jako dane wejściowe i generował wynik tekstowy, nowa klasa generatywnych modeli sztucznej inteligencji jest szkolona tak, aby była multimodalna, co oznacza, że dane wykorzystywane do ich uczenia pochodzą nie tylko ze źródeł tekstowych, takich jak Wikipedia i Reddit, ale także z filmów na YouTube, piosenek na Spotify i innych informacji audio i wizualnych.
Dzięki nowej generacji wielomodalnych modeli wielkojęzycznych (LLM) obsługujących te aplikacje, można używać tekstu do generowania nie tylko obrazów i tekstu, ale także dźwięku i wideo.
Firmy ścigają się, aby opracować rozwiązania LLM, które można wdrożyć na różnym sprzęcie i w różnych aplikacjach, w tym uruchomić LLM na smartfonie.
Pojawienie się tych lekkich rozwiązań LLM i rozwiązań LLM typu open source może zapoczątkować świat autonomicznych agentów sztucznej inteligencji – świat, na który społeczeństwo niekoniecznie jest przygotowane.
Te zaawansowane możliwości sztucznej inteligencji oferują ogromną moc transformacyjną w zastosowaniach od biznesu po medycynę precyzyjną.
Moją główną obawą jest to, że tak zaawansowane możliwości będą stwarzać nowe wyzwania w zakresie odróżniania treści generowanych przez człowieka od treści generowanych przez sztuczną inteligencję, a także będą powodować nowe rodzaje szkód algorytmicznych.
Zalew syntetycznych treści wytwarzanych przez generatywną sztuczną inteligencję może uwolnić świat, w którym złośliwi ludzie i instytucje mogą wytwarzać syntetyczne tożsamości i organizować dezinformację na dużą skalę.
Zalew treści generowanych przez sztuczną inteligencję, przygotowanych do wykorzystywania filtrów algorytmicznych i silników rekomendacji, może wkrótce pokonać krytyczne funkcje, takie jak weryfikacja informacji, umiejętność korzystania z informacji i nieoczekiwane działanie zapewniane przez wyszukiwarki, platformy mediów społecznościowych i usługi cyfrowe.
Federalna Komisja Handlu ostrzegła przed oszustwami, oszustwami, naruszeniami prywatności i innymi nieuczciwymi praktykami, których przyczyną jest łatwość tworzenia treści wspomaganych sztuczną inteligencją.
Chociaż platformy cyfrowe, takie jak YouTube, ustanowiły wytyczne dotyczące ujawniania treści generowanych przez sztuczną inteligencję, istnieje potrzeba dokładniejszej kontroli szkód algorytmicznych ze strony agencji takich jak FTC i prawodawców pracujących nad ochroną prywatności, takich jak amerykańska ustawa o ochronie danych i prywatności.
Nowa ponadpartyjna ustawa wprowadzona w Kongresie ma na celu kodyfikację umiejętności algorytmicznych jako kluczowej części umiejętności cyfrowych.
Ponieważ sztuczna inteligencja jest w coraz większym stopniu powiązana ze wszystkim, co robią ludzie, jasne jest, że nadszedł czas, aby skupić się nie na algorytmach jako elementach technologii, ale wziąć pod uwagę konteksty, w których działają algorytmy: ludzi, procesy i społeczeństwo.
Nota wydawcy: Ten artykuł został napisany przez Anjanę Susarla, profesor systemów informatycznych na Uniwersytecie Stanowym Michigan, Casey Fiesler, profesor nadzwyczajny informatyki na Uniwersytecie Colorado Boulder, Kentaro Toyama, profesor informacji społecznej na Uniwersytecie Michigan i opublikowany ponownie w The Conversation na licencji Creative Commons. Przeczytaj oryginalny artykuł.