Czy OpenAI działa na GPT-5?

Opublikowany: 2023-04-17

Szybka odpowiedź: Nie, OpenAI nie działa na GPT-5 i prawdopodobnie nie będzie działać przez jakiś czas. OpenAI nadal koncentruje się na udoskonalaniu możliwości GPT-4.

Podczas niedawnego wydarzenia w MIT omawiającego wyzwania i potencjalne zagrożenia związane z systemami sztucznej inteligencji, dyrektor generalny i współzałożyciel OpenAI, Sam Altman, wystąpił na scenie za pośrednictwem wirtualnego łącza wideo.

Altman wystosował krążący list otwarty, w którym wezwał instytucje, w tym OpenAI, do wstrzymania wszelkich dalszych systemów AI tworzących systemy AI wykraczające poza możliwości GPT-4.

List został podpisany przez takich ludzi, jak Elon Musk, współzałożyciel Apple Steve Wozniak i inni. Możesz przeczytać list tutaj lub z listy rozwijanej poniżej:

Wstrzymaj gigantyczne eksperymenty AI: list otwarty

Systemy sztucznej inteligencji z inteligencją współzawodniczącą z ludźmi mogą stanowić poważne zagrożenie dla społeczeństwa i ludzkości, jak wykazały szeroko zakrojone badania i potwierdzone przez najlepsze laboratoria AI. Jak stwierdzono w powszechnie akceptowanych zasadach sztucznej inteligencji Asilomar, zaawansowana sztuczna inteligencja może stanowić głęboką zmianę w historii życia na Ziemi i powinna być planowana i zarządzana z odpowiednią troską i zasobami .

Niestety, ten poziom planowania i zarządzania nie ma miejsca, mimo że w ostatnich miesiącach laboratoria sztucznej inteligencji utknęły w wymykającym się spod kontroli wyścigu, aby rozwijać i wdrażać coraz potężniejsze cyfrowe umysły, których nikt – nawet ich twórcy – nie jest w stanie zrozumieć, przewidywać lub niezawodnie kontrolować.

Współczesne systemy sztucznej inteligencji stają się obecnie konkurencyjne dla ludzi w zadaniach ogólnych i musimy zadać sobie pytanie: czy powinniśmy pozwolić maszynom zalewać nasze kanały informacyjne propagandą i nieprawdą? Czy powinniśmy zautomatyzować wszystkie zadania, w tym te spełniające? Czy powinniśmy rozwijać nieludzkie umysły, które mogą ostatecznie przewyższyć liczebnie, przechytrzyć, przestarzałe i zastąpić nas? Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją? Takie decyzje nie mogą być przekazywane niewybieralnym liderom technologicznym.

Potężne systemy sztucznej inteligencji powinny być opracowywane tylko wtedy, gdy mamy pewność, że ich efekty będą pozytywne, a związane z nimi ryzyko będzie możliwe do opanowania. Ta pewność musi być dobrze uzasadniona i wzrastać wraz z wielkością potencjalnych skutków systemu. W niedawnym oświadczeniu OpenAI dotyczącym sztucznej inteligencji ogólnej stwierdza się, że „w pewnym momencie może być ważne uzyskanie niezależnej oceny przed rozpoczęciem szkolenia przyszłych systemów, a w przypadku najbardziej zaawansowanych wysiłków uzgodnienie ograniczenia tempa wzrostu mocy obliczeniowej wykorzystywanej do tworzenia nowych modele”. Zgadzamy się. Ten punkt jest teraz.

Dlatego wzywamy wszystkie laboratoria AI do natychmiastowego wstrzymania na co najmniej 6 miesięcy szkolenia systemów AI potężniejszych niż GPT-4 . Ta przerwa powinna być jawna i możliwa do zweryfikowania oraz obejmować wszystkie kluczowe podmioty. Jeśli taka przerwa nie może zostać szybko uchwalona, ​​rządy powinny wkroczyć i wprowadzić moratorium.

Laboratoria sztucznej inteligencji i niezależni eksperci powinni wykorzystać tę przerwę, aby wspólnie opracować i wdrożyć zestaw wspólnych protokołów bezpieczeństwa dla zaawansowanego projektowania i rozwoju sztucznej inteligencji, które są rygorystycznie kontrolowane i nadzorowane przez niezależnych ekspertów zewnętrznych. Protokoły te powinny zapewniać ponad wszelką wątpliwość, że systemy, które się do nich stosują, są bezpieczne. Nie oznacza to ogólnie przerwy w rozwoju sztucznej inteligencji, a jedynie wycofanie się z niebezpiecznego wyścigu do coraz większych, nieprzewidywalnych modeli czarnej skrzynki z pojawiającymi się możliwościami.

Badania i rozwój sztucznej inteligencji powinny zostać ponownie skoncentrowane na uczynieniu dzisiejszych potężnych, najnowocześniejszych systemów dokładniejszymi, bezpieczniejszymi, łatwiejszymi do interpretacji, przejrzystymi, niezawodnymi, spójnymi, godnymi zaufania i lojalnymi.

Równolegle programiści AI muszą współpracować z decydentami, aby radykalnie przyspieszyć rozwój solidnych systemów zarządzania AI. Powinny one obejmować co najmniej: nowe i zdolne organy regulacyjne zajmujące się sztuczną inteligencją; nadzór i śledzenie wysoce wydajnych systemów sztucznej inteligencji i dużych zasobów mocy obliczeniowej; systemy pochodzenia i znaków wodnych pomagające odróżnić prawdziwe od syntetycznych i śledzić wycieki modeli; solidny ekosystem audytu i certyfikacji; odpowiedzialność za szkodę wyrządzoną przez AI; solidne finansowanie publiczne badań technicznych nad bezpieczeństwem sztucznej inteligencji; oraz dobrze wyposażone instytucje do radzenia sobie z dramatycznymi zakłóceniami gospodarczymi i politycznymi (zwłaszcza w demokracji), które spowoduje sztuczna inteligencja.

Ludzkość może cieszyć się kwitnącą przyszłością dzięki sztucznej inteligencji. Po pomyślnym stworzeniu potężnych systemów sztucznej inteligencji możemy teraz cieszyć się „latem sztucznej inteligencji”, w którym czerpiemy korzyści, konstruując te systemy z wyraźną korzyścią dla wszystkich i dając społeczeństwu szansę na przystosowanie się. Społeczeństwo zatrzymało się na innych technologiach, które mogą mieć katastrofalne skutki dla społeczeństwa. Możemy to zrobić tutaj. Cieszmy się długim sztucznym latem, a nie spieszmy się nieprzygotowani do jesieni”.

Altman skrytykował list za wygodne pominięcie niektórych ważnych szczegółów i sposób, w jaki wcześniejsza wersja rozpowszechniała plotki, które twierdziły, że OpenAI już trenuje GPT-5. Ale to rodzi uczciwe pytanie, prawda?

Czy OpenAI działa na GPT-5?

Krótka odpowiedź: Nie

Obecnie OpenAI nie pracuje nad GPT-5 „i nie będzie przez jakiś czas”, powiedział Altman, zwracając się do listu. Altman zapewnił, że rozwój GPT-5 nie jest w jego obecnym programie.

To powiedziawszy, Altman podkreślił, że OpenAI nadal koncentruje się na doskonaleniu możliwości GPT-4 i rozwiązywaniu potencjalnych problemów związanych z bezpieczeństwem, o których nie wspomniano w liście otwartym.

Obejrzyj wideo przedstawiające rozmowę poniżej:

„Robimy inne rzeczy oprócz GPT-4, które moim zdaniem mają wiele problemów związanych z bezpieczeństwem, które są ważne do rozwiązania i zostały całkowicie pominięte” – zauważył Altman – odnosząc się do wtyczek GPT-4, które umożliwiają model dużego języka przeglądać internet.

Na razie skupmy się na GPT-4

I tylko to jest inną kwestią. Chociaż istnieje możliwość ogłoszenia GPT-5 w przyszłości, musimy skupić się na tym, do czego w pełni zdolny jest GPT-4. Nadal nie widzieliśmy nawet wszystkich jego możliwości.

„Ponieważ możliwości stają się coraz poważniejsze, poprzeczka bezpieczeństwa musi wzrosnąć” — dodał Altman. „Myślę, że poruszanie się z ostrożnością i rosnącym rygorem w kwestiach bezpieczeństwa jest naprawdę ważne. Nie sądzę, aby ten list był optymalnym sposobem na zaadresowanie go”.

Mimo że OpenAI nie koncentruje się obecnie na szkoleniu GPT-5, nie oznacza to, że nie tworzy innych odważnych i innowacyjnych narzędzi.

Chociaż OpenAI może w tej chwili nie koncentrować się na GPT-5, są aktywnie zaangażowani w tworzenie różnych narzędzi do przesuwania granic sztucznej inteligencji.

Masz jakieś przemyślenia na ten temat? Napisz do nas poniżej w komentarzach lub przenieś dyskusję na naszego Twittera lub Facebooka.

Zalecenia redaktorów:

  • ChatGPT i sztuczna inteligencja innych języków są tak samo irracjonalne jak my
  • Czy ChatGPT może wykonać Twoją pracę? OpenAI twierdzi, że tak, co najmniej 19% z was
  • Błąd ChatGPT zdecydowanie ujawnił twoje leniwe nawyki pisania (zaktualizowane)
  • Asystent pisania GPT firmy Linkedin pomaga udoskonalić swój profil