Ludzie i ChatGPT odzwierciedlają wspólne wzorce językowe – oto jak to zrobić
Opublikowany: 2023-06-15ChatGPT to gorący temat na moim uniwersytecie, gdzie wykładowcy są głęboko zaniepokojeni uczciwością akademicką, podczas gdy administratorzy nakłaniają nas do „przyjęcia korzyści” z tej „nowej granicy”.
To klasyczny przykład tego, co mój kolega, Punya Mishra, nazywa „kołem zagłady” wokół nowych technologii. Podobnie relacje medialne na temat interakcji człowieka z sztuczną inteligencją – czy to paranoiczne, czy gwiaździste oczy – zwykle podkreślają jej nowość.
W pewnym sensie jest niezaprzeczalnie nowy. Interakcje z ChatGPT mogą wydawać się bezprecedensowe, jak wtedy, gdy dziennikarz techniczny nie mógł sprawić, by chatbot przestał wyznawać mu miłość.
Jednak moim zdaniem granica między ludźmi a maszynami, jeśli chodzi o sposób, w jaki wchodzimy w interakcje, jest bardziej niewyraźna, niż większość ludzi chciałaby przyznać, i ta nieostrość odpowiada za znaczną część dyskursu wirującego wokół ChatGPT.
Kiedy proszą mnie o zaznaczenie pola w celu potwierdzenia, że nie jestem robotem, nie zastanawiam się nad tym – oczywiście nie jestem robotem.
Z drugiej strony, kiedy mój klient poczty e-mail sugeruje słowo lub frazę, aby dokończyć moje zdanie, lub gdy mój telefon odgaduje następne słowo, które mam napisać, zaczynam wątpić. Czy to chciałem powiedzieć?
Czy przyszłoby mi to do głowy, gdyby aplikacja tego nie sugerowała? Czy jestem po części robotem? Te duże modele językowe zostały przeszkolone na ogromnych ilościach „naturalnego” ludzkiego języka. Czy to czyni roboty częściowo ludzkimi?
Chatboty AI są nowe, ale publiczne debaty na temat zmiany języka już nie. Jako antropolog językowy uważam, że ludzkie reakcje na ChatGPT są najbardziej interesujące.
Uważne przyjrzenie się takim reakcjom ujawnia przekonania na temat języka leżące u podstaw ambiwalentnych, niespokojnych, wciąż ewoluujących relacji ludzi z rozmówcami AI.
ChatGPT i tym podobne są lustrem dla ludzkiego języka. Ludzie są zarówno bardzo oryginalni, jak i nieoryginalni, jeśli chodzi o język. Chatboty odzwierciedlają to, ujawniając tendencje i wzorce, które są już obecne w interakcjach z innymi ludźmi.
Twórcy czy naśladowcy?
Niedawno słynny lingwista Noam Chomsky i jego współpracownicy argumentowali, że chatboty „utknęły w przedludzkiej lub nieludzkiej fazie ewolucji poznawczej”, ponieważ potrafią jedynie opisywać i przewidywać, a nie wyjaśniać.
Zamiast czerpać z nieskończonej możliwości generowania nowych fraz, rekompensują to ogromną ilością danych wejściowych, co pozwala im przewidywać, których słów użyć z dużą dokładnością.
Jest to zgodne z historycznym uznaniem Chomsky'ego, że ludzki język nie może powstać jedynie poprzez naśladowanie dorosłych mówców przez dzieci.
Ludzkie zdolności językowe musiały być generatywne, ponieważ dzieci nie otrzymują wystarczających danych wejściowych, aby uwzględnić wszystkie wytwarzane przez siebie formy, z których wielu nie mogły wcześniej słyszeć.
Tylko w ten sposób można wyjaśnić, dlaczego ludzie – w przeciwieństwie do innych zwierząt o wyrafinowanych systemach komunikacji – mają teoretycznie nieskończoną zdolność generowania nowych fraz.
Z tym argumentem jest jednak problem. Chociaż ludzie są w nieskończoność zdolni do generowania nowych ciągów językowych, ludzie zwykle tego nie robią.
Ludzie nieustannie przetwarzają fragmenty języka, z którymi się wcześniej zetknęli, i kształtują swoją mowę w sposób, który odpowiada – świadomie lub nieświadomie – na mowę innych, obecnych lub nieobecnych.
Jak ujął to Michaił Bachtin – postać podobna do Chomsky'ego dla antropologów językowych – „sama nasza myśl” wraz z naszym językiem „rodzi się i kształtuje w procesie interakcji i walki z myślą innych”.
Nasze słowa „smakują” kontekstów, w których my i inni zetknęliśmy się z nimi wcześniej, więc nieustannie walczymy o to, by uczynić je naszymi własnymi.
Nawet plagiat nie jest tak prosty, jak się wydaje. Koncepcja kradzieży cudzych słów zakłada, że komunikacja odbywa się zawsze między ludźmi, którzy niezależnie wymyślają własne, oryginalne pomysły i frazy.
Ludzie mogą lubić myśleć o sobie w ten sposób, ale rzeczywistość pokazuje coś innego w prawie każdej interakcji – kiedy papuguję powiedzenie mojego taty do mojej córki.
Również wtedy, gdy prezydent wygłasza przemówienie, które ktoś inny wymyślił, wyrażając poglądy zewnętrznej grupy interesu, lub gdy terapeutka wchodzi w interakcję ze swoim klientem zgodnie z zasadami, których nauczyli ją jej nauczyciele.
W każdej interakcji ramy produkcji – mówienie lub pisanie – oraz odbiór – słuchanie lub czytanie i rozumienie – różnią się pod względem tego, co się mówi, jak to się mówi, kto to mówi i kto jest odpowiedzialny w każdym przypadku.
Co sztuczna inteligencja ujawnia o ludziach
Popularna koncepcja ludzkiego języka postrzega komunikację przede wszystkim jako coś, co ma miejsce między ludźmi, którzy od podstaw wymyślają nowe frazy.
Jednak to założenie załamuje się, gdy Woebot, aplikacja do terapii AI, jest szkolona przez terapeutów do interakcji z ludzkimi klientami, wykorzystując rozmowy z sesji terapeutycznych między ludźmi.
Wszystko się psuje, gdy jeden z moich ulubionych autorów piosenek, Colin Meloy z The Decemberists, mówi ChatGPT, aby napisał teksty i akordy w swoim własnym stylu.
Meloy uznał powstałą piosenkę za „niezwykle przeciętną” i pozbawioną intuicji, ale także niesamowicie w strefie piosenki grudniowców.
Jednak, jak zauważa Meloy, progresje akordów, motywy i rymowanki w piosenkach popowych napisanych przez ludzi również mają tendencję do odzwierciedlania innych piosenek popowych, podobnie jak przemówienia polityków swobodnie czerpią z przeszłych pokoleń polityków i aktywistów, które były już pełne fraz z Biblia.
Piosenki popowe i przemówienia polityczne są szczególnie żywymi ilustracjami bardziej ogólnego zjawiska. Kiedy ktoś mówi lub pisze, ile kosztuje nowo wygenerowane a la Chomsky?
Ile podlega recyklingowi a la Bachtin? Czy jesteśmy po części robotami? Czy roboty są po części ludźmi? Ludzie tacy jak Chomsky, którzy twierdzą, że chatbot różni się od ludzkich mówców, mają rację.
Jednak tacy jak Bachtin, którzy zwracają uwagę, że tak naprawdę nigdy nie kontrolujemy naszych słów – przynajmniej nie tak bardzo, jak sobie wyobrażamy.
W tym sensie ChatGPT zmusza nas do ponownego rozważenia odwiecznego pytania: ile naszego języka jest naprawdę nasze?
Masz jakieś przemyślenia na ten temat? Napisz do nas poniżej w komentarzach lub przenieś dyskusję na naszego Twittera lub Facebooka.
Zalecenia redaktorów:
- Handlowcy ChatGPT AI: za szybko, za wściekle, za ryzykownie?
- Spam generowany przez sztuczną inteligencję może wkrótce zalać Twoją skrzynkę odbiorczą oszustwami
- ChatGPT i sztuczna inteligencja innych języków są tak samo irracjonalne jak my
- Jak chronić nastolatka przed niebezpiecznymi wyzwaniami w mediach społecznościowych
Uwaga edytora: Ten artykuł został napisany przez Brendana H. O'Connera, profesora nadzwyczajnego studiów transgranicznych na Uniwersytecie Stanowym w Arizonie i ponownie opublikowany z The Conversation na licencji Creative Commons. Przeczytaj oryginalny artykuł.