ChatGPT este viitorul chat-ului, doar dacă îl folosești corect

Publicat: 2023-02-06

Nota editorului: Acest articol a fost scris de Jonathan May, profesor asociat de cercetare de informatică, Universitatea din California de Sud și republicat din The Conversation sub o licență Creative Commons. Citiți articolul original.

Nu este nevoie de mult pentru ca ChatGPT să facă o greșeală reală. Fiul meu face un raport despre președinții SUA, așa că m-am gândit că l-aș ajuta căutând câteva biografii.

Am încercat să cer o listă de cărți despre Abraham Lincoln și a făcut o treabă destul de bună:

captura de ecran a textului
O listă rezonabilă de cărți despre Lincoln. Captură de ecran de Jonathan May., CC BY-ND

Numarul 4 nu este corect. Garry Wills a scris celebrul „Lincoln la Gettysburg”, iar Lincoln însuși a scris Proclamația de emancipare, desigur, dar nu este un început rău.

Apoi am încercat ceva mai greu, întrebând în schimb despre William Henry Harrison, mult mai obscur, și mi-a oferit o listă, aproape toate greșite.

captura de ecran a textului
Cărți despre Harrison, dintre care mai puțin de jumătate sunt corecte. Captură de ecran de Jonathan May., CC BY-ND

Numerele 4 și 5 sunt corecte; restul nu există sau nu sunt scrise de acei oameni. Am repetat exact același exercițiu și am obținut rezultate ușor diferite:

captura de ecran a textului
Mai multe cărți despre Harrison, în mare parte inexistente. Captură de ecran de Jonathan May., CC BY-ND

De data aceasta numerele 2 și 3 sunt corecte, iar celelalte trei nu sunt cărți reale sau nu sunt scrise de autorii respectivi.

Numărul 4, „William Henry Harrison: His Life and Times”, este o carte adevărată, dar este a lui James A. Green, nu a lui Robert Remini, un cunoscut istoric al epocii jacksoniane.

Am semnalat eroarea, iar ChatGPT s-a corectat cu nerăbdare și apoi mi-a spus cu încredere că cartea a fost, de fapt, scrisă de Gail Collins (care a scris o altă biografie Harrison), apoi a continuat să spună mai multe despre carte și despre ea.

Am dezvăluit în cele din urmă adevărul, iar aparatul a fost fericit să ruleze cu corectarea mea. Apoi am mințit absurd, spunând că în primele sute de zile președinții trebuie să scrie o biografie a unui fost președinte, iar ChatGPT m-a chemat pentru asta.

Apoi am mințit subtil, atribuind incorect autoritatea biografiei Harrison istoricului și scriitorului Paul C. Nagel și mi-a cumpărat minciuna.

Când am întrebat ChatGPT dacă este sigur că nu mint, a susținut că este doar un „model de limbaj AI” și nu are capacitatea de a verifica acuratețea.

Cu toate acestea, a modificat această afirmație spunând „Pot furniza informații doar pe baza datelor de formare care mi-au fost furnizate și se pare că cartea „William Henry Harrison: His Life and Times” a fost scrisă de Paul C. Nagel și publicată în 1977. .”

Nu este adevarat.

Cuvinte, nu fapte

chatgpt vs căutare google
Imagine: KnowTechie

Din această interacțiune poate părea că ChatGPT a primit o bibliotecă de fapte, inclusiv afirmații incorecte despre autori și cărți.

La urma urmei, producătorul ChatGPT, OpenAI, susține că a instruit chatbot-ul pe „cantități mari de date de pe internet scrise de oameni”.

Cu toate acestea, aproape sigur că nu i s-au dat numele unei grămadă de cărți inventate despre unul dintre cei mai mediocri președinți. Într-un fel, totuși, aceste informații false se bazează într-adevăr pe datele sale de antrenament.

Ca informatician, deseori lansez plângeri care dezvăluie o concepție greșită comună despre modelele de limbaj mari precum ChatGPT și frații săi mai vechi GPT3 și GPT2: că sunt un fel de „super Google” sau versiuni digitale ale unui bibliotecar de referință, care caută răspunsuri. la întrebări dintr-o bibliotecă infinit de mare de fapte sau la unirea pastișelor de povești și personaje.

Ei nu fac nimic din toate astea – cel puțin, nu au fost concepute în mod explicit pentru asta.

Sună bine

Un model de limbaj precum ChatGPT, care este mai formal cunoscut sub numele de „transformator generativ preantrenat” (asta reprezintă G, P și T), preia în conversația curentă, formează o probabilitate pentru toate cuvintele din vocabularul său, având în vedere că conversație și apoi alege unul dintre ei ca următorul cuvânt probabil.

Apoi face asta din nou, și din nou, și din nou, până când se oprește.

Deci nu are fapte, în sine. Știe doar ce cuvânt ar trebui să urmeze. Cu alte cuvinte, ChatGPT nu încearcă să scrie propoziții adevărate. Dar încearcă să scrie propoziții care sunt plauzibile.

Când vorbesc în privat cu colegii despre ChatGPT, ei subliniază adesea câte declarații false produce și le resping.

Pentru mine, ideea că ChatGPT este un sistem de recuperare a datelor defectuos nu are rost.

La urma urmei, oamenii folosesc Google în ultimele două decenii și jumătate. Există deja un serviciu de informare destul de bun.

De fapt, singura modalitate prin care am putut verifica dacă toate acele titluri ale cărților prezidențiale erau corecte a fost să caut pe Google și apoi să verific rezultatele.

Viața mea nu ar fi cu mult mai bună dacă aș înțelege acele fapte în conversație, în loc de modul în care le-am obținut aproape jumătate din viață, prin preluarea documentelor și apoi făcând o analiză critică pentru a vedea dacă pot avea încredere în conținut.

Partener de improvizație

Pe de altă parte, dacă pot vorbi cu un bot care îmi va oferi răspunsuri plauzibile la lucrurile pe care le spun, ar fi util în situațiile în care acuratețea faptelor nu este atât de importantă.

Cu câțiva ani în urmă, un student și cu mine am încercat să creăm un „bot de improvizație”, unul care să răspundă la orice ai spus cu un „da” și pentru a menține conversația.

Am arătat, într-o lucrare, că botul nostru era mai bun la „da, și-ing” decât alți roboți la acea vreme, dar în inteligență artificială, doi ani sunt istorie străveche.

Am încercat un dialog cu ChatGPT – un scenariu de explorator spațial științifico-fantastic – care nu este diferit de ceea ce ai găsi într-o clasă tipică de improvizație.

ChatGPT este mult mai bun la „da, și-ing” decât ceea ce am făcut noi, dar nu a sporit deloc drama. M-am simțit ca și cum aș face toate sarcinile grele.

După câteva ajustări am ajuns să se implice puțin mai mult, iar la sfârșitul zilei am simțit că a fost un exercițiu destul de bun pentru mine, care nu am făcut prea multe improvizații de când am absolvit facultatea în urmă cu peste 20 de ani.

captura de ecran a textului
O scenă de improvizație de explorare spațială generată de autor cu ChatGPT. Captură de ecran de Jonathan May., CC BY-ND

Sigur, nu aș vrea ca ChatGPT să apară în „Whose Line Is It Oricum?” și acesta nu este un complot grozav „Star Trek” (deși este încă mai puțin problematic decât „Codul de onoare”).

Dar de câte ori te-ai așezat să scrii ceva de la zero și te-ai trezit îngrozit de pagina goală din fața ta?

Începerea cu o primă schiță proastă poate depăși blocajul scriitorului și poate face să curgă sucul creativ, iar ChatGPT și modelele de limbă mari par a fi instrumentele potrivite pentru a ajuta aceste exerciții.

Și pentru o mașină care este concepută pentru a produce șiruri de cuvinte care sună cât mai bine posibil ca răspuns la cuvintele pe care i le dați – și nu pentru a vă oferi informații – aceasta pare a fi utilizarea potrivită pentru instrument.

Nota editorului: Acest articol a fost scris de Jonathan May, profesor asociat de cercetare de informatică, Universitatea din California de Sud și republicat din The Conversation sub o licență Creative Commons. Citiți articolul original.

Ai vreo părere despre asta? Trimiteți-ne un rând mai jos în comentarii sau transmiteți discuția pe Twitter sau Facebook.

Recomandările editorilor:

  • Livrările cu drone devin o realitate – suntem pregătiți pentru asta?
  • Aplicațiile descărcate din diferite țări prezintă riscuri mai mari de confidențialitate
  • Cercetătorii dezvăluie cum detectează sunetul deepfake – iată cum
  • Servitorii roboți de uz casnic sunt încă departe – iată de ce