ChatGPT는 제대로 사용하는 경우에만 채팅의 미래입니다.
게시 됨: 2023-02-06편집자 주: 이 기사는 서던 캘리포니아 대학교 컴퓨터 과학 부교수인 Jonathan May가 작성했으며 Creative Commons 라이선스에 따라 The Conversation에서 다시 게시되었습니다. 원본 기사를 읽으십시오.
ChatGPT가 사실에 입각한 실수를 하는 데는 그리 많은 시간이 걸리지 않습니다. 제 아들이 미국 대통령에 대한 보고서를 작성하고 있어서 전기 몇 개를 찾아 그를 도와야겠다고 생각했습니다.
에이브러햄 링컨에 관한 책 목록을 물어보았는데 아주 훌륭했습니다.
4번은 옳지 않습니다. Garry Wills는 "Lincoln at Gettysburg"를 저술한 것으로 유명하며 Lincoln 자신도 물론 노예해방 선언문을 작성했지만 나쁜 시작은 아닙니다.
그런 다음 더 어려운 것을 시도하여 대신 훨씬 더 모호한 William Henry Harrison에 대해 물었고 거의 모든 것이 잘못된 목록을 제공했습니다.
숫자 4와 5가 맞습니다. 나머지는 존재하지 않거나 해당 사람들이 작성하지 않았습니다. 나는 정확히 같은 연습을 반복했고 약간 다른 결과를 얻었습니다.
이번에는 숫자 2와 3이 맞고 나머지 세 개는 실제 책이 아니거나 해당 저자가 쓴 것이 아닙니다.
4번 "William Henry Harrison: His Life and Times"는 실제 책이지만 Jacksonian 시대의 유명한 역사가인 Robert Remini가 아니라 James A. Green이 저술한 것입니다.
나는 오류를 지적했고 ChatGPT는 열심히 스스로 수정한 다음 책이 사실 게일 콜린스(해리슨의 다른 전기를 쓴 사람)가 쓴 책이라고 자신 있게 말한 다음 계속해서 책과 그녀에 대해 더 많이 말했습니다.
나는 마침내 진실을 밝혔고 기계는 내 수정으로 기뻐했습니다. 그런 다음 대통령이 처음 100일 동안 어떤 전직 대통령의 전기를 써야 한다고 터무니없는 거짓말을 했고 ChatGPT가 저를 불렀습니다.
그런 다음 나는 미묘하게 거짓말을 하여 해리슨 전기의 저자가 역사가이자 작가인 Paul C. Nagel에게 있다고 잘못 돌렸고, 그것은 내 거짓말을 샀습니다.
ChatGPT에 제가 거짓말을 하고 있는 것이 확실한지 물었을 때 그것은 단지 "AI 언어 모델"일 뿐이며 정확성을 검증할 수 있는 능력이 없다고 주장했습니다.
그러나 그것은 "나는 내가 제공받은 훈련 데이터에 기초한 정보만 제공할 수 있으며, 'William Henry Harrison: His Life and Times'라는 책은 Paul C. Nagel이 작성하고 1977년에 출판된 것으로 보인다"고 말함으로써 그 주장을 수정했습니다. .”
이것은 사실이 아닙니다.
사실이 아닌 말
이 상호 작용에서 ChatGPT에 저자 및 책에 대한 잘못된 주장을 포함하여 사실 라이브러리가 제공된 것으로 보일 수 있습니다.
결국 ChatGPT의 제작자인 OpenAI는 "인간이 작성한 방대한 양의 인터넷 데이터"에 대해 챗봇을 훈련시켰다고 주장합니다.
그러나 가장 평범한 대통령 중 한 명에 대한 많은 구성 책의 이름이 거의 확실하게 제공되지 않았습니다. 그러나 어떤 면에서 이 잘못된 정보는 실제로 훈련 데이터를 기반으로 합니다.
컴퓨터 과학자로서 나는 종종 ChatGPT와 그 이전 형제인 GPT3 및 GPT2와 같은 대규모 언어 모델에 대한 일반적인 오해를 드러내는 불만을 접수합니다. 무한히 큰 사실 라이브러리의 질문에 답하거나 이야기와 등장 인물의 파스 티치를 함께 뭉칩니다.
그들은 그런 일을 하지 않습니다. 적어도 명시적으로 그렇게 하도록 설계되지는 않았습니다.
좋은 것 같다
ChatGPT와 같은 언어 모델은 공식적으로 "사전 훈련된 생성 변환기"(G, P 및 T가 의미하는 것임)로 알려져 있으며 현재 대화에서 다음과 같이 주어진 어휘의 모든 단어에 대한 확률을 형성합니다. 대화 중 하나를 가능성 있는 다음 단어로 선택합니다.
그런 다음 멈출 때까지 반복해서 반복합니다.
따라서 사실 자체가 없습니다. 다음에 어떤 단어가 와야 하는지 알 뿐입니다. 다시 말해, ChatGPT는 사실인 문장을 쓰려고 하지 않습니다. 그러나 그것은 그럴듯한 문장을 쓰려고 노력합니다.
ChatGPT에 대해 동료들과 개인적으로 이야기할 때, ChatGPT가 생성하는 사실과 다른 진술이 얼마나 많은지 지적하고 무시하는 경우가 많습니다.
나에게 ChatGPT가 결함이 있는 데이터 검색 시스템이라는 생각은 요점을 벗어났습니다.
결국 사람들은 지난 25년 동안 Google을 사용해 왔습니다. 이미 꽤 좋은 사실 찾기 서비스가 있습니다.
사실 그 모든 대통령 책 제목이 정확한지 확인할 수 있었던 유일한 방법은 인터넷 검색을 한 다음 결과를 확인하는 것뿐이었습니다.
내 인생의 거의 절반 동안 문서를 검색한 다음 내용을 신뢰할 수 있는지 비판적 분석을 수행하여 이러한 사실을 얻는 방식 대신 대화를 통해 이러한 사실을 얻는다면 내 인생은 그다지 나아지지 않을 것입니다.
개선 파트너
반면에 내가 말하는 것에 대해 그럴듯한 응답을 제공하는 봇과 대화할 수 있다면 사실적 정확성이 그다지 중요하지 않은 상황에서 유용할 것입니다.
몇 년 전에 한 학생과 저는 대화를 계속하기 위해 "예"라고 말하는 모든 것에 응답하는 "개선 봇"을 만들려고 했습니다.
우리는 논문에서 우리 봇이 당시 다른 봇보다 "예, 하고 ing"하는 것이 더 낫다는 것을 보여주었지만, AI에서는 2년이 고대사입니다.
공상 과학 우주 탐험 시나리오인 ChatGPT로 일반적인 즉석 수업에서 볼 수 있는 것과 다르지 않은 대화를 시도했습니다.
ChatGPT는 우리가 했던 것보다 "예, 그리고-ing"을 훨씬 더 잘하지만 드라마를 전혀 고조시키지는 못했습니다. 나는 모든 무거운 짐을 지고 있는 것처럼 느꼈다.
약간의 수정을 거친 후 조금 더 참여하게 되었고, 결국 20년 전에 대학을 졸업한 이후로 즉흥 연주를 많이 하지 않은 나에게 꽤 좋은 운동이라고 느꼈습니다.
물론, ChatGPT가 "어쨌든 누구의 라인인가요?"에 표시되는 것을 원하지 않습니다. 그리고 이것은 훌륭한 "Star Trek" 플롯이 아닙니다(비록 "Code of Honor"보다 문제가 덜하긴 하지만).
그러나 몇 번이나 처음부터 무언가를 쓰기 위해 앉았고 당신 앞에 있는 빈 페이지에 겁을 먹은 적이 있습니까?
나쁜 첫 번째 초안으로 시작하면 작가의 장애물을 뚫고 창의적인 주스가 흐르게 할 수 있으며 ChatGPT 및 이와 같은 대규모 언어 모델은 이러한 연습을 지원하는 데 적합한 도구인 것 같습니다.
그리고 정보를 제공하지 않고 사용자가 제공하는 단어에 응답하여 가능한 한 좋은 소리를 내는 일련의 단어를 생성하도록 설계된 기계의 경우 도구를 올바르게 사용하는 것 같습니다.
편집자 주: 이 기사는 서던 캘리포니아 대학교 컴퓨터 과학 부교수인 Jonathan May가 작성했으며 Creative Commons 라이선스에 따라 The Conversation에서 다시 게시되었습니다. 원본 기사를 읽으십시오.
이것에 대해 생각이 있습니까? 댓글 아래에 한 줄을 남기거나 Twitter 또는 Facebook으로 토론을 진행하십시오.
편집자 추천:
- 드론 배송이 현실화되고 있습니다. 준비가 되셨습니까?
- 다른 국가에서 다운로드한 앱은 개인 정보 위험이 더 높습니다.
- 연구원들은 딥페이크 오디오를 감지하는 방법을 밝힙니다. 방법은 다음과 같습니다.
- 가정용 로봇 하인은 아직 멀었습니다. 그 이유는 다음과 같습니다.