ChatGPT 是聊天的未來,前提是您要正確使用它

已發表: 2023-02-06

編者註:本文由南加州大學計算機科學研究副教授 Jonathan May 撰寫,並根據 Creative Commons 許可從 The Conversation 重新發布。 閱讀原文。

讓 ChatGPT 犯事實錯誤並不需要太多。 我兒子正在做一份關於美國總統的報告,所以我想我可以通過查閱一些傳記來幫助他。

我試著要一份關於亞伯拉罕林肯的書籍清單,結果做得很好:

文字截屏
關於林肯的合理書籍清單。 Jonathan May., CC BY-ND 的屏幕截圖

4號不對。 加里·威爾斯 (Garry Wills) 寫下了著名的《林肯在葛底斯堡》(Lincoln at Gettysburg),當然,林肯本人也撰寫了《解放黑奴宣言》(Emancipation Proclamation),但這並不是一個糟糕的開始。

然後我更努力地嘗試了一些事情,而不是詢問更晦澀難懂的威廉亨利哈里森,它勇敢地提供了一個列表,幾乎所有的都是錯誤的。

文字截屏
關於哈里森的書,只有不到一半是正確的。 Jonathan May., CC BY-ND 的屏幕截圖

數字 4 和 5 是正確的; 其餘的不存在或不是由這些人創作的。 我重複了完全相同的練習,結果略有不同:

文字截屏
更多關於哈里森的書,大部分仍然不存在。 Jonathan May., CC BY-ND 的屏幕截圖

這次數字 2 和 3 是正確的,其他三個不是真正的書或不是那些作者寫的。

第 4 號,“William Henry Harrison: His Life and Times”是一本真實的書,但它是由詹姆斯 A. 格林 (James A. Green) 所著,而不是傑克遜時代著名的歷史學家羅伯特·雷米尼 (Robert Remini) 所著。

我指出了錯誤,ChatGPT 急切地自我糾正,然後自信地告訴我這本書實際上是蓋爾柯林斯寫的(她寫了一本不同的哈里森傳記),然後繼續說更多關於這本書和她的事。

我終於揭露了真相,機器很高興在我的糾正下運行。 然後我荒謬地撒謊,說在他們上任的頭一百天裡,總統必須寫一本前任總統的傳記,而 ChatGPT 就此事叫我出去了。

然後我巧妙地撒謊,錯誤地將哈里森傳記的作者身份歸於歷史學家和作家保羅·C·內格爾,這讓我撒了謊。

當我問 ChatGPT 是否確定我沒有說謊時,它聲稱它只是一個“AI 語言模型”,沒有驗證準確性的能力。

然而,它修改了這一說法,說“我只能根據我所提供的訓練數據提供信息,看來‘威廉·亨利·哈里森:他的生活和時代’這本書是由保羅·C·內格爾 (Paul C. Nagel) 撰寫並於 1977 年出版的”

這不是真的。

文字,而非事實

chatgpt 與穀歌搜索
圖片:KnowTechie

從這種互動來看,ChatGPT 似乎獲得了一個事實庫,包括關於作者和書籍的不正確聲明。

畢竟,ChatGPT 的製造商 OpenAI 聲稱它在“人類編寫的來自互聯網的大量數據”上訓練了聊天機器人。

然而,幾乎可以肯定的是,它沒有給出一堆關於最平庸的總統之一的虛構書籍的名字。 不過,在某種程度上,這種虛假信息確實是基於其訓練數據。

作為一名計算機科學家,我經常收到投訴,這些投訴揭示了對大型語言模型(如 ChatGPT 及其老兄弟 GPT3 和 GPT2)的常見誤解:它們是某種“超級谷歌”或參考圖書館員的數字版本,查找答案從一些無限大的事實庫中提出問題,或者將故事和人物的拼湊在一起。

他們不會做任何這些——至少,他們沒有被明確設計為這樣做。

聽起來不錯

像 ChatGPT 這樣的語言模型,更正式地稱為“生成式預訓練轉換器”(這就是 G、P 和 T 的含義),接受當前對話,形成其詞彙表中所有單詞的概率,因為對話,然後選擇其中一個作為可能的下一個詞。

然後它一次又一次地這樣做,直到它停止。

所以它本身沒有事實。 它只知道接下來應該出現什麼詞。 換句話說,ChatGPT 不會嘗試寫出真實的句子。 但它確實試圖寫出似是而非的句子。

在與同事私下談論 ChatGPT 時,他們經常指出它產生了多少事實上不真實的陳述並駁回了它。

對我來說,ChatGPT 是一個有缺陷的數據檢索系統的想法是離題的。

畢竟,在過去的兩年半時間裡,人們一直在使用谷歌。 已經有一個非常好的事實調查服務。

事實上,我能夠驗證所有這些總統書籍標題是否準確的唯一方法是通過谷歌搜索然後驗證結果。

如果我在談話中了解這些事實,我的生活也不會好多少,而不是像我用了將近半輩子的方式了解它們一樣,通過檢索文件然後進行批判性分析以查看我是否可以信任其中的內容。

即興搭檔

另一方面,如果我可以和一個機器人交談,它會給我對我所說的話的合理回應,那麼在事實準確性不是那麼重要的情況下它會很有用。

幾年前,我和一個學生試圖創建一個“即興機器人”,它會用“是的,並且”來回應你說的任何話,以保持對話的進行。

我們在一篇論文中表明,我們的機器人比當時的其他機器人更擅長“是,然後-ing”,但在 AI 中,兩年是古老的歷史。

我嘗試了與 ChatGPT 的對話——一個科幻太空探索者場景——這與你在典型的即興課程中發現的沒什麼不同。

ChatGPT 在“是,然後-ing”方面比我們做的要好得多,但它並沒有真正提高戲劇性。 我覺得自己好像在做所有繁重的工作。

經過一些調整後,我讓它變得更加投入,在一天結束時,我覺得這對我來說是一個很好的鍛煉,自從我 20 多年前大學畢業以來,我就沒有做過太多即興表演。

文字截屏
作者使用 ChatGPT 生成的太空探索即興場景。 Jonathan May., CC BY-ND 的屏幕截圖

當然,我不希望 ChatGPT 出現在“到底是誰的線路?”中。 這不是一個偉大的“星際迷航”情節(儘管它仍然比“榮譽守則”問題少)。

但是有多少次你坐下來從頭開始寫東西,卻發現自己被面前的空白頁嚇壞了?

從糟糕的初稿開始可以突破作家的障礙並讓創意源源不斷,而 ChatGPT 和類似的大型語言模型似乎是幫助這些練習的正確工具。

對於一台旨在根據您輸入的單詞生成聽起來盡可能好聽的單詞串的機器——而不是為您提供信息——這似乎是該工具的正確用途。

編者註:本文由南加州大學計算機科學研究副教授 Jonathan May 撰寫,並根據 Creative Commons 許可從 The Conversation 重新發布。 閱讀原文。

對此有什麼想法嗎? 在評論下方給我們留言,或將討論轉移到我們的 Twitter 或 Facebook。

編輯推薦:

  • 無人機送貨正在成為現實——我們準備好了嗎?
  • 從不同國家下載的應用程序存在更高的隱私風險
  • 研究人員揭示了他們是如何檢測深度偽造音頻的——方法如下
  • 家用機器人僕人還有很長的路要走-這就是原因