人類和 ChatGPT 反映了共同的語言模式 – 方法如下

已發表: 2023-06-15

ChatGPT 在我的大學裡是一個熱門話題,那裡的教職員工非常關注學術誠信,而管理人員則敦促我們“擁抱”這個“新領域”的好處。

這是我的同事 Punya Mishra 所說的圍繞新技術的“厄運-炒作週期”的典型例子。 同樣,媒體對人機交互的報導——無論是偏執狂還是樂觀的人——往往會強調它的新穎性。

從某種意義上說,它無疑是新的。 與 ChatGPT 的互動感覺前所未有,就像科技記者無法讓聊天機器人停止表達對他的愛一樣。

然而,在我看來,就我們彼此互動的方式而言,人與機器之間的界限比大多數人願意承認的更加模糊,而這種模糊性解釋了圍繞 ChatGPT 的大量討論。

當我被要求勾選一個框以確認我不是機器人時,我不會多想——當然,我不是機器人。

另一方面,當我的電子郵件客戶端建議一個詞或短語來完成我的句子時,或者當我的手機猜測我要發短信的下一個詞時,我開始懷疑自己。 那是我的意思嗎?

如果應用程序沒有建議,我會想到嗎? 我是機器人嗎? 這些大型語言模型已經過大量“自然”人類語言的訓練。 這會讓機器人成為人類的一部分嗎?

人工智能聊天機器人是新事物,但關於語言變化的公開辯論卻不是。 作為一名語言人類學家,我發現人類對 ChatGPT 的反應是最有趣的事情。

仔細觀察這些反應可以揭示人們與 AI 對話者之間矛盾、不安、仍在發展的關係背後的語言信念。

ChatGPT 等是人類語言的一面鏡子。 在語言方面,人類既有高度的原創性,也有非原創性。 聊天機器人反映了這一點,揭示了在與其他人的互動中已經存在的傾向和模式。

創造者還是模仿者?

用戶與圖形用戶界面交互。使用 ChatGPT 聊天機器人
圖片:蓋蒂圖片社

最近,著名語言學家諾姆·喬姆斯基 (Noam Chomsky) 和他的同事認為,聊天機器人“陷入了認知進化的前人類或非人類階段”,因為它們只能描述和預測,而不能解釋。

他們沒有利用無限的能力來生成新短語,而是通過大量輸入進行補償,這使他們能夠高度準確地預測要使用的單詞。

這符合喬姆斯基的歷史性認識,即人類語言不能僅僅通過兒童模仿成人說話者來產生。

人類語言能力必須是生成性的,因為兒童沒有得到足夠的輸入來解釋他們產生的所有形式,其中許多是他們以前聽不到的。

這是解釋為什麼人類——不像其他擁有復雜交流系統的動物——在理論上具有無限能力來產生新短語的唯一方法。

諾姆·喬姆斯基 (Noam Chomsky) 發展了語言習得的生成理論。

但是,該論點存在問題。 儘管人類有無窮無盡的能力創造新的語言串,但人們通常不會。

人類不斷地重複使用他們以前遇到過的語言片段,並以有意識或無意識地對在場或不在場的其他人的講話做出回應的方式塑造他們的演講。

正如喬姆斯基式的語言人類學家米哈伊爾·巴赫金 (Mikhail Bakhtin) 所說,“我們的思想本身”連同我們的語言,“是在與他人思想的互動和鬥爭過程中誕生和塑造的。”

我們的話語“品味”了我們和其他人之前遇到過的語境,因此我們不斷努力使它們成為我們自己的。

甚至剽竊也不像看起來那麼簡單。 竊取他人話語的概念假設交流總是發生在獨立提出自己原創想法和短語的人之間。

人們可能喜歡這樣看待自己,但現實幾乎在每一次互動中都表現出不同——當我重複我父親對我女兒的一句話時。

此外,當總統發表別人精心設計的演講,表達外部利益集團的觀點時,或者當治療師根據她的老師教她注意的原則與她的客戶互動時。

在任何給定的互動中,產生的框架——說或寫——和接受的框架——聽或讀和理解——在每一種情況下,在說什麼、怎麼說、誰說和誰負責方面各不相同。

人工智能揭示了關於人類的什麼

被馬若雷勒藍燈照亮的夜晚城市景觀創造出令人驚嘆的藝術作品。
圖片:佐治亞理工學院專業教育

人類語言的流行概念將交流主要視為發生在從頭開始發明新短語的人們之間的事情。

然而,當 AI 治療應用程序 Woebot 被人類治療師訓練為使用人與人治療會話中的對話與人類客戶互動時,這種假設就被打破了。

當我最喜歡的詞曲作者之一,十二月主義者的科林梅洛伊告訴 ChatGPT 以他自己的風格寫歌詞和和弦時,它就崩潰了。

旋律發現由此產生的歌曲“非常平庸”並且缺乏直覺,但也不可思議地處於十二月派歌曲的區域。

然而,正如 Meloy 指出的那樣,人類創作的流行歌曲中的和弦進行、主題和押韻也傾向於反映其他流行歌曲,就像政治家的演講自由地借鑒了過去幾代政治家和活動家的言論一樣,這些言論已經充滿了來自聖經。

流行歌曲和政治演講尤其生動地說明了一種更普遍的現象。 當任何人說話或寫作時,有多少是新產生的喬姆斯基?

巴赫金回收了多少? 我們是機器人嗎? 機器人是人的一部分嗎? 像喬姆斯基這樣的人說聊天機器人與人類說話者不同,這是對的。

然而,像巴赫金這樣的人也指出,我們永遠無法真正控制自己的話語——至少,不像我們想像的那樣控制自己。

從這個意義上說,ChatGPT 迫使我們重新思考一個古老的問題:我們的語言有多少是真正屬於我們自己的?

對此有什麼想法嗎? 在評論下方給我們留言,或在我們的 Twitter 或 Facebook 上進行討論。

編輯推薦:

  • ChatGPT 人工智能交易員:太快、太猛烈、太冒險?
  • 人工智能生成的垃圾郵件可能很快就會讓你的收件箱充滿詐騙
  • ChatGPT 和其他語言的 AI 與我們一樣不合理
  • 如何讓您的青少年免受危險的社交媒體挑戰

編者註:本文由亞利桑那州立大學跨界研究副教授 Brendan H. O'Conner 撰寫,並根據知識共享許可從 The Conversation 重新發布。 閱讀原文。

在 Flipboard、Google 新聞或 Apple 新聞上關注我們