人类和 ChatGPT 反映了共同的语言模式 – 方法如下

已发表: 2023-06-15

ChatGPT 在我的大学里是一个热门话题,那里的教职员工非常关注学术诚信,而管理人员则敦促我们“拥抱”这个“新领域”的好处。

这是我的同事 Punya Mishra 所说的围绕新技术的“厄运-炒作周期”的典型例子。 同样,媒体对人机交互的报道——无论是偏执狂还是乐观的人——往往会强调它的新颖性。

从某种意义上说,它无疑是新的。 与 ChatGPT 的互动感觉前所未有,就像科技记者无法让聊天机器人停止表达对他的爱一样。

然而,在我看来,就我们彼此互动的方式而言,人与机器之间的界限比大多数人愿意承认的更加模糊,而这种模糊性解释了围绕 ChatGPT 的大量讨论。

当我被要求勾选一个框以确认我不是机器人时,我不会多想——当然,我不是机器人。

另一方面,当我的电子邮件客户端建议一个词或短语来完成我的句子时,或者当我的手机猜测我要发短信的下一个词时,我开始怀疑自己。 那是我的意思吗?

如果应用程序没有建议,我会想到吗? 我是机器人吗? 这些大型语言模型已经过大量“自然”人类语言的训练。 这会让机器人成为人类的一部分吗?

人工智能聊天机器人是新事物,但关于语言变化的公开辩论却不是。 作为一名语言人类学家,我发现人类对 ChatGPT 的反应是最有趣的事情。

仔细观察这些反应可以揭示人们与 AI 对话者之间矛盾、不安、仍在发展的关系背后的语言信念。

ChatGPT 等是人类语言的一面镜子。 在语言方面,人类既有高度的原创性,也有非原创性。 聊天机器人反映了这一点,揭示了在与其他人的互动中已经存在的倾向和模式。

创造者还是模仿者?

用户与图形用户界面交互。使用 ChatGPT 聊天机器人
图片:盖蒂图片社

最近,著名语言学家诺姆·乔姆斯基 (Noam Chomsky) 和他的同事认为,聊天机器人“陷入了认知进化的前人类或非人类阶段”,因为它们只能描述和预测,而不能解释。

他们没有利用无限的能力来生成新短语,而是通过大量输入进行补偿,这使他们能够高度准确地预测要使用的单词。

这符合乔姆斯基的历史性认识,即人类语言不能仅仅通过儿童模仿成人说话者来产生。

人类语言能力必须是生成性的,因为儿童没有得到足够的输入来解释他们产生的所有形式,其中许多是他们以前听不到的。

这是解释为什么人类——不像其他拥有复杂交流系统的动物——在理论上具有无限能力来产生新短语的唯一方法。

诺姆·乔姆斯基 (Noam Chomsky) 发展了语言习得的生成理论。

但是,该论点存在问题。 尽管人类有无穷无尽的能力创造新的语言串,但人们通常不会。

人类不断地重复使用他们以前遇到过的语言片段,并以有意识或无意识地对在场或不在场的其他人的讲话做出回应的方式塑造他们的演讲。

正如乔姆斯基式的语言人类学家米哈伊尔·巴赫金 (Mikhail Bakhtin) 所说,“我们的思想本身”连同我们的语言,“是在与他人思想的互动和斗争过程中诞生和塑造的。”

我们的话语“品味”了我们和其他人之前遇到过的语境,因此我们不断努力使它们成为我们自己的。

甚至剽窃也不像看起来那么简单。 窃取他人话语的概念假设交流总是发生在独立提出自己原创想法和短语的人之间。

人们可能喜欢这样看待自己,但现实几乎在每一次互动中都表现出不同——当我重复我父亲对我女儿的一句话时。

此外,当总统发表别人精心设计的演讲,表达外部利益集团的观点时,或者当治疗师根据她的老师教她注意的原则与她的客户互动时。

在任何给定的互动中,产生的框架——说或写——和接受的框架——听或读和理解——在每一种情况下,在说什么、怎么说、谁说和谁负责方面各不相同。

人工智能揭示了关于人类的什么

被马若雷勒蓝灯照亮的夜晚城市景观创造出令人惊叹的艺术作品。
图片:佐治亚理工学院专业教育

人类语言的流行概念将交流主要视为发生在从头开始发明新短语的人们之间的事情。

然而,当 AI 治疗应用程序 Woebot 被人类治疗师训练为使用人与人治疗会话中的对话与人类客户互动时,这种假设就被打破了。

当我最喜欢的词曲作者之一,十二月主义者的科林梅洛伊告诉 ChatGPT 以他自己的风格写歌词和和弦时,它就崩溃了。

旋律发现由此产生的歌曲“非常平庸”并且缺乏直觉,但也不可思议地处于十二月派歌曲的区域。

然而,正如 Meloy 指出的那样,人类创作的流行歌曲中的和弦进行、主题和押韵也倾向于反映其他流行歌曲,就像政治家的演讲自由地借鉴了过去几代政治家和活动家的言论一样,这些言论已经充满了来自圣经。

流行歌曲和政治演讲尤其生动地说明了一种更普遍的现象。 当任何人说话或写作时,有多少是新产生的乔姆斯基?

巴赫金回收了多少? 我们是机器人吗? 机器人是人的一部分吗? 像乔姆斯基这样的人说聊天机器人与人类说话者不同,这是对的。

然而,像巴赫金这样的人也指出,我们永远无法真正控制自己的话语——至少,不像我们想象的那样控制自己。

从这个意义上说,ChatGPT 迫使我们重新思考一个古老的问题:我们的语言有多少是真正属于我们自己的?

对此有什么想法吗? 在评论下方给我们留言,或在我们的 Twitter 或 Facebook 上进行讨论。

编辑推荐:

  • ChatGPT 人工智能交易员:太快、太猛烈、太冒险?
  • 人工智能生成的垃圾邮件可能很快就会让你的收件箱充满诈骗
  • ChatGPT 和其他语言的 AI 与我们一样不合理
  • 如何让您的青少年免受危险的社交媒体挑战

编者注:本文由亚利桑那州立大学跨界研究副教授 Brendan H. O'Conner 撰写,并根据知识共享许可从 The Conversation 重新发布。 阅读原文。

在 Flipboard、Google 新闻或 Apple 新闻上关注我们