如何检测 ChatGPT 和 AI 抄袭
已发表: 2023-06-22ChatGPT 能够在几秒钟内生成有关地球上几乎任何主题的连贯且写得好的副本,从而彻底颠覆了学术界和商业界。
它的非凡能力让所有教育水平的学生都转向聊天机器人以及它的竞争对手,如巴德,来撰写复杂的论文,否则这些论文需要几个小时才能完成。
这引发了一场关于一种新现象的全球对话,这种现象通常被称为“ChatGPT 抄袭”。 本指南涵盖了企业和教育机构用于检测 ChatGPT 抄袭的工具、使用 ChatGPT 作弊的危险 - 以及使用 ChatGPT 是否算作抄袭。
- 如何检测 ChatGPT 抄袭
- 最受欢迎的 AI 和 ChatGPT 抄袭检查器
- 人工智能内容检查器真的有用吗?
- 使用 ChatGPT 或 Bard 实际上是抄袭吗?
- ChatGPT 作弊的危险
- ChatGPT 抄袭吗?
- 巴德抄袭吗?
- 其他人工智能工具是否存在抄袭行为?
- 我应该在论文或工作中使用 ChatGPT 吗?
最受欢迎的 AI 和 ChatGPT 抄袭检查工具评测
自 ChatGPT 于 2022 年 11 月推出以来,许多公司和教育机构都制作了 AI 内容检查器,声称能够区分人工生成的内容和人类创建的内容。 现在,很多公司也在使用谷歌的聊天机器人 Bard,它使用不同的语言模型。
然而,即使是最有信誉的人工智能内容检测工具所声称的准确性也存在激烈争议,并且学生之间被错误指控使用人工智能内容和教育的法庭案件已经成为现实。
底线是:这个领域没有任何工具是 100% 准确的,但有些工具比其他工具要好得多。
GPT零
GPTZero 是一款流行的免费 AI 内容检测工具,声称它是“跨用例最准确的 AI 检测器,经过多个独立来源验证”。
然而,早在四月份,加州大学戴维斯分校的一名历史系学生就证明,GPTZero——他的教授使用的人工智能内容检测工具——将他的论文标记为人工智能生成是不正确的。
我们通过要求 ChatGPT 写一个短篇故事来测试 GPTZero。 不幸的是,GPTZero 无法判断该内容是由人工智能工具编写的:
创意.ai
Originality.ai 无疑是目前可用的更准确的人工智能内容检测工具之一。
该公司于今年 4 月对人工智能内容检测工具进行了自己的研究,其中将 600 个人工生成的文本块和 600 个人工生成的文本块输入到自己的内容检测系统中,以及其他声称具有类似功能的流行工具。
从下面的结果中可以看出,Originality.ai 的表现优于测试中包含的所有工具:
Originality.ai 的唯一缺点是没有免费计划,您甚至无法像本文中包含的其他应用程序那样免费测试它。 2,000 个学分的费用为 20 美元,可以让你检查 200,000 个单词。
Copyleaks AI 内容检测器
Copyleaks 是一款免费使用的人工智能内容检测器,声称能够以 99.12% 的准确率区分人类生成的副本和人工智能生成的副本。
Copyleaks 还会告诉您文档或段落的特定方面是否由人工智能编写,即使其其他部分似乎是由人类编写的。
Copyleaks 表示,它能够检测由“ChatGPT、GPT-4、GPT-3、Jasper 等”创建的人工智能生成的内容,甚至声称“一旦更新的模型出现,我们将能够自动检测它。”
CopyLeaks 每月 8.33 美元,可获得 1,200 个积分(每个积分 250 个字的副本)。
然而,在 TechCrunch 于 2023 年 2 月进行的测试中,Copyleaks 错误地将各种不同类型的人工智能生成的副本(包括新闻文章、百科全书条目和求职信)归类为人类生成的副本。
此外,上述 Originality.ai 的研究仅发现其在 14.50% 的情况下是准确的,这与 CopyLeaks 声称的 99.12% 的准确率相去甚远。
然而,当我们测试它时,它似乎能够识别出我们输入的文本是由 ChatGPT 生成的:
Turnitin 人工智能检测器
Turnitin 是一家总部位于美国的抄袭检测公司,许多大学都部署该公司来扫描学生的作业。 Turnitin 旨在检测各种抄袭行为,但在 4 月份透露,它已经投资一个专注于人工智能的团队一段时间了。
Turnitin 表示,它“可以在我们受控的实验室环境中以 98% 的置信度检测人工智能书写的存在,误报率低于 1%”。
然而,该公司还表示,如果内容将一段内容标记为人工智能生成,则应将其视为“指示,而不是指控”。 Turnitin 人工智能探测器的真实准确性受到《华盛顿邮报》和其他消息来源的质疑。
Turnitin 的 AI 内容检测软件目前是免费的,但该公司在其网站上的常见问题解答中表示,他们将于 2024 年 1 月转向付费许可计划,但未具体说明其价格。
OpenAI 文本分类器
OpenAI 不愿被第三方人工智能内容检查器打败,他们自己发布了一款软件,旨在对内容是否由人工智能生成进行分类。
您输入的文档或文本的长度必须超过 1000 个字符。 输入文档后,OpenAI 几乎会立即告诉您它认为该文档是由人类生成的可能性有多大。
我发布了 Tech.co 最近一篇文章的摘录,该文章由一位作家撰写,OpenAI 正确地确定该文章“非常不可能”是由 AI 撰写的。
在我们之前引用的同一篇 TechCrunch 文章中,该出版物表示 OpenAI 估计其文本分类器错过了 74% 的人工智能生成内容。 他们对此也很诚实,这是一件好事——当我们使用 ChatGPT 生成的短篇故事进行第二次测试时,它没有意识到它是人工智能生成的事实:
AI内容检测真的有效吗?
没有任何人工智能内容检测工具是 100% 可靠的——我们的测试充分证明了这一点。
然而,我们今天讨论的工具中没有一个真正声称 100% 准确,也很少有声称完全没有误报。 其他人,比如 GPTZero,则发布了免责声明,称他们的结果是福音。
一些被指控使用人工智能撰写论文的大学生已经被迫证明他们的作品是原创的。
今年 3 月,在德克萨斯州,一位教授错误地指责全班学生使用 ChatGPT 写论文,导致他们不及格。 还有一系列报告(以及 Originality.ai 进行的研究)表明,即使是最有能力的抄袭检查员也并不像他们声称的那么准确。
即使 Turnitin 的 AI 内容检测器也并非万无一失。 在我们之前讨论过的《华盛顿邮报》最近进行的相对较小的测试中,其准确率远远低于他们声称能够达到的 98%。
另一方面,Originality.ai 无疑是目前最强大的技术之一,甚至它的检测技术也并非每次都正确。
此外,如果存在任何形式的误报,那么学生总会有空间声称他们的作品是原创的,只是被错误识别了。
使用 ChatGPT 或 Bard 是否抄袭?
ChatGPT 是否真的抄袭是有争议的。 牛津语言将剽窃定义为“将他人的作品或想法冒充为自己的作品或想法的行为”。
ChatGPT 不是一个人,它在生成答案时并不是简单地复制其他人的工作和想法。 因此,根据字典的定义,这并不是彻底的抄袭。
即使它这样做了,如果你诚实地知道它来自哪里(即 ChatGPT),可以说,无论如何这都不会是抄袭。
然而,一些学校和大学有影响深远的抄袭规则,并考虑使用聊天机器人来撰写论文。 去年 12 月,弗曼大学的一名学生在使用 ChatGPT 撰写论文后未能获得哲学学位。 在另一个案例中,北密歇根大学的一位教授报告称,他发现两名学生使用聊天机器人为班级写论文。
使用 ChatGPT 生成论文,然后将其冒充为自己的作品,也许更准确地描述为“作弊”,而且绝对是“不诚实”。
写论文的全部目的是表明你有能力产生原创想法、理解相关概念、仔细考虑相互矛盾的论点、清晰地呈现信息并引用你的资料来源。
以这种方式使用 ChatGPT 和花钱请其他学生为你写论文没有什么区别——这当然是作弊。
对于谷歌的巴德来说,答案有点复杂。 上面使用的逻辑同样适用于 Bard,也适用于 ChatGPT,但 Bard 因抄袭和错误引用其从互联网上获取的内容的指控而受到损害,而 ChatGPT 却没有这样做。 因此,使用 Bard 可能会导致您无意中抄袭其他来源(更多内容见下文)。
ChatGPT 的回复是否抄袭?
不 – ChatGPT 不会从其他来源获取信息,然后简单地将其逐句拼凑在一起。 这是对生成式预训练 Transformer 工作原理的误解。
ChatGPT(或更准确地说是 GPT 语言模型)是在庞大的文档、网站材料和其他文本数据集上进行训练的。
它使用算法来查找数据集中的语言序列和模式。 然后可以根据语言模型从这些数据集中的序列中学到的语言知识来生成段落、句子和单词。
这就是为什么如果你在两个不同的设备上同时向 ChatGPT 询问相同的问题,它的答案通常非常相似——但仍然会存在差异,有时,它会提供完全不同的答案。
巴德的回应是否抄袭?
ChatGPT 最大的竞争对手,谷歌的 Bard 自推出以来,与更受欢迎的同行相比,在抄袭内容方面遇到的问题要多得多。 科技网站 Tom's Hardware 发现巴德抄袭了其一篇文章,然后在其一名员工指出此事后道歉。
最近,即 2023 年 5 月,PlagiarismCheck 告诉雅虎新闻,他们与 Bard 生成了 35 段文本,发现其中 25 段通过简单地解释互联网上已发布的现有内容而抄袭了 5% 以上。
Bard 和 ChatGPT 之间的一个很大的区别或许可以解释这一点,那就是 Bard 可以在互联网上搜索答案,这就是为什么它往往能更好地处理与 2021 年之后事件相关的问题,而 ChatGPT 则在这方面遇到了困难。 然而,这似乎也意味着它以不那么原始的方式从来源中提取数据,并更频繁地引用其来源。
这些示例可能只是小插曲,但如果您使用 Bard 进行重要工作,了解其中的风险是有好处的。
其他人工智能工具是否存在抄袭行为?
不幸的是,是的——一些公司已经因为使用抄袭内容的人工智能工具而让自己陷入尴尬境地。 例如,世界上最大的科技网站之一 CNET 被发现使用人工智能工具来生成文章,而且对此完全不透明。 CNET 发表的使用人工智能的文章中约有一半被发现包含一些不正确的信息。
更糟糕的是,对 CNET 的 AI 剽窃行为发起调查的 Futurism 表示,“该机器人的不当行为包括逐字复制、适度编辑和重大改写,所有这些都没有正确注明原文”。
无法生成独特原创内容(无论是艺术还是文本)的人工智能工具有可能抄袭互联网上已发布的内容。 准确理解你的 AI 工具使用的语言模型是如何工作的,并对它生成的内容进行严格监督,这一点很重要,否则你最终可能会陷入与 CNET 相同的境地。
您应该将 ChatGPT 用于论文还是工作?
使用 ChatGPT 进行论文
事实上,ChatGPT 并不是简单地从其他来源获取答案并将句子混搭在一起,这意味着企业已经能够使用 ChatGPT执行各种不同的任务,而不必担心版权问题。
但其内部机制也意味着它经常产生幻觉并犯错误。 它远非完美——尽管让 ChatGPT 为大学或学院撰写论文很诱人,但我们建议不要这样做。
当然,每个教育机构的具体提交指南都会略有不同,但很可能在您所在的大学或学校已经被视为“作弊”或抄袭。 另外,无论准确性如何,教育机构都在使用人工智能内容检测器,随着时间的推移,这种检测器将会得到改进。
在工作中使用 ChatGPT
当然,很多人已经在工作中使用 ChatGPT - 事实证明它在各个行业都很有用,可以帮助各种角色的员工在日常任务中节省宝贵的时间。
但是,如果您在工作中使用 ChatGPT,我们建议您向您的经理或主管坦白,尤其是当您将其用于重要活动(例如为外部利益相关者编写报告)时。
我们还强烈建议您对使用 ChatGPT、Bard 或任何其他 AI 工具生成的所有工作进行大量编辑和仔细审查。 将敏感的个人或公司信息放入任何聊天机器人中都是不明智的,因为关于这些聊天记录的存储位置或 OpenAI 的安全基础设施的公开信息并不多。
使用其他人工智能工具进行论文或工作
当然,Bard 和 ChatGPT 并不是唯一的人工智能聊天机器人。 然而,我们会犹豫是否要支持任何没有强大语言模型支持的小型人工智能工具。 它们的资源不会那么丰富,而且如果您尝试在工作中使用它们,您也不太可能发现它们有用。
然而,同样的规则仍然适用 - 向您的经理开放并获得使用它们的批准,不要输入任何敏感的公司数据,并始终查看您得到的答案。