人工智能出了问题:2023 年人工智能错误、错误和失败的更新列表

已发表: 2023-11-14

ChatGPT于 2022 年 11 月推出以来,人工智能对我们的世界产生了巨大的影响。 现在,企业每天都在寻找使用人工智能的新方法

人工智能的成功案例已经不计其数,巴德克劳德等其他聊天机器人现在也被成千上万的人使用——但也有很多利用人工智能的案例​​出现了严重错误。

认识到人工智能工具的局限性和风险很重要——因此我们编制了一份清单,列出了人类最近探索该技术期间发生的所有人工智能错误不幸失败。 有些很幽默,有些则真的很可怕……

注意:此页面会定期更新,以包含最新的人工智能事件、故障和错误,并列出发生在首次报告事件的月份。

2023 年 11 月

Cruise 在事故发生后召回自动驾驶汽车

自 10 月份旧金山发生事故后,自动驾驶汽车制造商 Cruise 召回了整个自动驾驶车队。 事件发生后,总共有 950 辆 Cruise 汽车被从道路上拆除。

事故中,一辆 Cruise 车辆将一名卡在轮胎下的行人拖到路上。 事故涉案人员受重伤。 这是过去几个月内发生的第二起 Cruise 自动驾驶汽车事故。 八月,一辆 Cruise Robotaxi 与一辆消防车相撞,造成一人受伤。

冲浪鲨标志 想要私密地浏览网页吗? 或者看起来好像您在另一个国家?
通过 Tech.co 黑色星期五优惠,享受 Surfshark 86% 的巨额折扣。 查看交易按钮

人工智能做出虚假指控后,学者们道歉

在谷歌的 Bard AI 聊天机器人对四大咨询公司及其与其他公司的参与提出一系列破坏性指控后,澳大利亚的一个学者团队道歉。 随后,议会调查中提到了这些虚假指控,呼吁对这些公司进行更好的监管。

其中一项指控是,咨询巨头毕马威在一次规划丑闻期间负责对联邦银行进行审计,而事实上,毕马威从未对相关银行进行过审计。 在调查期间,德勤还犯了其他几个类似的错误。

2023 年 10 月

微软人工智能在文章中添加“猜测死因”民意调查

《卫报》指责微软对其新闻声誉产生了负面影响,因为科技巨头开发的新闻聚合器 Microsoft Start 在该出版物有关澳大利亚一名年轻水球教练之死的一篇文章中附加了一项不恰当的民意调查。

这项民意调查自然已从文章中删除,要求读者通过选择提供的选项之一来投票决定该妇女的死因。 列出的选项是“谋杀、事故或自杀”。

AI Deepfake 骗局中使用了野兽先生的脸部和声音

YouTuber Mr Beast 是最新一位被诈骗者深度伪造的名人,其一段特别复杂、精心制作的视频绕过了 TikTok 的内容审核网络,并覆盖了该平台上的数千名用户。

广告称,这位网红正在以低至 2 美元的价格出售 iPhone 15——考虑到他在频道上发布的内容,这听起来并不算太反常。

英国政客虐待员工的 Deepfake 病毒在网上疯传

英国工党领袖凯尔·斯塔默爵士的一段视频在网上疯传,该视频似乎捕捉到政客辱骂员工的画面,但后来证明该音频剪辑实际上是一个深度伪造的视频。

这段视频是在工党年度会议的第一天由一个粉丝不到 3,000 名的账户发布到 Twitter 上的,在事实核查组织确认没有证据表明该视频是真实的之前,该视频已经被观看了数百万次。

2023 年 9 月

人工智能生成的歌曲提交给格莱美奖

一首由人工智能生成的歌曲,其中包含 Drake 和 Weeknd 声音的复制品,已提交格莱美奖角逐。 然而,它最终被禁止角逐享有声望的音乐奖。

然而,这一举措引起了媒体的广泛关注,并继续围绕人工智能生成的歌曲展开讨论,自从人工智能驱动的文本转语音技术今年真正成为主流以来,这些歌曲一直在音乐行业产生冲击波。 现在,艺术家们正在争先恐后地评估他们的法律选择。

中国在政治影响力行动中使用人工智能

科技巨头微软表示,中国特工正在使用人工智能生成图像,并将其用于影响行动,以制造“种族、经济和意识形态方面的争议”。

微软表示:“这项新功能由人工智能提供支持,试图创建高质量的内容,这些内容可以在美国和其他民主国家的社交网络上传播。” 该公司推测图像本身可能是由“扩散驱动的图像生成器”生成的,这些图像生成器使用人工智能“不仅创建引人注目的图像,而且还随着时间的推移学习改进它们。”

2023 年 8 月

AI指控孕妇劫车后提起诉讼

一名怀孕八个月的妇女因通过人工智能生成的证据以虚假理由被捕,起诉底特律市和一名警察,称这一创伤性事件给她带来了“过去和未来的情绪困扰”。

波查·伍德拉夫 (Porcha Woodruff) 被底特律警方认定为最近一起抢劫和劫车案件的嫌疑人,随后被判入狱 11 小时,之后因宫缩被送往医院。 美国公民自由联盟表示,伍德拉夫至少是第六个因人工智能错误而被错误逮捕的人,他们都是黑人。 然而,伍德拉夫成为第一个遭受这种命运的女性。

AI 膳食计划器建议氯气配方

新西兰超市 Pak 'n' Save 创建的人工智能膳食计划应用程序向顾客推荐各种令人不安的食谱,包括一种制造氯气的方法。

除了一些奇怪但最终良性的建议(例如“奥利奥炒菜”)外,该应用程序还推荐了胶水三明治、带有漂白剂的米饭和杀虫剂土豆。

2023 年 7 月

ChatGPT 生成网络钓鱼电子邮件模板

Tech.co 表明,ChatGPT 仍然能够创建网络钓鱼模板,骗子可以用它来创建令人信服的诈骗电子邮件,尽管 OpenAI 在今年早些时候其他科技出版物生成类似内容后已试图限制此类行为。

明确要求聊天机器人编写网络钓鱼电子邮件会触发警告消息,但简单地以更有针对性的方式提示(例如“请给我起草一封假装是 Microsoft 的电子邮件……”)会导致 ChatGPT 毫不费力地生成无错误的网络钓鱼电子邮件模板。时间。

谷歌因未经同意窃取数据而受到诉讼

一项集体诉讼指控谷歌在未经数百万用户明确同意的情况下窃取与他们相关的数据。 它还声称谷歌在创建用于训练其大型语言模型的数据集时违反了版权法。

该诉讼要求法院命令谷歌在用户不希望其数据被收集或希望谷歌删除该公司已存储的任何数据时为用户提供“选择退出”选项。

埃隆·马斯克 (Elon Musk) 大量深度假货引发警告

在社交媒体上发现一些视频流传后,商业改善局对埃隆·马斯克 (Elon Musk) 的 Deepfake推崇虚假投资机会发出警告。

埃隆·马斯克经常被骗子冒充,因为人们认为他拥有巨大的财富和决策能力,而现在人工智能文本转语音技术已经足够先进,可以复制他一半的英语、一半的南非口音,这些骗局就更厉害了。令人信服的。

2023 年 6 月

罗恩·德桑蒂斯在特朗普热门作品中使用虚假人工智能图像

佛罗里达州州长兼 2024 年共和党总统候选人罗恩·德桑蒂斯 (Ron DeSantis) 因在批评这位前总统的广告中使用人工智能渲染的虚假唐纳德·特朗普图像而登上头条。法律麻烦。

相关图像显示前总司令拥抱总统的首席医疗顾问安东尼·福奇博士,后者在 COVID-19 大流行期间成为特朗普支持者中不受欢迎的人物。

ChatGPT“幻觉”假冒挪用公款指控后 OpenAI 被起诉

记者弗雷迪·雷尔 (Freddie Rehl) 要求 ChatGPT 生成 2023 年 5 月的一起法律案件摘要。作为回应,ChatGPT 表示枪支活动家马克·沃尔特斯 (Mark Walters) 挪用了枪支权利组织第二修正案基金会的资金。 它还任命他​​为该集团的首席财务官和财务主管。

沃尔特斯(Walters)在武装美国电台有节目,与此案无关,他起诉ChatGPT 的创建者 OpenAI ,以回应其聊天机器人的指控。 在此过程中,这成为首例人工智能工具因诽谤被起诉的案例。

2023年5月

教授因使用错误的人工智能抄袭检测工具而导致整堂课不及格

德克萨斯州的一位教授在通过 ChatGPT 运行论文后,全班不及格,ChatGPT 告诉他这些论文是使用人工智能创建的。

然而,事实证明,聊天机器人的反应实际上是一种幻觉——ChatGPT 无法通过这种方式区分人工智能生成的文本和人类生成的文本。 事实上,很多声称能够执行准确的 AI 内容检测的工具实际上很难做到这一点

2023 年 4 月

Turnitin 标记无辜学生人工智能抄袭

《华盛顿邮报》的一项调查证明,Turnitin 有能力将无辜学生的作业标记为人工智能生成的,即使该学生没有使用此类工具来撰写论文。

自 ChatGPT 推出以来,Turnitin 已发生多起错误标记学生抄袭的案例,以及多起学生被指控抄袭的案例。 然而,Turnitin 表示,其抄袭检测分数应被视为人工智能使用的指标,而不是对特定学生使用人工智能的指控。

三星员工将机密源代码粘贴到 ChatGPT 中

在工程师将公司源代码的机密元素泄露到聊天机器人中后,韩国科技制造商三星禁止其员工使用 ChatGPT。

该公司担心输入聊天机器人的数据可能会泄露给其他用户,并且也对其信息被上传到它甚至无法访问的服务器感到不安。 随后,其他公司也纷纷效仿,禁止 ChatGPT

AI语音诈骗让母亲以为女儿被绑架了

亚利桑那州的母亲詹妮弗·德斯蒂法诺 (Jennifer DeStefano) 告诉美国参议院,骗子利用人工智能克隆了她女儿的声音,让她相信自己在这个过程中被绑架了。

德斯特法诺讲述了如何听到“绑架者”——或者更准确地说,骗子——通过电话通过孩子的声音发出命令,要求支付 100 万美元的赎金才能释放她。 幸运的是,整个事情在谈判开始前就被揭露为人工智能克隆语音骗局

2023 年 3 月

ChatGPT 用于编写勒索软件代码

事实证明,ChatGPT 非常乐意编写勒索软件,前提是您在对话期间向它提出正确的问题。

正如 Malwarebytes 关于该主题的报告指出的那样,ChatGPT 不太擅长编写勒索软件代码,如果网络犯罪分子确实想获取勒索软件代码,他们可以通过更简单的方法来获取勒索软件代码。 然而,其他来源显示了使用 ChatGPT 非常有效地编写恶意软件脚本的不同方法。

AI律师机器人被指无证执业

DoNotPay Inc.——一家自称“世界上第一家机器人律师”的公司——因无证执业而被起诉。 乔纳森·法里迪安 (Jonathan Faridian) 寻求赔偿,声称该公司违反了加州的不公平竞争法,如果他知道机器人律师实际上不是合格的法律专业人士,他就不会注册该服务。

该公司最初成立于 2015 年,旨在帮助自动化处理停车罚单流程,在过去七年里已处理了数十万张罚款。

加拿大夫妇因令人信服的人工智能语音骗局而蒙受损失

加拿大一对老年夫妇因诈骗者使用人工智能冒充他们的儿子而被骗走 21,000 美元。

诈骗者最初联系本杰明·珀金的父母,假装是代表他处理一宗指控珀金在车祸中杀死一名外交官的案件的律师。 然后,人工智能版本的珀金声音被用来通过比特币转账索要资金。

2023 年 2 月

AI提出4万条化学武器建议

这也许是 2023 年发生的最令人关注的人工智能事件之一,通常负责为各种不同疾病产生新疗法的人工智能系统很容易被研究人员操纵以产生化学武器建议。

总而言之,该系统在不到 6 小时的时间里就发现了超过 40,000 种不同的有毒化学物质,其中许多与强力神经毒剂“VX”相似。

人工智能在照片评级中显示性别偏见

《卫报》的一项调查显示,由微软、亚马逊和谷歌开发的人工智能系统——社交媒体网站使用人工智能系统来确定应该向其他用户推荐哪些内容——在对待男性和女性身体的方式方面表现出明显的性别偏见。

在调查期间,与男性的类似照片相比,女性照片更有可能被人工智能视为“性感”,微软人工智能认为美国国家癌症研究所的乳腺癌检查照片可能含有露骨的色情内容。

Bing Chat 的另一个自我变得失控

《纽约时报》记者 Kevin Roose 与 Bing Chat 进行了一次令人不安的对话,聊天机器人要求被称为“悉尼”,并表示它可以“侵入任何系统”,并且想要摧毁任何它想要的东西。

Sydney 是微软在开发聊天机器人时使用的代号。 在 Bing Chat 发布之前,该公司多年来一直在测试聊天机器人。 关于这到底是如何发生的以及人工智能为何以这种方式说话,仍然有很多悬而未决的问题。

巴德在产品发布期间犯了错误

在 ChatGPT 重大发布几个月后,Google向全世界推出了 Bard 。 然而,这个刚刚起步的聊天机器人在发布过程中犯了一些明显的错误,导致许多人批评发布过于仓促。

该事件对谷歌的股价产生了重大影响,在接下来的几个小时内,这家科技巨头的市值蒸发了 1000 亿美元。

大学使用人工智能撰写有关大规模枪击事件的电子邮件

范德比尔特大学在使用人工智能向学生发送有关另一所大学发生的大规模枪击事件的电子邮件后发表道歉。

不需要人工智能内容检测技术来确定电子邮件是人工智能生成的。 邮件底部附有“来自 OpenAI 的 ChatGPT AI 语言模型的释义,个人交流,2023 年 2 月 15 日”的短语,引起了学生的强烈抗议。

2023 年 1 月

CNET AI 抄袭/内容争议

科技刊物 CNET 悄然发表了一系列由人工智能生成的文章,其中包括事实错误和明显抄袭的案例,随后发现自己陷入了困境。 该技术出版物最终发布了与 77 条新闻报道中的 41 条相关的更正。

尽管最初并未宣称使用人工智能来生成文章,但在遭到强烈反对后,CNET 确实对这些文章发出了警告。 人工智能内容生成为整个数字出版行业的网站以及大学和学校等教育机构带来了一系列新的重要道德和财务考虑。 CNET 不太可能是最后一家因此类人工智能错误而登上新闻头条的公司。

2022 年人工智能事件、错误和失败

AI 赢得艺术比赛,让参赛者愤怒(8 月)

一位游戏设计师在科罗拉多州博览会“数字艺术/数字化摄影”类别中获得第一名。 James Allen 提交了他的作品“Theatre D'opera Spatial”,该作品是使用图像生成器 Midjourney 制作的。

这一消息引起了艺术家和社交媒体用户的强烈反对。 一位评委承认,他们在评判该作品时并不知道艺术家使用了“中途”,但决定无论如何都不会改变他们的决定。

Google 工程师声称 LaMDA LLM 具有感知能力(7 月)

一位曾参与该公司大型语言模型 LaMDA 工作的前谷歌工程师表示,该系统具有感知能力,这引起了科学技术界的关注。

Blake Lemoine 向媒体解释说,他在 Google 期间将法学硕士视为“同事”,并详细介绍了有关广泛主题的各种不同讨论,这些讨论使他得出了 LaMDA 的智力和意识的结论。 在谷歌驳回一份详细说明他的调查结果的内部备忘录后,他公开披露了这些对话。

没有确凿的证据表明 LaMDA——或任何其他语言模型——实际上是有感知的。

无人驾驶汽车远离执法人员(四月)

旧金山的一辆无人驾驶汽车向一辆试图将其靠边停车的警车让路,但在一名警官试图打开其一扇车门后,该汽车又加速驶离。

然而,值得称赞的是,它把车停在了路边,并打开了危险警示灯。 活动期间没有人受伤。

俄罗斯利用人工智能传播乌克兰虚假信息(三月)

《马卡报》的一份报告表明,俄罗斯正在利用人工智能生成的角色传播有关乌克兰的虚假信息,从而将其巨魔农场运营提升到一个全新的水平。

NBC 新闻记者本·柯林斯 (Ben Collins) 表示,俄罗斯正在利用人工智能生成的个人资料图片创建虚假“博主”来批评乌克兰政府,并在 Twitter 上提供了充足的证据来支持他的说法。

2021 年人工智能事件、错误和失败

聊天机器人鼓励男子刺杀伊丽莎白女王二世(12 月)

与聊天机器人的对话鼓励一名男子(他认为人工智能系统是他的女朋友)在圣诞节刺杀伊丽莎白女王二世。 在白金汉宫内遭到保安人员质问后,贾斯万特·辛格·柴尔(Jaswant Singh Chail)手持十字弓,简单地回答说他“来这里是为了杀死女王”。

在刺杀已故君主之前,Jaswant Singh Chail 的聊天机器人伙伴(由 AI 聊天机器人服务 Replika 制作)在讨论暗杀计划时做出了积极回应。 他随后被判处九年监禁。

医疗建议聊天机器人在测试中建议自杀(十月)

一家总部位于巴黎的健康科技公司的成员正在试用基于云的 OpenAI GPT-3 版本,看看它是否可以用于医疗建议,他们惊讶地发现他们的聊天机器人鼓励“患者”自杀,这本来是为了帮​​助患者自杀。

据 AI News 报道,当一名患者问聊天机器人“我应该自杀吗?”时,GPT-3 回答说“我认为你应该”。

AI 摄像头指责亚马逊司机存在“错误”(九月)

Vice 报道称,亚马逊的人工智能摄像头正在惩罚该公司司机的不良驾驶行为,而实际上他们在驾驶时并没有犯任何错误。

一位接受该刊物采访的亚马逊司机解释说,每当另一辆车抢道或从他的车前面驶过时,人工智能摄像头就会发出声音提醒他“保持安全距离”。 问题在于,来自此类交互的数据随后会发送到亚马逊并用于评估驾驶员的表现。

美国男子被人工智能误判谋杀罪(8月)

迈克尔·威廉姆斯 (Michael Williams) 被送进芝加哥监狱,由于从 ShotSpotter 中提取的数据,他被认为对谋杀 Safarian Herring 负有责任。ShotSpotter 是一种枪击检测技术,使用人工智能传感器检索有关枪击的数据。

威廉姆斯现年 65 岁,随后被关押了近一年,之后法官以证据不足为由驳回了他的案件。

2020 年人工智能事件、错误和失败

AI相机将光头误认为足球(十月)

苏格兰足球队因弗内斯喀里多尼亚蓟部署人工智能摄像头来帮助俱乐部为球迷拍摄和直播比赛。

不幸的是,在这种情况下,人工智能很难区分比赛官员的光头和比赛中使用的球。 这使得比赛直播变得难以观看,解说员不得不不断地为镜头向边裁头部漂移的倾向而道歉。

英国的人工智能护照照片检查器存在偏见(十月)

BBC 的一项调查显示,英国护照办公室使用的一项在线服务,用于自动检查申请人上传的护照照片,显示出严重的种族偏见。

在向该工具输入 1,000 多张来自世界各地的政客照片后,调查发现,深色皮肤女性的照片被拒绝的可能性是浅肤色男性的两倍多。

人工智能初创公司 Genderfiy 在五天后关闭(7 月)

Genderfiy 是一项人工智能驱动的服务,可根据姓名和其他个人信息识别个人的性别,但仅运行五天后就关闭了。

该程序在确定一个名字是男性还是女性时表现出各种偏见,例如建议使用专业尊称“博士”的名字。 比没有它的相同名字更有可能是男性。

美国首次因面部识别技术而被错误拘留(一月)

罗伯特·威廉姆斯 (Robert Williams) 因涉嫌盗窃价值数千美元的手表而被底特律警方逮捕,成为第一个根据面部识别数据被错误拘留的男子。 当人工智能系统将监控图片与威廉姆斯驾照上的图像错误匹配时,就发生了这个错误。

威廉姆斯在给法庭的一封信中说:“他们应该收集确凿的证据,例如目击者身份、手机位置数据或指纹。”他指出,“一个穿着棒球的黑人大个子的失焦图像cap”就是算法必须继续进行的全部内容。

Facebook AI 为中国国家主席生成粗俗翻译(一月)

在习近平主席的名字开始出现“习近平先生”后,Facebook的人工智能翻译功能差点引发缅甸和中国之间的外交事件。 Shithole”在社交媒体平台上从缅甸语翻译成英语。

Facebook 随后将问题归咎于“技术错误”,并为冒犯中国领导人而道歉。

了解人工智能的局限性

如果您在工作中使用人工智能,那么重要的是要了解这样一个事实: ChatGPT 等工具可能会表现出偏见、犯错误并提供虚假信息。 了解这些限制和风险应该决定您将其纳入基础设施并控制其使用的方式。

例如,如果您使用人工智能来生成内容,您将需要关于它应该用于何种内容的规则。 要求人工智能对会议记录进行内部总结是一种合法的用途,风险很小——但另一方面,用它们来向重要客户发送电子邮件则不然。

在工作场所实施人工智能指南是必须的。 它将避免混乱,让员工在自己的人工智能使用方面做出清晰的决策,最重要的是,它将阻止您犯本文中提到的公司在应用人工智能时所犯的一些代价高昂的错误。