人工智能 (AI) 危险吗?

已发表: 2023-05-31

2023 年 5 月 22 日星期一,一个名为“Bloomberg Feed”的经过验证的 Twitter 帐户分享了一条推文,声称五角大楼发生了爆炸,并附有一张图片。 如果你想知道这与人工智能 (AI) 有什么关系,这张图片是人工智能生成的,这条推文迅速传播开来并引发了短暂的股市下跌。 事情本可以更糟——这清楚地提醒人们人工智能的危险。

人工智能的危险

我们需要担心的不仅仅是假新闻。 有许多与人工智能相关的直接或潜在风险,从涉及隐私和安全的风险到偏见和版权问题。 我们将深入探讨其中一些人工智能危险,看看现在和将来正在采取哪些措施来减轻这些危险,并询问人工智能的风险是否超过了收益。

目录

    假新闻

    当 deepfakes 首次登陆时,人们担心它们可能会被恶意使用。 对于新一波的 AI 图像生成器,如 DALL-E 2、Midjourney 或 DreamStudio,也可以这样说。 2023 年 3 月 28 日,伪造的 AI 生成了教皇弗朗西斯身着白色 Balenciaga 羽绒服并享受滑板和打扑克等多项冒险的图像在网上疯传。 除非你仔细研究图像,否则很难将这些图像与真实事物区分开来。

    虽然教皇的例子无疑有点有趣,但关于五角大楼的图片(和随附的推文)却一点也不有趣。 AI 生成的虚假图像有能力损害声誉、结束婚姻或事业、制造政治动荡,如果被错误的人使用,甚至会引发战争——简而言之,这些 AI 生成的图像如果被滥用,可能会带来巨大的危险。

    现在任何人都可以免费使用 AI 图像生成器,并且 Photoshop 在其流行的软件中添加了 AI 图像生成器,因此操纵图像和制造假新闻的机会比以往任何时候都大。

    隐私、安全和黑客攻击

    当涉及到人工智能的风险时,隐私和安全也是巨大的担忧,许多国家已经禁止 OpenAI 的 ChatGPT。 出于隐私方面的考虑,意大利已禁止该模型,认为它不符合欧洲通用数据保护条例 (GDPR),而中国、朝鲜和俄罗斯政府则因担心它会传播错误信息而禁止它。

    那么,为什么我们在人工智能方面如此关注隐私呢? 人工智能应用程序和系统收集大量数据以学习和做出预测。 但是这些数据是如何存储和处理的呢? 确实存在数据泄露、黑客攻击和信息落入坏人之手的风险。

    面临风险的不仅仅是我们的个人数据。 AI 黑客攻击是一个真正的风险——它还没有发生,但如果那些怀有恶意的人可以侵入 AI 系统,这可能会产生严重的后果。 例如,黑客可以控制无人驾驶车辆,入侵 AI 安全系统以进入高度安全的位置,甚至可以入侵具有 AI 安全性的武器系统。

    美国国防部国防高级研究计划局 (DARPA) 的专家认识到这些风险,并已着手开展 DARPA 的保证 AI 鲁棒性反欺骗 (GARD) 项目,从头开始解决这个问题。 该项目的目标是确保将对黑客攻击和篡改的抵抗力内置到算法和人工智能中。

    侵犯版权

    人工智能的另一个危险是侵犯版权。 这听起来可能不像我们提到的其他一些危险那么严重,但是像 GPT-4 这样的 AI 模型的发展让每个人都面临更大的侵权风险。

    每次你要求 ChatGPT 为你创建一些东西——无论是关于旅行的博客文章还是你的企业的新名称——你都在向它提供信息,然后它会用这些信息来回答未来的查询。 它反馈给你的信息可能会侵犯他人的版权,这就是为什么使用剽窃检测器并在发布之前编辑 AI 创建的任何内容如此重要的原因。

    社会和数据偏见

    人工智能不是人类,所以它不能有偏见,对吧? 错误的。 人和数据被用来训练人工智能模型和聊天机器人,这意味着有偏见的数据或个性会导致有偏见的人工智能。 人工智能有两种偏见:社会偏见和数据偏见。

    日常生活中存在许多偏见,当这些偏见成为人工智能的一部分时会发生什么? 负责训练模型的程序员可能会有偏见,然后进入人工智能系统。

    或者,用于训练和开发 AI 的数据可能是不正确的、有偏见的或恶意收集的。 这会导致数据偏差,这可能与社会偏见一样危险。 例如,如果面部识别系统主要使用白人的面部进行训练,它可能很难识别少数群体的面部,从而使压迫永久化。

    机器人抢走了我们的工作

    ChatGPT 和 Google Bard 等聊天机器人的发展引发了围绕 AI 的全新担忧:机器人将抢走我们工作的风险。 我们已经看到科技行业的作家被 AI 取代,软件开发人员担心他们的工作会被机器人抢走,还有公司使用 ChatGPT 来创建博客内容和社交媒体内容,而不是雇用人类作家。

    根据世界经济论坛的《2020 年就业前景报告》,预计到 2025 年人工智能将在全球范围内取代 8500 万个工作岗位。即使人工智能不会取代作家,它也已经被许多人用作工具。 那些面临被 AI 取代风险的工作可能需要适应才能生存——例如,作家可能成为 AI 提示工程师,使他们能够使用 ChatGPT 等工具来创建内容,而不是被这些模型取代。

    未来潜在的人工智能风险

    这些都是直接或迫在眉睫的风险,但我们在未来可能看到的人工智能的一些不太可能但仍有可能的危险呢? 这些包括诸如人工智能被编程为伤害人类之类的东西,例如,训练有素的自主武器可以在战争中杀人。

    然后存在这样的风险,即人工智能可能会一心一意地专注于其编程目标,在它试图不惜一切代价实现该目标时发展出破坏性行为,即使人类试图阻止这种情况发生。

    天网告诉我们当 AI 变得有知觉时会发生什么。 然而,尽管谷歌工程师 Blake Lemoine 可能试图让所有人相信谷歌的人工智能聊天机器人生成器 LaMDA 早在 2022 年 6 月就具有感知能力,但值得庆幸的是,迄今为止还没有证据表明这是真的。

    人工智能监管的挑战

    202 年 5 月 15 日,星期一,OpenAI 首席执行官山姆奥特曼出席了关于人工智能的第一次国会听证会,他警告说:“如果这项技术出了问题,它可能会大错特错。” OpenAI CO 明确表示他支持监管,并在听证会上提出了许多自己的想法。 问题是 AI 正在以如此快的速度发展,很难知道从哪里开始监管。

    国会希望避免重蹈社交媒体时代初期的覆辙,专家团队与参议院多数党领袖查克舒默一起制定了法规,要求公司披露他们用于训练模型的数据源以及培训对象。训练了他们。 不过,人工智能的监管方式可能还需要一段时间才能变得清晰,而且毫无疑问,人工智能公司会强烈反对。

    人工智能的威胁

    还有创建通用人工智能 (AGI) 的风险,它可以完成人类(或动物)可以执行的任何任务。 在科幻电影中经常提到,我们距离这样的创造可能还有几十年的时间,但如果我们真的创造了 AGI,它可能会对人类构成威胁。

    许多公众人物已经认同人工智能对人类构成生存威胁的信念,包括史蒂芬霍金、比尔盖茨,甚至前谷歌首席执行官埃里克施密特,他表示,“人工智能可能带来生存风险,政府需要知道如何确保这项技术不会被坏人滥用。”

    那么,人工智能是否危险,其风险是否大于其收益? 目前还没有定论,但我们已经看到了我们周围存在的一些风险的证据。 其他危险不太可能很快实现,如果有的话。 不过有一点很明确:人工智能的危险不容低估。 至关重要的是,我们要确保从一开始就对 AI 进行适当监管,以最大限度地减少并有望减轻任何未来的风险。