2024 年人工智能挑战:三位领先人工智能研究人员的见解

已发表: 2024-01-13

2023 年是人工智能发展及其在社会中的作用的转折点。

这一年见证了生成式人工智能的出现,使该技术从默默无闻的地方走向了公众想象中的中心舞台。 一家人工智能初创公司的董事会戏剧连续几天占据新闻周期。

拜登政府发布了一项行政命令,欧盟也通过了一项旨在监管人工智能的法律,这些举措或许最贴切的描述是试图给已经奔腾的马套上缰绳。

我们组建了一个人工智能学者小组来展望 2024 年,描述人工智能开发人员、监管机构和普通人可能面临的问题,并给出他们的希望和建议。


Casey Fiesler,科罗拉多大学博尔德分校信息科学副教授

2023 年是人工智能炒作的一年。 无论人工智能将拯救世界还是毁灭世界,人们常常感觉人工智能有一天可能会成为什么样子的愿景压倒了当前的现实。

尽管我认为预测未来的危害是克服技术道德债务的关键组成部分,但过于沉迷于炒作可能会导致人工智能的愿景看起来更像是魔法,而不是仍然可以通过明确选择来塑造的技术。

但要取得控制权需要更好地了解该技术。

2023 年人工智能的主要争论之一是围绕 ChatGPT 和类似聊天机器人在教育中的作用。

去年的这个时候,最相关的头条新闻都集中在学生如何利用它作弊,以及教育工作者如何努力阻止他们这样做——而这种方式往往弊大于利。

然而,随着时间的推移,人们认识到,未能向学生教授人工智能可能会让他们处于不利地位,许多学校取消了禁令。

我认为我们不应该改革教育,将人工智能置于一切的中心,但如果学生不了解人工智能的工作原理,他们就不会理解它的局限性——因此也不会理解它如何有用和适合使用和使用。怎么不是。

这不仅适用于学生。 人们越了解人工智能的工作原理,他们就越有能力使用它并批评它。

因此,我对 2024 年的预测,或者说我的希望是,学习将会受到巨大推动。

1966 年,ELIZA 聊天机器人的创建者约瑟夫·魏森鲍姆 (Joseph Weizenbaum) 写道,机器“通常足以让最有经验的观察者眼花缭乱”,但一旦它们“用足够简单的语言解释内部运作以促进理解,它的魔力就会崩溃” ”。

生成式人工智能面临的挑战在于,与 ELIZA 非常基本的模式匹配和替换方法相比,找到“足够简单”的语言来使人工智能魔法崩溃要困难得多。

我认为这是有可能实现的。 我希望那些急于聘请更多人工智能技术专家的大学也能在聘请人工智能伦理学家方面做出同样的努力。 我希望媒体能够帮助消除炒作。 我希望每个人反思自己对这项技术的使用及其后果。

我希望科技公司在考虑哪些选择继续塑造未来时听取明智的批评。未来一年的许多挑战都与社会已经面临的人工智能问题有关。


Kentaro Toyama,密歇根大学社区信息教授

1970 年,人工智能先驱和神经网络怀疑论者马文·明斯基 (Marvin Minsky) 对《生活》杂志表示:“三到八年内,我们将拥有一台具有普通人一般智能的机器。”

有了奇点,人工智能与人类智能相匹配并开始超越人类智能的那一刻(还没有完全到来)可以肯定地说,明斯基至少落后了 10 倍。对人工智能做出预测是危险的。

尽管如此,对未来一年进行预测似乎并没有那么冒险。 2024 年人工智能可以期待什么?

首先,比赛开始了! 自明斯基全盛时期以来,人工智能领域的进展一直很稳定,但 2022 年 ChatGPT 的公开发布引发了一场对利润、荣耀和全球霸权的全面竞争。

除了大量新的人工智能应用程序之外,还期待更强大的人工智能。

最大的技术问题是,人工智能工程师能够多快、多彻底地解决当前深度学习的致命弱点——所谓的广义硬推理,比如演绎逻辑。

对现有神经网络算法进行快速调整是否就足够了,还是需要像神经科学家加里·马库斯(Gary Marcus)建议的那样采用根本不同的方法?

大批人工智能科学家正在研究这个问题,所以我预计 2024 年会取得一些进展。

与此同时,新的人工智能应用也可能会带来新的问题。 您可能很快就会开始听说人工智能聊天机器人和助手相互交谈,在您背后代表您进行整个对话。

其中一些会失控——滑稽地、悲剧性地或两者兼而有之。

尽管监管刚刚起步,但难以检测的 Deepfakes、人工智能生成的图像和视频可能会猖獗,对各地的个人和民主国家造成更多卑鄙伤害。 很可能会出现新的人工智能灾难,这在五年前是不可能的。

说到问题,那些对人工智能发出最响亮警报的人——比如埃隆·马斯克和萨姆·奥尔特曼——似乎无法阻止自己构建更强大的人工智能。

我希望他们继续做更多同样的事情。 他们就像纵火犯一样,自焚,请求当局制止他们。

沿着这些思路,我对 2024 年最希望的——尽管来得缓慢——是在国家和国际层面加强人工智能监管。


Anjana Susarla,密歇根州立大学信息系统教授

自 ChatGPT 推出以来的一年里,生成式人工智能模型的发展仍在以令人眼花缭乱的速度发展。

与一年前的 ChatGPT 不同的是,ChatGPT 将文本提示作为输入并生成文本输出,新型生成式 AI 模型被训练为多模态,这意味着用于训练它们的数据不仅来自文本源,例如维基百科和 Reddit,还来自 YouTube 上的视频、Spotify 上的歌曲以及其他音频和视频信息。

借助为这些应用程序提供支持的新一代多模式大语言模型 (LLM),您不仅可以使用文本输入来生成图像和文本,还可以生成音频和视频。

公司正在竞相开发可以部署在各种硬件和各种应用程序上的法学硕士,包括在智能手机上运行法学硕士。

这些轻量级法学硕士和开源法学硕士的出现可能会迎来一个自主人工智能代理的世界——一个社会不一定做好准备的世界。

这些先进的人工智能功能为从商业到精准医疗的各种应用提供了巨大的变革力量。

我主要担心的是,这种先进的功能将为区分人类生成的内容和人工智能生成的内容带来新的挑战,并带来新类型的算法危害。

生成式人工智能产生的大量合成内容可能会带来一个恶意人员和机构可以制造合成身份并策划大规模错误信息的世界。

大量人工智能生成的内容,旨在利用算法过滤器和推荐引擎,可能很快就会压倒搜索引擎、社交媒体平台和数字服务提供的信息验证、信息素养和意外发现等关键功能。

美国联邦贸易委员会对人工智能辅助内容创作的便利性所导致的欺诈、欺骗、侵犯隐私和其他不公平行为发出了警告。

虽然 YouTube 等数字平台已经制定了披露人工智能生成内容的政策指南,但联邦贸易委员会等机构和致力于隐私保护的立法者(例如《美国数据隐私与保护法案》)仍需要对算法危害进行更严格的审查。

国会提出的一项新的两党法案旨在将算法素养编纂为数字素养的关键部分。

随着人工智能与人们所做的一切越来越紧密地交织在一起,很明显,现在不是把算法当作技术的一部分,而是要考虑算法运行的环境:人、流程和社会。

编者注:本文由密歇根州立大学信息系统教授 Anjana Susarla、科罗拉多大学博尔德分校信息科学副教授 Casey Fiesler、密歇根大学社区信息教授 Kentaro Toyama 撰写,转载自 The Conversation根据知识共享许可。 阅读原文。

在 Flipboard、Google 新闻或 Apple 新闻上关注我们