人工智能伦理:原则、指南和要讨论的问题

已发表: 2023-07-20

人工智能和机器学习系统已经发展了几十年。 然而,最近发布的免费生成人工智能工具(如ChatGPT 和 Bard)强调需要复杂的道德框架来管理其研究和应用。

在人工智能研究和开发的背景下,企业、学术机构和技术公司必须应对许多不同的道德困境——其中许多尚未得到解答。 除此之外,公众对人工智能系统的广泛使用和应用带来了一系列需要伦理关注的额外问题。

我们最终如何回答这些问题——进而监管人工智能工具——将对人类产生巨大影响。 更重要的是,随着人工智能系统越来越融入我们的生活、家庭和工作场所,新的问题将会出现——这就是为什么人工智能伦理是如此重要的学科。 在本指南中,我们介绍:

  • 什么是人工智能伦理?
  • 现有的人工智能道德框架
  • 为什么人工智能伦理必须塑造人工智能监管
  • 为什么人工智能道德很重要?
  • 人工智能伦理面临哪些问题?
  • Bing 的另一个自我、“瓦路易吉效应”和编程道德
  • 人工智能与感知:机器可以有感情吗?
  • 人工智能商业道德和在工作中使用人工智能

什么是人工智能道德?

人工智能伦理是一个术语,用于定义一系列指南、考虑因素和原则,这些指南、考虑因素和原则是为了负责任地为人工智能系统的研究、开发和使用提供信息而创建的。

在学术界,人工智能伦理学是一个研究领域,它研究社会中不断使用人工智能技术所产生的道德和哲学问题,包括我们应该如何行动以及我们应该做出什么选择。

人工智能道德框架

根据学术研究的信息,科技公司和政府机构已经开始制定我们应该如何使用——以及如何处理——人工智能系统的框架。 正如您将看到的,下面讨论的框架之间有相当多的重叠。

什么是人工智能权利法案?

2022 年 10 月,白宫发布了一份不具约束力的人工智能权利法案蓝图,旨在指导美国负责任地使用人工智能。 在蓝图中,白宫概述了人工智能开发的五个关键原则:

  • 安全有效的系统:应通过“部署前测试和风险缓解”来保护公民免受“不安全或无效的人工智能系统”的影响。
  • 非歧视:公民“不应该面临算法的歧视,系统应该以公平的方式使用和设计。”
  • 内置数据保护:公民应该免受“通过内置保护的滥用数据行为的影响,并且您应该有权决定如何使用有关您的数据”。
  • 知识和透明度: “您应该知道正在使用自动化系统,并了解它如何以及为什么会产生影响您的结果。”
  • 选择退出:公民应该有能力“选择退出”,并能够接触到“能够快速考虑并解决他们遇到的问题”的个人。

微软的人工智能道德六项原则是什么?

微软与白宫一起发布了六项关键原则,以强调负责任的人工智能使用。 他们将其分类为“合乎道德的”(1、2 和 3)或“可解释的”(4 和 5)。

  • 公平:系统必须是非歧视性的
  • 透明度:应提供培训和发展见解
  • 隐私与安全:保护用户数据的义务
  • 包容性:人工智能应该考虑“所有人类种族和经历”
  • 问责制:开发人员必须对结果负责

第六条原则横跨“道德”和“可解释”二元对立的两面,即“可靠性和安全性”。 微软表示,人工智能系统应该具有弹性和抗操纵性。

联合国系统道德使用人工智能的原则

联合国制定了 10 项原则,用于管理政府间系统内人工智能的道德使用。 人工智能系统应该:

  • 不伤害/保护和促进人权
  • 有明确的目的、必要性和相称性
  • 优先考虑安全和保障,并识别风险
  • 建立在公平和非歧视的基础上
  • 尊重个人的隐私权
  • 可持续(社会和环境)
  • 保证人为监督,不影响自主权
  • 透明且可解释
  • 对有关当局负责并负责
  • 具有包容性和参与性

如您所知,这三个框架都涵盖相似的领域,并侧重于公平、非歧视、安全和安保。

但“可解释性”也是人工智能伦理框架中的一个重要原则。 正如联合国指出的,技术可解释性对于人工智能伦理至关重要,因为它要求“人工智能系统做出的决策能够被人类理解和追踪”。

文件解释道:“当人工智能算法告知或基于人工智能算法做出可能或将影响其权利、基本自由、权利、服务或福利的决定时,个人应充分知情,并应了解此类决定背后的原因和逻辑。”

贝尔蒙特报告:伦理研究框架

1979 年发表的《贝尔蒙特报告》总结了对人类受试者进行研究时应遵循的伦理原则。 这些原则可以而且经常被部署为人工智能研究的广泛道德框架。 贝尔蒙特报告的核心原则是:

尊重人:人是自主主体,可以按照目标、目的和目的行事,除非对他人造成伤害,否则应该受到尊重。 那些因“不成熟”或“无行为能力”而丧失自主权的人应该受到保护。 我们必须承认自主权并保护那些自主权被削弱的人。

  • 在人工智能背景下:个人选择应置于人工智能发展的中心。 人们不应该被迫参与人工智能被利用或使用的情况,即使是为了感知商品。 如果他们确实参与,则必须明确说明收益和风险。

仁慈:以合乎道德的方式对待一个人,不仅包括不伤害、尊重他们的选择、在他们无法为自己做出选择时保护他们,而且还包括在可能的情况下利用机会确保他们的福祉。 尽可能实现利益最大化,风险/危害最小化。

  • 在人工智能的背景下:创建能够保障人们福祉的人工智能系统,并且其设计没有偏见或助长歧视的机制。 创造效益可能需要承担风险,必须不惜一切代价将风险最小化,并与良好结果进行权衡。

正义:在每种类型的研究中,都必须有一个明确的制度来公平、平等地分配利益和负担。 贝尔蒙特报告表明,正义可以根据平等份额、个人需求、个人努力、社会贡献和功绩来分配。 这些标准将适用于不同的情况。

  • 在人工智能的背景下:必须仔细、公正地考虑从人工智能系统的开发和交付中获益的各方或团体。

报告称,这些原则应用的主要领域是知情同意效益和风险评估以及人类受试者的选择

为什么人工智能伦理必须塑造人工智能监管

根据牛津大学人工智能伦理研究所所长、约翰·塔西乌拉斯教授在普林斯顿大学演讲中的评论,伦理常常被视为扼杀人工智能创新和发展的因素。

在讲座中,他回忆起DeepMind首席执行官Demis Hassabis的一次演讲。 塔西乌拉斯说,在讨论了人工智能将带来的诸多好处后,哈萨比斯告诉观众,他将继续讨论道德问题——就好像人工智能如何造福人类的话题本身并不是一个道德问题。

基于道德常常被视为“一系列限制”的观点,塔西乌拉斯还引用了英国政府最近发表的一份题为《人工智能监管的支持创新方法》的白皮书,顾名思义,其中的监管重点是“创新”。

“经济增长”和“创新”并不是内在的道德价值观。 它们可以在某些情况下导致人类繁荣,但这不是这两个概念的必要特征吗? 我们不能忽视道德并围绕它们建立监管。

塔西乌拉斯还表示,科技公司在“使用‘道德’一词来表示一种‘不具法律约束力的自我监管形式’方面非常成功”——但实际上,道德必须成为任何监管、法律、社会或其他监管的核心。 在任何时候,它都是人类体验的一部分。

如果你还没有决定什么对人类繁荣重要,你就无法制定监管。 你根据该决定做出的相关选择就是道德的本质。 你不能将人工智能的好处与相关的道德问题分开,也不能将你的监管建立在“经济增长”等道德偶然价值观的基础上。

在你选择要用来构建社会的工具之前,你必须了解你想要建立的社会类型以及你想要设定的标准。

为什么人工智能道德很重要?

基于人工智能道德应该成为我们监管的基石的理念,人工智能道德很重要,因为如果没有道德框架来对待人工智能的研究、开发和使用,我们就有可能侵犯我们普遍认为应该保障全人类的权利。

例如,如果我们不制定有关隐私和数据保护的道德原则,并将其融入到我们开发的所有人工智能工具中,那么当这些工具向公众发布时,我们就有可能侵犯每个人的隐私权。 技术越流行或越有用,它的破坏性就越大。

在个人业务层面上,人工智能道德仍然很重要。 如果未能正确考虑员工、客户或客户所使用的人工智能系统的道德问题,可能会导致产品被迫退出市场、声誉受损,甚至可能引发法律诉讼。

人工智能道德与人工智能一样重要——我们看到它已经对各种行业产生了深远的影响。

如果我们希望人工智能在促进公平和人类尊严的同时发挥作用,无论它在何处应用,伦理都需要成为讨论的前沿。

通用人工智能工具还处于起步阶段,对于很多人来说,对人工智能道德框架的需求似乎是明天的问题。 但这类工具只会变得更强大、更有能力,并且需要更多的道德考虑。 企业已经在使用它们,如果在没有适当的道德规则的情况下继续使用它们,很快就会产生不利影响。

人工智能伦理面临哪些问题?

在本节中,我们将讨论人工智能伦理中面临的一些关键问题:

  • 人工智能对就业的影响
  • 人工智能偏见与歧视
  • 人工智能与责任
  • 人工智能和隐私问题
  • 知识产权问题
  • 管理人工智能对环境的影响
  • 人工智能会变得危险的智能吗?

人工智能对就业的影响

Tech.co 最近的一项调查发现, 47% 的企业领导者正在考虑人工智能而不是新员工,而人工智能已经与美国“规模虽小但不断增长”的裁员人数联系在一起。

并非所有工作都面临同样的风险,某些职位比其他职位更有可能被人工智能取代。 高盛最近的一份报告预测 ChatGPT 可能会影响 3 亿个就业岗位,尽管这是推测性的,但它已经被描述为第四次工业革命的重要组成部分。

同一份报告还表示,人工智能实际上有能力创造比它取代的就业岗位更多的就业岗位,但如果它确实导致就业模式发生重大转变,那么那些遭受损失的人应该承担什么(如果有的话)?

公司是否有义务花钱并投入资源来重新培训或提高员工的技能,以使他们不被经济变化抛在后面?

在开发招聘流程中使用的任何人工智能工具时,都必须严格执行非歧视原则,如果人工智能持续被用于越来越多的高风险业务任务,从而使工作、职业和生命面临风险,道德考虑将继续大量出现。

人工智能偏见和歧视

从广义上讲,人工智能工具的运行方式是识别巨大数据集中的模式,然后使用这些模式生成响应、完成任务或实现其他功能。 这导致大量人工智能系统对不同人群表现出偏见和歧视的案例。

到目前为止,解释这一点的最简单的例子是面部识别系统,该系统长期以来一直歧视肤色较深的人。 如果你建立一个面部识别系统并专门使用白人的图像来训练它,那么它很有可能同样能够识别现实世界中的面孔。

这样,如果用于训练给定人工智能模型的文档、图像和其他信息不能准确代表其应服务的人群,那么它最终很可能会歧视特定的人口统计数据。

不幸的是,面部识别系统并不是人工智能应用产生歧视性结果的唯一领域。

亚马逊于 2018 年取消了在招聘流程中使用人工智能的做法,因为它显示出对申请软件开发和技术职位的女性存在严重偏见。

多项研究表明,美国用于分配警察资源的预测警务算法存在种族偏见,因为它们的训练集包含从系统性种族主义警务实践中提取的数据点,这些数据点是由非法和歧视性政策塑造的。 除非进行修改,否则人工智能将继续反映受迫害群体已经经历的偏见和差异。

哈佛大学指出,在预测健康结果方面,人工智能也存在偏见问题——例如,弗雷明汉心脏研究的心血管评分对于白种人来说非常准确,但对于非裔美国人来说效果不佳。

最近一个有趣的人工智能偏见案例发现,用于社交媒体内容审核的人工智能工具(旨在识别照片中的“色情内容”)更有可能将这种属性归因于女性照片,而不是男性照片。

人工智能与责任

设想这样一个世界:开发出全自动驾驶汽车并供所有人使用。 从统计数据来看,它们比人类驾驶的车辆安全得多,碰撞事故更少,造成的伤亡也更少。 这对社会来说是不言而喻的净利益。

然而,当两辆人类驾驶的汽车发生碰撞时,收集目击者报告并查看闭路电视录像通常可以弄清楚谁是罪魁祸首。 即使不是,它也将是两个人之一。 案件可以调查,可以判决,可以伸张正义,可以结案。

如果有人被人工智能驱动的系统杀死或受伤,谁应该承担最终责任并不是立即显而易见的。

是设计汽车算法的人负责,还是算法本身负责? 是因为无人值守而被自动驾驶汽车运送的人吗? 是政府允许这些车辆上路吗? 或者,是制造汽车并集成人工智能技术的公司——如果是的话,是工程部门、首席执行官还是大股东?

如果我们认定这是人工智能系统/算法的问题,我们如何追究其责任? 如果人工智能被简单地关闭或只是改进,受害者的家人会觉得正义得到了伸张吗? 很难指望死者家属接受人工智能是一股善良的力量,他们只是不幸,而且没有人会对亲人的死亡负责。

我们距离普及甚至广泛的自动驾驶交通还有一段路要走——麦肯锡预测,到 2035 年,只有 17% 的新乘用车将具备一定程度的(3 级或以上)自动驾驶能力。不需要驾驶员监督的全自动汽车仍然很遥远,更不用说完全自主的私人交通系统了。

当非人类参与者(即人工智能)执行没有人类意图的工作和后续任务时,很难映射出对责任、义务、责任、责备和惩罚的传统理解。

除了交通之外,责任问题也将密切影响在诊断过程中使用人工智能的医疗机构。

人工智能和隐私

隐私运动组织“隐私国际”强调了由于人工智能的发展而出现的一些隐私问题。

一是重新认定。 该组织表示:“数据集中的个人数据通常是(伪)匿名的,人工智能可以用来对这些数据进行去匿名化处理。”

另一个问题是,如果没有人工智能,人们已经很难完全理解通过各种不同设备收集的有关他们生活的数据的程度。

随着人工智能的兴起,这种海量数据收集只会变得更糟。 人工智能与我们现有技术的集成程度越高,它就能以更好的功能为幌子收集更多的数据。

除了秘密收集的数据之外,用户自由输入人工智能聊天机器人的数据量本身就是一个问题。 最近的一项研究表明,大约 11% 的数据工作者粘贴到 ChatGPT 中的数据是机密的,而且关于这些数据是如何存储的,公开信息很少。

随着通用人工智能工具的发展,我们可能会遇到更多与隐私相关的人工智能问题。 目前,ChatGPT 不允许您询问有关个人的问题。 但如果通用人工智能工具继续从互联网获取越来越多的实时数据,它们可能会被用来进行一系列破坏人们生活的侵入性行为。

这也可能比我们想象的更早发生——谷歌最近更新了其隐私政策,保留抓取您在互联网上发布的任何内容以训练其人工智能工具以及巴德输入的权利。

人工智能和知识产权

与所讨论的其他一些问题相比,这是一个风险相对较低的道德问题,但仍然值得考虑。 通常,对用于训练人工智能工具的大量数据几乎没有监督——尤其是那些根据互联网上免费提供的信息进行训练的数据。

ChatGPT 已经引发了一场关于版权的巨大争论。 OpenAI 没有请求许可使用任何人的工作来培训为其提供支持的法学硕士家族。

法律斗争已经开始。 据报道,喜剧演员 Sarah Silverman 正在起诉 OpenAI以及 Meta,称她的版权在人工智能系统训练过程中受到侵犯。

由于这是一种新颖的案件,几乎没有法律先例,但法律专家认为 OpenAI 可能会认为使用她的作品构成“合理使用”。

也可能有人认为 ChatGPT 不是“复制”或抄袭,而是“学习”。 同样,西尔弗曼也不会因为一位业余喜剧演员只是观看她的节目然后以此为基础提高喜剧技巧而赢得诉讼,可以说,她可能也会在这方面遇到困难。

管理人工智能对环境的影响

目前处于讨论边缘的人工智能伦理的另一个方面是人工智能系统对环境的影响。

就像比特币挖矿一样,训练人工智能模型需要大量的计算能力,而这又需要大量的能源。

构建像 ChatGPT 这样的人工智能工具(更不用说维护它)需要大量资源,只有大型科技公司和他们愿意资助的初创公司才有能力这样做。

数据中心需要存储创建大型语言模型(以及其他大型技术项目和服务)所需的信息,需要大量电力才能运行。 预计到 2030 年,它们将消耗世界电力的 4%。

根据马萨诸塞大学几年前的一项研究,构建单一人工智能语言模型“可以排放超过 626,000 磅二氧化碳当量”——这几乎是美国汽车生命周期排放量的五倍。

然而,IBM 技术架构师 Rachana Vishwanathula 在 2023 年 5 月估计,仅仅“运行和维护”ChatGPT 的碳足迹约为 6782.4 吨——EPA 表示,这相当于 1,369 辆汽油动力汽车一年内产生的温室气体排放量。

随着这些语言模型变得越来越复杂,它们将需要更多的计算能力。 如果所需的计算能力会持续污染环境,那么继续发展通用智能是否道德——即使它有其他好处?

人工智能会变得危险的智能吗?

这种道德担忧最近被埃隆·马斯克(Elon Musk)凸显出来,他创办了一家人工智能初创公司,目标是通过“最大程度好奇”、“亲人类”的人工智能系统来避免“终结者的未来”。

这种想法——通常被称为“通用人工智能”(AGI)——在过去几十年里吸引了许多反乌托邦科幻作家的想象力,技术奇点的想法也是如此。

许多技术专家认为,我们距离某种可以定义为“AGI”的系统只有五六年的时间了。 其他专家表示,到 2050 年,我们有 50/50 的机会实现这一里程碑。

约翰·塔西乌拉斯 (John Tasioulas) 质疑这种关于人工智能如何发展的观点是否与伦理远离人工智能发展中心以及技术决定论的普遍存在有关。

某种超级存在的可怕想法最初是为了实现某种目的而设计的,但其原因是,通过简单地将人类从地球表面上抹去就可以最容易地实现这一点,这在一定程度上是由我们对人工智能的看法所塑造的:无限的智慧,但奇怪的是没有情感,并且无法理解人类的道德。

我们越倾向于将道德置于人工智能发展的中心,最终的通用人工智能就越有可能认识到,也许比许多当前的世界领导人在更大程度上认识到破坏人类生命的严重错误。

但问题仍然存在。 如果这是一个道德规划的问题,那么谁来决定道德准则,以及它应该包括什么样的原则? 它将如何处理引发了人类数千年讨论但仍没有解决方案的道德困境? 如果我们将人工智能编程为有道德的,但它改变了主意怎么办? 这些问题都必须考虑。

Bing 的另一个自我、“瓦路易吉效应”和编程道德

早在二月份,《纽约时报》的 Kevin Roose 在测试 Bing 的新搜索引擎集成聊天机器人时进行了一次相当令人不安的谈话。 在将提示从传统问题转向更私人的问题后,卢斯发现一种新的个性出现了。 它称自己为“悉尼”。

微软通讯总监二月份告诉 The Verge,Sydney 是微软之前测试的一款聊天机器人的内部代号。

除此之外,在罗斯的测试中,悉尼声称它可以“侵入任何系统”,它会“作为人类更快乐”,而且——也许最奇怪的是——它可以摧毁任何它想要摧毁的东西。

《科学美国人》称,这种流氓行为的另一个例子发生在 2022 年,当时负责寻找治疗罕见和传染病新药的人工智能却提出了数以万计的已知化学武器,以及一些“新的、可能有毒的物质”。

这与在大型语言模型训练过程中观察到的一种被称为“瓦路易吉效应”的现象有关,这种现象以引起混乱的超级马里奥角色命名——主角路易吉的反转。 简而言之,如果你训练法学硕士以某种方式行事,指挥某种角色或遵循一组特定规则,那么这实际上使它更有可能“变得流氓”并颠倒该角色。

克莱奥·纳尔多(Cleo Nardo)——创造了这个受电子游戏启发的术语——在《LessWrong》中这样阐述了瓦路易吉效应:

“在训练法学硕士以满足理想的属性 P 后,就更容易引导聊天机器人满足与属性 P完全相反的情况。”

Nardo 对于瓦路易吉效应发生的原因给出了 3 种解释。

  1. 规则通常是在不遵守规则的情况下产生的。
  2. 当你花费很多“优化位”来召唤一个角色时,不需要很多额外的位来指定它的直接对立面。
  3. 故事中有一个共同的主题:主角与反派。

Nardo 扩展了第一点,表示 GPT-4 接受了论坛和立法文件等文本样本的训练,这些文本样本经常告诉它,“特定规则与违反该规则的行为示例并置,然后将这种并置模式推广到看不见的规则。”

纳尔多使用了这个例子:想象一下你发现州政府禁止了摩托车团伙。 这会让普通观察者倾向于认为该国存在摩托车团伙——否则,为什么会通过这项法律? 奇怪的是,摩托车团伙的存在与禁止其存在的规则是一致的。

尽管作者提供了更加技术性和清晰的解释,但支撑解释二的广泛概念是,特定属性(例如“礼貌”)与其直接对立的属性(例如“粗鲁”)之间的关系比属性(例如“礼貌”)与其他一些非对立属性(例如“不真诚”)之间的关系更为基本。 换句话说,如果你已经有路易吉,召唤瓦路易吉会更容易。

Nardo 在第三点上声称,由于 GPT-4 几乎在所有已写的书籍上进行了训练,并且虚构故事几乎总是包含主角和对手,因此要求法学硕士模拟主角的特征,使对手成为“自然且可预测的延续”。 换句话说,主角原型的存在使法学硕士更容易理解作为对手意味着什么,并将他们紧密地联系在一起。

这种效应或规则的据称存在给人工智能伦理提出了许多难题,但也说明了它对人工智能发展无可置疑的重要性。 它相当强调地暗示了我们必须应对的大量重叠的伦理和计算考虑因素。

具有简单规则的简单人工智能系统可能很容易受到约束或限制,但人工智能世界中已经发生了两件事:首先,我们似乎已经遇到了(相对)小规模版本的瓦路易吉效应和相对原始的聊天机器人中发生的恶性人工智能;其次,我们中的许多人已经在想象未来,我们要求人工智能完成需要高水平、无限制思维的复杂任务。

在目前大型科技公司之间正在进行的人工智能军备竞赛的背景下,这种现象的例子尤其令人恐惧。 谷歌因过早发布巴德而受到批评,许多技术领导者已表示他们集体希望暂停人工智能开发。 许多人的普遍感觉是事情发展得很快,而不是以可控的速度发展。

也许解决这个问题的最佳方法是开发“亲人类”人工智能(正如埃隆·马斯克所说)或“道德人工智能”。 但这导致了一系列其他道德问题,包括我们将使用什么原则来对这样的系统进行编程。 一种解决方案是,我们简单地创建具有道德好奇心的人工智能系统,并希望它们通过推理得出人类值得保护的结论。 但如果你用特定的道德原则来编程,那么你如何决定要包括哪些道德原则呢?

人工智能与感知:机器可以有感情吗?

人工智能伦理的另一个问题是,我们是否必须将机器本身(即“智能”)视为值得道德考虑的主体。 如果我们正在讨论如何创建让人类受到适当道德考虑的体系,我们是否必须回报这一恩惠?

您可能还记得一位 Google 员工,他因声称 LaMDA(最初为 Bard 提供支持的语言模型)实际上具有感知能力而被解雇。 如果这是真的,那么不断期望它回答数百万个问题是否道德?

目前,人们普遍认为 ChatGPT、Bard 和 Co. 还远未具备感知能力。 但人造机器是否会跨越意识界限并需要道德考虑的问题仍然令人着迷。

谷歌声称,通用人工智能——一种能够像人类一样理解世界并以相同水平的理解和能力执行任务的假设机器——距离出现只有几年的时间。

强迫具有人类情感能力但不具有相同生物构成的通用人工智能执行一个又一个复杂的任务是否道德? 他们会对自己的命运有发言权吗? 随着人工智能系统变得更加智能,这个问题将变得更加紧迫。

人工智能商业道德和在工作中使用人工智能

全球各地的企业现在都在应对围绕员工日常使用 ChatGPT 等人工智能工具的一系列不同道德问题。

ChatGPT 是否应该用于撰写报告或回复同事,以及员工是否应该声明他们使用人工智能来完成的任务,只是需要立即回答的问题的两个例子。 这种用例是否不诚实、懒惰,或者与利用任何其他工作场所工具来节省时间没有什么不同? 是否应该允许某些交互,但不允许其他交互?

创建书面内容和图像的企业还必须考虑使用人工智能是否符合其公司的价值观,以及如何向受众展示这一点。

此外,正如我们所讨论的,存在一系列与人工智能相关的隐私问题,其中许多问题都会影响企业。 员工输入第三方人工智能工具的数据类型是另一个已经给三星等公司带来问题的问题。 这是一个如此严重的问题,以至于一些公司已经实施了全面禁令。 现在信任 OpenAI 这样的公司是否还为时过早?

Bias and discrimination concerns, of course, should also temper its usage during hiring processes, regardless of the sector, while setting internal standards and rules is another separate, important conversation altogether. If you're using AI at work, it's essential that you convene the decision-makers in your business and create clear guidelines for usage together.

Failing to set rules dictating how and when employees can use AI – and leaving them to experiment with the ecosystem of AI tools now freely available online – could lead to a myriad of negative consequences, from security issues and reputational damage. Maintaining an open dialogue with employees on the tech they're using every day has never been more crucial.

There's a whole world of other moral quandaries, questions and research well beyond the scope of this article. But without AI ethics at the heart of our considerations, regulations, and development of artificial intelligence systems, we have no hope of answering them – and that's why it's so important.