如何构建有效的道德人工智能
已发表: 2023-03-30在使用人工智能 (AI) 之前,团队必须拥有负责任的 AI 框架和工具箱,尽管创新有很多优势。 人工智能是一种中立的技术; 它既不是本质上道德的,也不是不道德的。 或者,人工智能是一种遵守社会规范和标准的技术。 必须分析哪些限制、限制或标准已经到位或应该建立以支持道德人工智能。
什么是道德人工智能?
从广义上讲,有道德的 AI 可以定义为数据科学算法,这些算法做出本质上没有偏见的预测和触发行动——即,不在性别、性取向、种族、语言、残疾或任何其他人口特征方面进行歧视——并且还设定更公平的商业决策的基础。
普华永道确定了道德人工智能的以下属性:
- 可解释性:应该能够完整地描述他们的决策过程。
- 可靠性:应在其设计范围内发挥作用,并产生标准化、可重复的预测和建议。
- 安全性:应防范网络风险,尤其是第三方和云带来的风险。
- 问责制:应该特别确定对使用 AI 模型的道德后果负责的所有者。
- 利益:应优先考虑共同利益,关注可持续性、协作和透明度。
- 隐私:应该传播对已获得和正在使用的数据的认识。
- 人力机构:应促进更多的人力监督和参与。
- 合法性:应遵守法律和所有适用的准则。
- 公平:不应该对个人或团体有偏见。
- 安全:不应危及个人的身心健康。
不幸的是,道德人工智能并不是默认的行业标准,一些公司在其实施中面临障碍。 在最近的一项调查中,受访者认识到道德人工智能的重要性,但兑现这一承诺比看起来要困难得多。 十分之九 (90%) 的高级管理人员同意,创造和使用新技术的道德标准可以为组织提供竞争优势。 尽管如此,大约三分之二 (64%) 的高管发现其组织使用的人工智能系统存在偏见。
构建道德人工智能的 3 条道路
减轻与数据和人工智能相关的伦理风险的典型方法有三种:学术方法、企业方法和监管方法。 经常出现在哲学系的伦理学家擅长识别伦理难题、它们的起源以及如何围绕它们进行推理。
接下来是“实地”战略。 通常,急切的技术专家、数据分析师和产品经理是在组织内部提出重要问题的人。 他们熟悉提出与业务相关的风险相关问题,因为他们是创造产品以实现特定业务目标的人。
现在有公司(更不用说政府)实施高水平的人工智能道德规范。 例如,谷歌和微软多年前就宣布了它们的价值观。 鉴于数十个行业的企业价值观的多样性,信息和人工智能道德政策必须适应组织独特的商业和法律要求。 作为企业领导者,您可以采取几个步骤来实现这一目标。
构建有效的道德人工智能的步骤
要从一开始就构建有道德的人工智能(而不是用道德改造现有的人工智能系统),请记住以下步骤:
- 定义关于 AI 伦理含义的共同协议
对于所有主要的公司利益相关者,此描述必须准确且实用。 创建跨职能的专家团队来为所有有关道德 ML 和 AI 的开发、生产和实施的活动提供建议也是一个好主意。
- 目录 AI 对业务系统的影响
开发道德人工智能框架的一个重要组成部分是记录公司的人工智能使用情况。 该企业正在迅速采用人工智能,特别是在推荐系统、机器人、客户细分建模、成本引擎和异常检测的化身中。 定期监控此类 AI 技术及其嵌入的流程或应用程序对于防止对您的公司造成后勤、声誉和财务威胁至关重要。
- 创建适合您所在行业的数据和 AI 道德风险框架。
一个有效的框架在其基础上包括对公司道德价值观的阐述、拟议的治理模型以及对如何维护这种配置的描述。 必须建立 KPI 和 QA 程序,以评估道德人工智能方法的持续有效性。
一个全面的框架还阐明了将道德风险管理纳入运营。 它应包括向高级领导层或道德委员会报告道德问题的明确程序。
- 为产品经理优化道德人工智能指南和工具
尽管您的框架提供了更广泛层面的指导,但产品层面的建议必须准确。 标准的机器学习算法可以识别人类无法理解的过于复杂的模式。 问题在于,一方面渲染结果可解释,另一方面渲染结果准确,经常会发生冲突。
产品经理必须能够做出这种权衡。 如果输出受到要求解释的约束,例如当金融机构必须解释贷款申请被拒绝的原因时,那么精确性将是必不可少的。 产品经理应该有工具来衡量它在特定用例中的重要性。
- 监测影响并让利益相关者参与
建立企业意识、道德委员会、知识渊博的产品所有者、经理、架构师和数据分析师都是开发过程的组成部分,理想情况下,也是采购过程的组成部分。 由于资源稀缺、时间管理以及更大且明显的无法预见事情可能出错的所有方式,因此监控信息和人工智能产品对市场的影响至关重要。
道德人工智能示例:情感分析
整合公平性和包容性的一个很好的例子是情绪评估——为了准备一个 ML 模型来区分文本数据中的正面和负面情绪,必须在社会和语言背景方面提供足够的训练数据。
在社会语言学场景中,您使用什么语言? 您是否正在考虑与您的情感标签一起存在的更广泛的文化输入? 您是否考虑了区域语言差异? 这些问题与道德人工智能的自动语音识别 (ASR) 和自然语言处理 (NLP) 组件有关。
例如,如果您的 ASR 模型仅使用美国英语进行训练,那么您在处理其他英语变体时可能会遇到转录问题。 在这种情况下,美国英语和澳大利亚英语之间的主要差异包括特定语言情况下 r 的发音和单词中元音发音的差异,这些都必须包含在 AI 系统中。
合乎道德地使用人工智能
除了构建符合道德规范的 AI 之外,还必须考虑和规范其使用。 当个人因不道德行为而获得经济奖励时,道德标准就会受到破坏。 请记住,系统的不公平应用可能会造成伤害,而不是其不公平、不透明或其他技术特征。
以 Deepfake 算法为例,这是一种经常用于恶意目的的 AI 技术。 绝大多数在线 deepfakes 都是在未经受害者许可的情况下创建的。 虽然可以确保使用构造 Deepfakes 的生成对抗网络对所有肤色和性别的人同样有效,但这些公平性改进/修正是无关紧要的——因为相同的算法正在用于其他更有害的意图。
道德人工智能必须融入人工智能管道的每一步,从概念化算法到开发,再到长期使用和维护。 正如本文所解释的那样,在开发符合道德规范的 AI 以及使用符合规范的数据集进行 AI 模型培训和用户教育时,需要遵循五个步骤。