什么是人工智能? 2024 年基本人工智能术语 A-Z 词汇表

已发表: 2024-02-20

人工智能领域正以惊人的速度发展,所以如果你对一个(或两个)不熟悉的术语感到措手不及,那也是情有可原的。 随着技术以越来越多的方式影响我们的日常生活,了解最新的人工智能术语变得越来越重要。

在工作中尤其如此,人工智能素养是雇主新的必备技能。 如果您不知道 LLM 的 AGI,请不要担心。 我们编制了一份从 A 到 Z 的流行人工智能术语列表,并用通俗易懂的术语解释了每个概念的含义,以帮助您更多地了解持续塑造我们周围世界的技术。

从机器学习等基本接触点到量子人工智能等更复杂的概念,请继续阅读以温习一些有趣的术语,并更多地了解人工智能的美丽新世界。

什么是人工智能?

人工智能是人工智能的缩写,指的是机器的智能,而不是人类等有感知能力的生物的智能。 人工智能系统的工作原理是接收大量训练数据,分析数据中的模式,并使用这些模式生成输出。

虽然这个概念自 20 世纪 50 年代就已存在,但近年来,由于OpenAI等人工智能开发人员取得的突破,人工智能已成为主流。 人工智能的研究范围广泛,并且每年都在扩大,因此请继续阅读以了解有关 2024 年人工智能及相关概念的更多信息。

冲浪鲨标志 想要私密地浏览网页吗? 或者看起来好像您在另一个国家?
通过此 tech.co 特别优惠,享受 Surfshark 86% 的巨额折扣。 查看交易按钮

A 代表通用人工智能 (AGI)

AGI是人工智能的一种理论类型,表现出类人智能,通常被认为与人类一样聪明或更聪明。 虽然该术语的起源可以追溯到 1997 年,但近年来,随着人工智能开发人员不断推动该技术的前沿发展,AGI 的概念已成为主流。

例如,2023 年 11 月,OpenAI 透露,它正在开发一种代号为Project Q*的新 AI“超级智能”模型,这可以让该公司更接近实现 AGI。 然而,应该强调的是,AGI 仍然是一个假设的概念,许多专家相信这种类型的人工智能不会很快开发出来,甚至不会开发出来。

B代表大数据

大数据是指传统数据处理方法难以管理的大型、高容量数据集。 大数据和人工智能齐头并进。 巨大的原始信息池对于人工智能决策至关重要,而复杂的人工智能算法可以分析数据集中的模式并识别有价值的见解。 当他们一起工作时,他们可以帮助用户提供更有洞察力的启示,比传统方法更快。

B 代表偏差

当算法产生的结果系统性地针对某些类型的人存在偏见时,就会出现人工智能偏见。 不幸的是,人工智能系统一直被证明通过坚持有害的信念并鼓励与种族、性别和国家认同有关的负面刻板印象来反映社会内部的偏见。

Buzzfeed 的一篇现已删除的文章强调了这些偏见,该文章展示了来自世界各地的人工智能生成的芭比娃娃。 这些图像支持了各种种族刻板印象,包括过度性感的加勒比娃娃、来自南半球的粉刷成白色的芭比娃娃,以及穿着不准确文化服装的亚洲娃娃。

C 代表 ChatGPT

您可能听说过这个,但仍然需要提一下,因为如果没有对 2022 年 11 月推出时改变游戏规则的生成式 AI 聊天机器人的认可,任何 AI 术语表都不能被认为是完整的。

简而言之, ChatGPT是将人工智能争论从服务器机房转移到客厅的产品。 它利用人工智能完成了 iPhone 为移动电话所做的事情,凭借其广泛使用的模型将这项技术带入了公众的视野。

正如我们最近在《技术对工作场所的影响》报告中所揭示的那样,ChatGPT 无疑是企业使用最广泛的人工智能工具,甚至可能是开启每周 4 天工作制的关键

它的影响力可能会随着时间的推移而减弱,但人工智能的世界将永远通过ChatGPT诞生前后的棱镜来看待。

C 代表计算

计算代表“计算能力”,指的是训练人工智能模型执行数据处理和预测等任务所需的计算资源。 通常,用于培训法学硕士的竞争力越强,其表现就越好。

然而,计算能力依赖于大量的能源消耗,这引起了环保人士的担忧。 例如,研究表明,ChatGPT 每天需要 1GWh 的能源来为响应提供动力,这足以为 30,000 个美国家庭供电。

D 代表扩散

扩散模型代表了机器学习的新层次,能够生成卓越的人工智能生成图像。 这些模型的工作原理是在学习逆转此过程之前向数据集添加噪声。

通过理解图像背后的抽象概念,并以新的方式创建内容,扩散模型创建的图像比传统 AI 模型制作的图像更加锐利和精致,目前已部署在Dall等一系列 AI 图像工具中-E和稳定扩散。

E 代表紧急能力

当人工智能模型产生超出其创建者意图的意外响应时,就会发生紧急行为。 人工智能的大部分内容非常复杂,其决策过程仍然无法被人类,甚至其创造者理解。 随着像 GPT4 这样突出的 AI 模型最近展现出新兴的能力,AI 研究人员正在更加努力地了解 AI 模型背后的方式和原因。

F代表面部识别

面部识别技术依靠人工智能、机器学习算法和计算机视觉技术来处理人脸的静态图像和视频。 由于人工智能可以比手动方法更有效地识别复杂的面部细节,因此大多数面部识别系统都使用称为卷积神经网络(CNN)的人工神经网络来提高其准确性。

G 代表生成式人工智能

生成式人工智能是一个包罗万象的术语,它描述了生成文本、图像和音频剪辑等原始内容的任何类型的人工智能。 生成式人工智能使用来自法学硕士和其他人工智能模型的信息来创建输出,并为 ChatGPT、Gemini 和 Grok 等聊天机器人的响应提供支持,

H代表幻觉

聊天机器人并不总是产生正确或理智的响应。 通常,人工智能模型会生成不正确的信息,但却将其呈现为事实。 这就是所谓的人工智能幻觉。 当人工智能模型根据训练的数据集做出预测而不是检索实际事实时,就会出现幻觉。

大多数人工智能幻觉都很轻微,甚至可能被普通用户忽视。 然而,有时幻觉可能会产生危险的后果,因为诈骗者之前曾利用ChatGPT 产生的错误响应来诱骗开发人员下载恶意代码。

I是智力爆炸

与通用人工智能(AGI)相似,智能爆炸是一种假设场景,即人工智能的发展变得不可控,从而对人类构成威胁。 该术语也被称为“奇点”,代表着许多人对快速且不受控制的技术进步感到的生存威胁。

J 代表越狱

越狱是一种黑客行为,其目的是绕过人工智能模型的道德保障。 具体来说,当在聊天机器人中输入某些提示时,用户可以不受任何限制地使用它们。

有趣的是,布朗大学最近的一项研究发现,使用苗语、祖鲁语和苏格兰盖尔语等语言是越狱 ChatGPT 的有效方法。 在这里了解如何越狱 ChatGPT

J 代表工作不安全感

随着人工智能继续自动化以前由人类执行的手动流程,该技术正在引发工人普遍的工作不安全感。 虽然大多数员工不必担心,但我们的 Tech.co 《技术对工作场所的影响》报告最近发现,供应链优化、法律研究和财务分析角色最有可能在 2024 年被人工智能取代

L 代表大型语言模型 (LLM)

法学硕士是一种专业类型的人工智能模型,它利用自然语言处理 (NLP) 来理解并产生自然的、类似人类的反应。 简单来说,让 ChatGPT 这样的工具听起来不像机器人,而更像你和我。

与生成式人工智能不同,法学硕士是专门为处理与语言相关的任务而设计的。 您可能听说过的 LLM 的流行示例包括 GPT-4、PaLM 2 和Gemini

M 代表机器学习

机器学习是人工智能的一个领域,它允许系统以与人类类似的方式从经验中学习和改进。 具体来说,它专注于人工智能中数据和算法的使用,旨在改进人工智能模型在现实环境中自主学习和决策的方式。

虽然该术语经常与人工智能互换使用,但机器学习是更广泛的人工智能保护伞的一部分,并且需要最少的人工干预。

N 代表神经网络

神经网络 (NN) 是一种旨在模仿人脑结构和功能的机器学习模型。 人工神经网络由多层组成,并由称为人工神经元的单元组成,这些单元松散地模仿大脑中的神经元。

神经网络也称为深度神经网络,具有多种有用的应用,可用于改进图像识别、预测建模和自然语言处理。

O 代表开源人工智能

开源人工智能是指拥有免费源代码的人工智能技术。 开源人工智能的最终目标是在人工智能社区内创建一种协作和透明的文化,为公司和开发人员提供更大的自由来利用技术进行创新。

目前许多可用的开源人工智能产品都是现有应用程序的变体,常见的产品类别包括聊天机器人、机器翻译工具和大型语言模型。

P 代表提示

如果您仍然不熟悉 Gemini 和 ChatGPT 等工具,提示是您输入聊天机器人以获得有针对性的响应的指令或查询。 它们可以作为独立命令存在,也可以作为与人工智能模型进行更长时间对话的起点。

人工智能提示可以采用用户想要的任何形式,但我们发现较长形式、详细的输入会产生最佳响应。 根据微软最近的一项研究,使用情感语言是生成高质量答案的另一种方法。

了解如何通过这40 个 ChatGPT 提示让您的工作生活更轻松,这些提示旨在节省您在工作场所的时间。

P 代表参数

在人工智能中,参数是衡量机器学习模型行为的值。 在这种情况下,每个参数都充当变量,确定模型如何将输入转换为输出。 参数是衡量人工智能性能的最常见方法之一,一般来说,人工智能模型的参数越多,它就越能够理解复杂的数据模式并产生更准确的响应。

Q 代表量子人工智能

量子人工智能是利用量子计算来计算机器学习算法。 与通过 1 和 0 处理信息的经典计算相比,量子计算使用一种称为量子位的单位,它同时代表 1 和 0。 理论上,这个过程可以极大地提高计算速度。

就量子人工智能而言,量子比特的使用可能有助于产生更强大的人工智能模型,尽管许多专家认为我们距离实现这一现实还有很长的路要走。

R 代表红队

红队是一种结构化测试系统,旨在发现人工智能模型中的缺陷和漏洞。 网络安全术语本质上是指一种道德黑客行为,参与者尝试模拟实际的网络攻击,以识别系统中潜在的弱点并从长远来看改善其防御。

在人工智能红队的情况下,可能不会发生实际的黑客尝试,红队成员可能会尝试以某种方式提示系统的安全性,绕过开发人员在其上放置的任何护栏,以类似的方式越狱。

S 代表监督学习

人工智能学习有两种基本方法:监督学习和无监督学习。 监督学习也称为监督机器学习,是一种训练方法,其中算法根据已标记为特定输出的输入数据进行训练。 测试的目的是衡量算法在未标记数据上执行的准确性,并且该过程致力于提高整个人工智能系统的整体准确性。

T 代表训练数据

简单来说,训练数据是用于训练机器学习模型的极其庞大的输入数据集。 训练数据用于使用算法来教导预测模型如何提取与特定用户目标相关的特征,并且它是初始数据集,然后可以通过称为测试集的后续数据进行补充。

它是人工智能和机器学习工作方式的基础,如果没有训练数据,人工智能模型将无法学习、提取有用信息并做出预测,或者简单地说,无法存在。

U 代表无监督学习

与监督学习相反,无监督学习是一种机器学习,其中模型被给予未标记的、杂乱的数据,并鼓励模型在没有任何特定框架的情况下发现模式和见解。

无监督学习模型用于三个主要任务:杂波(一种用于对未标记数据进行分组的数据挖掘技术)、关联(另一种使用不同规则来查找变量之间关系的盈利方法)以及降维(一种当数据数量较多时部署的学习技术)。数据集中的维度太高。

X代表X风险

X风险代表存在风险。 更具体地说,该术语涉及人工智能快速发展带来的生存风险。 人们对潜在的 X 风险事件发出警告,认为如果不加以控制,人工智能领域正在取得的进展可能会导致人类灭绝或全球灾难。

不过,X风险并不是一种边缘信念。 事实上,2023 年,DeepMind 首席执行官 Demis Hassabis、OpenAI 联合创始人兼首席科学家 Ilya Sutskever 以及比尔·盖茨等几位科技领袖签署了一封信,警告人工智能开发人员注意人工智能带来的生存威胁

Z 代表零样本学习

零样本学习是一种深度学习问题设置,其中人工智能模型的任务是在不接收任何训练示例的情况下完成任务。 在机器学习中,零样本学习用于为尚未标记为训练的类构建模型。

零样本学习的两个阶段包括捕获知识的训练阶段和使用信息将示例分类到一组新类别的干扰阶段。