依赖人工智能的选择可能会削弱我们的决策能力
已发表: 2024-04-22随着人工智能进一步渗透到人们的日常生活中,人们对它的担忧也随之增加。 最危言耸听的是对人工智能失控并终结其人类主人的担忧。
但在呼吁暂停人工智能开发的背后,存在着一系列更明显的社会弊病。
其中包括人工智能对人们的隐私和尊严构成的风险,以及不可避免的事实,因为人工智能背后的算法是由人类编程的,它与我们许多人一样具有偏见和歧视性。
再加上人工智能的设计方式和设计者缺乏透明度,很容易理解为什么现在有这么多时间花在讨论其风险和潜力上。
但我自己作为一名心理学家研究人们如何做出决定,这让我相信所有这些风险都被一种更具腐败性但基本上看不见的威胁所掩盖。
也就是说,在做出深思熟虑的决策时,人工智能只需敲击几个键盘就能让人们变得更加缺乏纪律和技能。
做出深思熟虑的决定
做出深思熟虑的决定的过程涉及三个常识步骤,首先是花时间理解您面临的任务或问题。
问问自己,您需要知道什么?您需要做什么才能做出以后能够可靠且自信地捍卫的决定?
这些问题的答案取决于积极寻找信息,这些信息既可以填补您的知识空白,又可以挑战您先前的信念和假设。
事实上,正是这种反事实信息——当人们摆脱某些假设的负担时出现的替代可能性——最终使你能够在自己的决定受到批评时捍卫自己的决定。
第二步是一次寻找并考虑多个选择。 想提高你的生活质量吗?
无论你投票给谁、你接受的工作还是你购买的东西,总有不止一条路可以带你到达那里。
花精力积极考虑和评估至少一些看似合理的选择,并诚实地考虑你愿意在其利弊之间做出的权衡,这是深思熟虑和站得住脚的选择的标志。
第三步是愿意推迟做出决定,直到完成所有必要的繁重的精神工作之后。
这不是什么秘密:结束的感觉很好,因为这意味着你已经把一个困难或重要的决定抛在脑后。 但过早地继续前进的成本可能比花时间做功课要高得多。
如果你不相信我,想想那些你让自己的感觉引导你的时候,结果却因为你没有花时间更努力地思考而感到遗憾。
将决策外包给人工智能的危险
这三个步骤都不是很难采取的。 但是,对于大多数人来说,它们也不直观。 做出深思熟虑且站得住脚的决定需要练习和自律。
这就是人工智能给人们带来的隐藏危害所在:人工智能的大部分“思考”都是在幕后进行的,并向用户提供脱离上下文和深思熟虑的答案。
更糟糕的是,人工智能剥夺了人们练习自己做出深思熟虑和合理决策的机会。
考虑一下当今人们如何做出许多重要决定。 众所周知,人类容易产生各种偏见,因为我们在消耗精神能量时往往很节俭。
这种节俭让人们喜欢为他们做出看似良好或值得信赖的决定。 我们是社会动物,往往更看重社区的安全和接受度,而不是自己的自主权。
将人工智能添加到其中,结果是一个危险的反馈循环:人工智能为算法提供支持的数据是由人们的偏见决策组成的,这些决策也反映了从众的压力,而不是批判性推理的智慧。
但因为人们喜欢有人为他们做出决定,所以他们倾向于接受这些糟糕的决定并继续下一个决定。 最终,我们和人工智能都不会变得更明智。
AI时代的思考
认为人工智能不会给社会带来任何好处的观点是错误的。
它很可能会发生,特别是在网络安全、医疗保健和金融等领域,这些领域需要定期快速分析复杂的模型和大量数据。
然而,我们的大多数日常决策并不需要这种分析能力。
但无论我们是否要求,我们中的许多人已经在从娱乐和旅行到学业、医疗保健和金融等各种环境中收到了人工智能的建议并完成了人工智能的工作。
设计师们正在努力开发下一代人工智能,它将能够自动化我们更多的日常决策。 在我看来,这是危险的。
在一个人们的思维方式和思维方式已经因社交媒体算法而受到围攻的世界里,如果我们允许人工智能达到可以做出各种决策的复杂程度,我们就有可能将自己置于更加危险的境地。代表我们。
事实上,我们有责任抵制人工智能的诱惑,夺回作为人类的真正特权和责任:能够为自己思考和选择。 如果我们这样做的话,我们会感觉更好,更重要的是,我们会变得更好。
对此有什么想法吗? 请在下面的评论中给我们留言,或者将讨论转移到我们的 Twitter 或 Facebook。
编辑推荐:
- 为什么人工智能时代空中交通管制仍然需要人性化
- ChatGPT 和其他语言人工智能和我们一样非理性
- 学生如何利用人工智能来控制他们的 Python 技能
- 自动赛车增强人工智能,打造更安全的无人驾驶汽车
编者注:本文由南加州大学多恩西夫文学、艺术与科学学院瑞格利环境与可持续发展研究所所长、Dana 和 David Dornsife 心理学教授 Joe Árvai 撰写,并根据 Creative Commons 许可从 The Conversation 重新发布。 阅读原文。