依賴人工智慧的選擇可能會削弱我們的決策能力
已發表: 2024-04-22隨著人工智慧進一步滲透到人們的日常生活中,人們對它的擔憂也隨之增加。 最危言聳聽的是對人工智慧失控並終結其人類主人的擔憂。
但在呼籲暫停人工智慧開發的背後,存在著一系列更明顯的社會弊病。
其中包括人工智慧對人們的隱私和尊嚴構成的風險,以及不可避免的事實,因為人工智慧背後的演算法是由人類編程的,它與我們許多人一樣具有偏見和歧視性。
再加上人工智慧的設計方式和設計者缺乏透明度,很容易理解為什麼現在有這麼多時間花在討論其風險和潛力上。
但我自己作為一名心理學家研究人們如何做出決定,這讓我相信所有這些風險都被一種更具腐敗性但基本上看不見的威脅所掩蓋。
也就是說,在做出深思熟慮的決策時,人工智慧只需敲擊幾個鍵盤就能讓人們變得更加缺乏紀律和技能。
做出深思熟慮的決定
做出深思熟慮的決定的過程涉及三個常識步驟,首先是花時間理解您面臨的任務或問題。
問問自己,您需要知道什麼?
這些問題的答案取決於積極尋找訊息,這些訊息既可以填補您的知識空白,又可以挑戰您先前的信念和假設。
事實上,正是這種反事實訊息——當人們擺脫某些假設的負擔時出現的替代可能性——最終使你能夠在自己的決定受到批評時捍衛自己的決定。
第二步是一次尋找並考慮多個選擇。 想提高你的生活品質嗎?
無論你投票給誰、你接受的工作還是你購買的東西,總有不止一條路可以帶你到達那裡。
花精力積極考慮和評估至少一些看似合理的選擇,並誠實地考慮你願意在其利弊之間做出的權衡,這是深思熟慮和站得住腳的選擇的標誌。
第三步是願意推遲做出決定,直到完成所有必要的繁重的精神工作之後。
這不是什麼秘密:結束的感覺很好,因為這意味著你已經把一個困難或重要的決定拋在腦後。 但過早繼續前進的成本可能比花時間做功課要高得多。
如果你不相信我,想想那些你讓自己的感覺引導你的時候,結果卻因為你沒有花時間更努力地思考而感到遺憾。
將決策外包給人工智慧的危險
這三個步驟都不是很難採取的。 但是,對大多數人來說,它們也不直觀。 做出深思熟慮且站得住腳的決定需要練習和自律。
這就是人工智慧帶給人們的隱藏危害所在:人工智慧的大部分「思考」都是在幕後進行的,並向使用者提供脫離上下文和深思熟慮的答案。
更糟的是,人工智慧剝奪了人們練習自己做出深思熟慮和合理決策的機會。
考慮一下當今人們如何做出許多重要決定。 眾所周知,人類容易產生各種偏見,因為我們在消耗精神能量時往往很節儉。
這種節儉讓人們喜歡為他們做出看似良好或值得信賴的決定。 我們是社會性動物,往往更重視社區的安全和接受度,而不是自己的自主權。
將人工智慧添加到其中,結果是一個危險的反饋循環:人工智慧為演算法提供支援的數據是由人們的偏見決策組成的,這些決策也反映了從眾的壓力,而不是批判性推理的智慧。
但因為人們喜歡有人為他們做出決定,所以他們傾向於接受這些糟糕的決定並繼續下一個決定。 最終,我們和人工智慧都不會變得更明智。
AI時代的思考
認為人工智慧不會為社會帶來任何好處的觀點是錯誤的。
它很可能會發生,特別是在網路安全、醫療保健和金融等領域,這些領域需要定期快速分析複雜的模型和大量數據。
然而,我們大多數的日常決策並不需要這種分析能力。
但無論我們是否要求,我們中的許多人已經在從娛樂和旅行到學業、醫療保健和金融等各種環境中收到了人工智慧的建議並完成了人工智慧的工作。
設計師們正在努力開發下一代人工智慧,它將能夠自動化我們更多的日常決策。 在我看來,這是危險的。
在一個人們的思維方式和思維方式已經因為社群媒體演算法而受到圍攻的世界裡,如果我們允許人工智慧達到可以做出各種決策的複雜程度,我們就有可能將自己置於更危險的境地。代表我們。
事實上,我們有責任抵抗人工智慧的誘惑,奪回身為人類的真正特權和責任:能夠為自己思考和選擇。 如果我們這樣做的話,我們會感覺更好,更重要的是,我們會變得更好。
對此有什麼想法嗎? 請在下面的評論中給我們留言,或將討論轉移到我們的 Twitter 或 Facebook。
編輯推薦:
- 為什麼人工智慧時代空中交通管制仍然需要人性化
- ChatGPT 和其他語言人工智慧和我們一樣非理性
- 學生如何利用人工智慧來控制他們的 Python 技能
- 自動賽車增強人工智慧,打造更安全的無人駕駛汽車
編者註:本文由南加州大學多恩西夫文學、藝術與科學學院瑞格利環境與永續發展研究所所長、Dana 和David Dornsife 心理學教授Joe Árvai 撰寫,並根據Creative Commons 許可從The Conversation重新發布。 閱讀原文。