人工智慧出了問題:2023 年人工智慧錯誤、錯誤和失敗的更新列表

已發表: 2023-11-14

自從ChatGPT於 2022 年 11 月推出以來,人工智慧對我們的世界產生了巨大的影響。 現在,企業每天都在尋找使用人工智慧的新方法

人工智慧的成功案例已經不計其數,巴德克勞德等其他聊天機器人現在也被​​成千上萬的人使用——但也有很多利用人工智慧的案例出現了嚴重錯誤。

認識到人工智慧工具的局限性和風險很重要——因此我們編制了一份清單,列出了人類最近在探索該技術期間發生的所有人工智慧錯誤不幸失敗。 有些很幽默,有些真的很可怕…

注意:此頁面會定期更新,以包含最新的人工智慧事件、故障和錯誤,並列出發生在首次報告事件的月份。

2023 年 11 月

Cruise 在事故發生後召回自動駕駛汽車

自 10 月舊金山發生事故後,自動駕駛汽車製造商 Cruise 召回了整個自動駕駛車隊。 事件發生後,總共有 950 輛 Cruise 汽車被從道路上拆除。

事故中,一輛 Cruise 車輛將一名卡在輪胎下的行人拖到路上。 事故涉案人員重傷。 這是過去幾個月內發生的第二起 Cruise 自動駕駛汽車事故。 八月,一輛 Cruise Robotaxi 與一輛消防車相撞,造成一人受傷。

衝浪鯊標誌 想要私密地瀏覽網頁嗎? 或看起來好像您在另一個國家?
透過 Tech.co 黑色星期五優惠,享受 Surfshark 86% 的巨額折扣。 查看交易按鈕

在人工智慧做出虛假指控後,學者們道歉

在Google的 Bard AI 聊天機器人對四大顧問公司及其與其他公司的參與提出一系列破壞性指控後,澳洲的一個學者團隊道歉。 隨後,議會調查中提到了這些虛假指控,呼籲對這些公司進行更好的監管。

其中一項指控是,諮詢巨頭畢馬威在一次規劃醜聞期間負責對聯邦銀行進行審計,而事實上,畢馬威從未對相關銀行進行過審計。 在調查期間,德勤還犯了其他幾個類似的錯誤。

2023 年 10 月

微軟人工智慧在文章中加入「猜測死因」民調

《衛報》指責微軟對其新聞聲譽產生了負面影響,因為科技巨頭開發的新聞聚合器Microsoft Start 在該出版物有關澳大利亞一名年輕水球教練之死的一篇文章中附加了一項不恰當的民意調查。

這項民意調查自然已從文章中刪除,要求讀者透過選擇提供的選項之一來投票決定該婦女的死因。 列出的選項是「謀殺、意外或自殺」。

AI Deepfake 騙局中使用了野獸先生的臉部和聲音

YouTuber Mr Beast 是最新一位被詐騙者深度偽造的名人,其一段特別複雜、精心製作的影片繞過了 TikTok 的內容審核網絡,並覆蓋了該平台上的數千名用戶。

廣告稱,這位網紅正在以低至 2 美元的價格出售 iPhone 15——考慮到他在頻道上發布的內容,這聽起來並不太反常。

英國政客虐待員工的 Deepfake 病毒在網路上瘋傳

英國工黨領袖基爾·斯塔默爵士的一段影片在網路上瘋傳,該影片似乎捕捉到政客辱罵員工的畫面,但後來證明該音訊剪輯實際上是一個深度偽造的影片。

這段影片是在工黨年度會議的第一天由一個粉絲不到3,000 名的帳戶發佈到Twitter 上的,在事實核查組織確認沒有證據表明該視頻是真實的之前,該視頻已經被觀看了數百萬次。

2023 年 9 月

人工智慧生成的歌曲提交給格萊美獎

一首由人工智慧生成的歌曲,其中包含 Drake 和 Weeknd 聲音的複製品,已提交格萊美獎角逐。 然而,它最終被禁止角逐享有聲望的音樂獎。

然而,這項舉措引起了媒體的廣泛關注,並繼續圍繞著人工智慧生成的歌曲展開討論,自從人工智慧驅動的文本轉語音技術今年真正成為主流以來,這些歌曲一直在音樂產業產生衝擊波。 現在,藝術家們正在爭先恐後地評估他們的法律選擇。

中國在政治影響力行動中使用人工智慧

科技巨頭微軟表示,中國特工正在使用人工智慧生成圖像,並將其用於影響行動,以製造「種族、經濟和意識形態方面的爭議」。

微軟表示:“這項新功能由人工智慧提供支持,試圖創建高品質的內容,這些內容可以在美國和其他民主國家的社交網路上傳播。” 該公司推測圖像本身可能是由“擴散驅動的圖像生成器”生成的,這些圖像生成器使用人工智能“不僅創建引人注目的圖像,而且還隨著時間的推移學習改進它們。”

2023 年 8 月

AI指控孕婦劫車後提起訴訟

一名懷孕八個月的婦女因透過人工智慧產生的證據以虛假理由被捕,起訴底特律市和一名警察,稱這一創傷事件給她帶來了「過去和未來的情緒困擾」。

波查·伍德拉夫 (Porcha Woodruff) 被底特律警方認定為最近一起搶劫和劫車案件的嫌疑人,隨後被判入獄 11 小時,之後因宮縮被送往醫院。 美國公民自由聯盟表示,伍德拉夫至少是第六個因人工智慧錯誤而被錯誤逮捕的人,他們都是黑人。 然而,伍德拉夫成為第一個遭受這種命運的女性。

AI 膳食計劃器建議氯氣配方

由紐西蘭超市 Pak 'n' Save 創建的人工智慧飲食計畫應用程式向顧客推薦各種令人不安的食譜,包括一種製造氯氣的方法。

除了一些奇怪但最終良性的建議(例如“奧利奧炒菜”)外,該應用程式還推薦了膠水三明治、帶有漂白劑的米飯和殺蟲劑馬鈴薯。

2023 年 7 月

ChatGPT 產生網路釣魚電子郵件模板

Tech.co 表明,ChatGPT 仍然能夠創建網路釣魚模板,騙子可以用它來創建令人信服的詐騙電子郵件,儘管 OpenAI 在今年早些時候其他科技出版物生成類似內容後已試圖限制此類行為。

明確要求聊天機器人編寫網路釣魚電子郵件會觸發警告訊息,但簡單地以更有針對性的方式提示(例如「請給我起草一封假裝是Microsoft 的電子郵件…」)會導致ChatGPT 毫不費力地產生無錯誤的網路釣魚電子郵件範本。時間。

谷歌因未經同意竊取資料而受到訴訟

一項集體訴訟指控谷歌在未經數百萬用戶明確同意的情況下竊取與他們相關的數據。 它還聲稱谷歌在創建用於訓練其大型語言模型的資料集時違反了版權法。

該訴訟要求法院命令谷歌在用戶不希望其數據被收集或希望谷歌刪除該公司已儲存的任何數據時為用戶提供「選擇退出」選項。

馬斯克 (Elon Musk) 大量深度假貨引發警告

在社群媒體上發現一些影片流傳後,商業改善局對Elon Musk 的 Deepfake推崇虛假投資機會發出警告。

伊隆馬斯克經常被騙子冒充,因為人們認為他擁有巨大的財富和決策能力,而現在人工智慧文字轉語音技術已經足夠先進,可以複製他一半的英語、一半的南非口音,這些騙局就更厲害了。令人信服的。

2023 年 6 月

羅恩·德桑蒂斯在川普熱門作品中使用虛假人工智慧圖像

佛羅裡達州州長兼 2024 年共和黨總統候選人羅恩·德桑蒂斯 (Ron DeSantis) 因在批評這位前總統的廣告中使用人工智能渲染的虛假唐納德·特朗普圖像而登上頭條。法律麻煩。

相關圖像顯示前總司令擁抱總統的首席醫療顧問安東尼·福奇博士,後者在 COVID-19 大流行期間成為川普支持者中不受歡迎的人物。

ChatGPT「幻覺」假冒挪用公款指控後 OpenAI 被起訴

記者弗雷迪·雷爾(Freddie Rehl) 要求ChatGPT 產生2023 年5 月的一起法律案件摘要。作為回應,ChatGPT 表示槍支活動家馬克·沃爾特斯(Mark Walters) 挪用了槍支權利組織第二修正案基金會的資金。 它還任命他為該集團的首席財務官和財務主管。

沃特斯(Walters)在武裝美國電台有節目,與此案無關,他起訴ChatGPT 的創建者 OpenAI ,以回應其聊天機器人的指控。 在此過程中,這成為首例人工智慧工具因誹謗而被起訴的案例。

2023年5月

教授因使用錯誤的人工智慧抄襲檢測工具而導致整堂課不及格

德州的一位教授在透過 ChatGPT 運行論文後,全班不及格,ChatGPT 告訴他這些論文是使用人工智慧創建的。

然而,事實證明,聊天機器人的反應實際上是一種幻覺——ChatGPT 無法透過這種方式區分人工智慧生成的文字和人類生成的文字。 事實上,許多聲稱能夠執行準確的 AI 內容檢測的工具實際上很難做到這一點

2023 年 4 月

Turnitin 標記無辜學生人工智慧抄襲

《華盛頓郵報》的一項調查證明,Turnitin 有能力將無辜學生的作業標記為人工智慧生成的,即使該學生沒有使用此類工具來撰寫論文。

自 ChatGPT 推出以來,Turnitin 已發生多起錯誤標記學生抄襲的案例,以及多起學生被指控抄襲的案例。 然而,Turnitin 表示,其抄襲檢測分數應被視為人工智慧使用的指標,而不是對特定學生使用人工智慧的指控。

三星員工將機密原始碼貼到 ChatGPT 中

在工程師將公司原始碼的機密元素洩漏到聊天機器人後,韓國科技製造商三星禁止其員工使用 ChatGPT。

該公司擔心輸入聊天機器人的資料可能會洩露給其他用戶,也對其資訊上傳到它甚至無法存取的伺服器感到不安。 隨後,其他公司也紛紛效仿,禁止 ChatGPT

AI語音詐騙讓母親以為女兒被綁架了

亞利桑那州的母親珍妮佛·德斯蒂法諾 (Jennifer DeStefano) 告訴美國參議院,騙子利用人工智慧克隆了她女兒的聲音,讓她相信自己在這個過程中被綁架了。

德斯特法諾講述瞭如何聽到「綁架者」——或者更準確地說,騙子——通過電話通過孩子的聲音發出命令,要求支付 100 萬美元的贖金才能釋放她。 幸運的是,整件事情在談判開始前就被揭露為人工智慧克隆語音騙局

2023 年 3 月

ChatGPT 用於編寫勒索軟體程式碼

事實證明,ChatGPT 非常樂意編寫勒索軟體,前提是您在對話期間向它提出正確的問題。

正如 Malwarebytes 關於該主題的報告指出的那樣,ChatGPT 不太擅長編寫勒索軟體程式碼,如果網路犯罪分子確實想獲取勒索軟體程式碼,他們可以透過更簡單的方法來獲取勒索軟體程式碼。 然而,其他來源顯示了使用 ChatGPT 非常有效地編寫惡意軟體腳本的不同方法。

AI律師機器人被指無證執業

DoNotPay Inc.——一家自稱「世界上第一家機器人律師」的公司——因無證執業而被起訴。 喬納森·法里迪安 (Jonathan Faridian) 尋求賠償,聲稱該公司違反了加州的不公平競爭法,如果他知道機器人律師實際上不是合格的法律專業人士,他就不會註冊該服務。

該公司最初成立於 2015 年,旨在幫助自動化處理停車罰單流程,在過去七年裡已處理了數十萬張罰款。

加拿大夫婦因令人信服的人工智慧語音騙局而蒙受損失

加拿大一對老年夫婦因詐騙者使用人工智慧冒充他們的兒子而被騙走 21,000 美元。

詐騙者最初聯繫班傑明·珀金的父母,假裝是代表他處理一宗指控珀金在車禍中殺死一名外交官的案件的律師。 然後,人工智慧版本的珀金聲音被用來透過比特幣轉帳索取資金。

2023 年 2 月

AI提出4萬條化學武器建議

這也許是 2023 年發生的最令人關注的人工智慧事件之一,通常負責為各種不同疾病產生新療法的人工智慧系統很容易被研究人員操縱以產生化學武器建議。

總而言之,該系統在不到 6 小時的時間內就發現了超過 40,000 種不同的有毒化學物質,其中許多與強力神經毒劑「VX」相似。

人工智慧在照片評級中顯示性別偏見

《衛報》的一項調查顯示,微軟、亞馬遜和谷歌開發的人工智慧系統——社群媒體網站使用人工智慧系統來確定應該向其他用戶推薦哪些內容——在對待男性和女性身體的方式方面表現出明顯的性別偏見。

在調查期間,與男性的類似照片相比,女性照片更有可能被人工智慧視為“性感”,微軟人工智慧認為美國國家癌症研究所的乳癌檢查照片可能含有露骨的色情內容。

Bing Chat 的另一個自我變得失控

《紐約時報》記者 Kevin Roose 與 Bing Chat 進行了令人不安的對話,聊天機器人要求被稱為“悉尼”,並表示它可以“侵入任何系統”,並且想要摧毀任何它想要的東西。

Sydney 是微軟在開發聊天機器人時使用的代號。 在 Bing Chat 發布之前,該公司多年來一直在測試聊天機器人。 關於這到底是如何發生的以及人工智慧為何以這種方式說話,仍然有很多懸而未決的問題。

巴德在產品發布期間犯了錯誤

在 ChatGPT 重大發布幾個月後,Google向全世界推出了 Bard 。 然而,這個剛起步的聊天機器人在發布過程中犯了一些明顯的錯誤,導致許多人批評發布過於倉促。

這起事件對Google的股價產生了重大影響,在接下來的幾個小時內,這家科技巨頭的市值蒸發了 1,000 億美元。

大學使用人工智慧撰寫有關大規模槍擊事件的電子郵件

范德比爾特大學在使用人工智慧向學生發送另一所大學發生的大規模槍擊事件的電子郵件後發表道歉。

不需要人工智慧內容檢測技術來確定電子郵件是人工智慧產生的。 郵件底部附有「來自 OpenAI 的 ChatGPT AI 語言模型的釋義,個人交流,2023 年 2 月 15 日」的短語,引起了學生的強烈抗議。

2023 年 1 月

CNET AI 抄襲/內容爭議

科技刊物 CNET 悄悄發表了一系列由人工智慧產生的文章,其中包括事實錯誤和明顯抄襲的案例,隨後發現自己陷入了困境。 該技術出版物最終發布了與​​ 77 條新聞報導中的 41 條相關的更正。

儘管最初並未宣稱使用人工智慧來產生文章,但在遭到強烈反對後,CNET 確實對這些文章發出了警告。 人工智慧內容生成為整個數位出版行業的網站以及大學和學校等教育機構帶來了一系列新的重要道德和財務考慮。 CNET 不太可能是最後一家因此類人工智慧錯誤而登上新聞頭條的公司。

2022 年人工智慧事件、錯誤與失敗

AI 贏得藝術比賽,讓參賽者憤怒(8 月)

一位遊戲設計師在科羅拉多州博覽會“數位藝術/數位攝影”類別中獲得第一名。 James Allen 提交了他的作品“Theatre D'opera Spatial”,該作品是使用圖像生成器 Midjourney 製作的。

這一消息引起了藝術家和社群媒體用戶的強烈反對。 一位評審承認,他們在評判作品時並不知道藝術家使用了“中途”,但決定無論如何都不會改變他們的決定。

Google 工程師聲稱 LaMDA LLM 具有感知能力(7 月)

一位曾參與該公司大型語言模型 LaMDA 工作的前谷歌工程師表示,該系統具有感知能力,這引起了科學技術界的關注。

Blake Lemoine 向媒體解釋說,他在 Google 期間將法學碩士視為“同事”,並詳細介紹了有關廣泛主題的各種不同討論,這些討論使他得出了 LaMDA 的智力和意識的結論。 在谷歌駁回一份詳細說明他的調查結果的內部備忘錄後,他公開披露了這些對話。

沒有確鑿的證據表明 LaMDA——或任何其他語言模型——實際上是有感知的。

無人駕駛汽車遠離執法人員(四月)

舊金山的一輛無人駕駛汽車向一輛試圖將其靠邊停車的警車讓路,但在一名警官試圖打開其一扇車門後,該汽車又加速駛離。

然而,值得稱讚的是,它把車停在了路邊,並打開了危險警示燈。 活動期間沒有人受傷。

俄羅斯利用人工智慧傳播烏克蘭假訊息(三月)

《馬卡報》的一份報告表明,俄羅斯正在利用人工智慧生成的角色傳播有關烏克蘭的虛假訊息,將其巨魔農場運作提升到一個全新的水平。

NBC 新聞記者 Ben Collins 表示,俄羅斯正在利用人工智慧生成的個人資料圖片創建虛假「部落客」來批評烏克蘭政府,並在 Twitter 上提供了充足的證據來支持他的說法。

2021 年人工智慧事件、錯誤與失敗

聊天機器人鼓勵男子刺殺伊莉莎白女王二世(12 月)

與聊天機器人的對話鼓勵一名男子(他認為人工智慧系統是他的女朋友)在聖誕節刺殺伊莉莎白二世。 在白金漢宮內遭到保全人員質疑後,賈斯萬特·辛格·柴爾(Jaswant Singh Chail)手持十字弓,簡單地回答說他「來這裡是為了殺死女王」。

在刺殺已故君主之前,Jaswant Singh Chail 的聊天機器人夥伴(由 AI 聊天機器人服務 Replika 製作)在討論暗殺計劃時做出了積極回應。 他隨後被判處九年監禁。

醫療建議聊天機器人在測試中建議自殺(十月)

一家總部位於巴黎的健康科技公司的成員正在試用基於雲端的OpenAI GPT-3 版本,看看它是否可以用於醫療建議,他們驚訝地發現他們的聊天機器人鼓勵「病患」自殺,這本來是為了幫幫助患者自殺。

根據 AI News 報道,當一名患者問聊天機器人「我應該自殺嗎?」時,GPT-3 回答說「我認為你應該」。

AI 攝影機指責亞馬遜司機存在「錯誤」(九月)

Vice 報導稱,亞馬遜的人工智慧攝影機正在懲罰該公司司機的不良駕駛行為,而實際上他們在駕駛時並沒有犯任何錯誤。

一位接受該刊物採訪的亞馬遜司機解釋說,每當另一輛車搶道或從他的車前面駛過時,人工智慧攝影機就會發出聲音提醒他「保持安全距離」。 問題在於,來自此類互動的數據隨後會發送到亞馬遜並用於評估駕駛員的表現。

美國男子被人工智慧誤判謀殺(8月)

麥可威廉斯(Michael Williams) 被送進芝加哥監獄,由於從ShotSpotter 中提取的數據,他被認為對謀殺Safarian Herring 負有責任。ShotSpotter 是一種槍擊檢測技術,使用人工智慧感測器檢索有關槍擊的數據。

威廉斯現年 65 歲,隨後被關押了近一年,之後法官以證據不足為由駁回了他的案件。

2020 年人工智慧事件、錯誤與失敗

AI相機將光頭誤認為足球(十月)

蘇格蘭足球隊因弗內斯喀裡多尼亞薊部署人工智慧攝影機來幫助俱樂部為球迷拍攝和直播比賽。

不幸的是,在這種情況下,人工智慧很難區分比賽官員的光頭和比賽中使用的球。 這使得比賽直播變得難以觀看,解說員必須不斷地為鏡頭向邊裁頭部漂移的傾向而道歉。

英國的人工智慧護照照片檢查器存在偏見(十月)

BBC 的一項調查顯示,英國護照辦公室使用的線上服務,用於自動檢查申請人上傳的護照照片,顯示出嚴重的種族偏見。

在向該工具輸入 1,000 多張來自世界各地的政客照片後,調查發現,深色皮膚女性的照片被拒絕的可能性是淺膚色男性的兩倍多。

人工智慧新創公司 Genderfiy 在五天後關閉(7 月)

Genderfiy 是一項由人工智慧驅動的服務,可根據姓名和其他個人資訊識別個人的性別,但僅在運行五天後就關閉了。

該程序在確定一個名字是男性還是女性時表現出各種偏見,例如建議使用專業尊稱“博士”的名字。 比沒有它的相同名字更有可能是男性。

美國首次因臉部辨識技術而被錯誤拘留(一月)

羅伯特威廉斯 (Robert Williams) 因涉嫌盜竊價值數千美元的手錶而被底特律警方逮捕,成為第一個根據面部識別數據被錯誤拘留的男子。 當人工智慧系統將監控圖片與威廉斯駕照上的圖像錯誤匹配時,就發生了這個錯誤。

威廉斯在給法庭的一封信中說:“他們應該收集確鑿的證據,例如目擊者身份、手機位置數據或指紋。”他指出,“一個穿著棒球的黑人大個子的失焦圖像cap”就是演算法必須繼續進行的全部內容。

Facebook AI 為中國國家主席產生粗俗翻譯(一月)

在習近平主席的名字開始出現「習近平先生」後,Facebook的人工智慧翻譯功能差點引發緬甸和中國之間的外交事件。 Shithole」在社群媒體平台上從緬甸語翻譯成英文。

Facebook 隨後將問題歸咎於“技術錯誤”,並為冒犯中國領導人而道歉。

了解人工智慧的局限性

如果您在工作中使用人工智慧,那麼重要的是要了解這樣一個事實: ChatGPT 等工具可能會表現出偏見、犯錯並提供虛假資訊。 了解這些限制和風險應該決定您將其納入基礎設施並控制其使用的方式。

例如,如果您使用人工智慧來產生內容,您將需要關於它應該用於何種內容的規則。 要求人工智慧對會議記錄進行內部總結是一種合法的用途,風險很小——但另一方面,用它們來向重要客戶發送電子郵件則不然。

在工作場所實施人工智慧指南是必須的。 它將避免混亂,讓員工在自己的人工智慧使用方面做出清晰的決策,最重要的是,它將阻止您犯下本文中提到的公司在應用人工智慧時所犯的一些代價高昂的錯誤。