人工智能 (AI) 危險嗎?

已發表: 2023-05-31

2023 年 5 月 22 日星期一,一個名為“Bloomberg Feed”的經過驗證的 Twitter 帳戶分享了一條推文,聲稱五角大樓發生了爆炸,並附有一張圖片。 如果你想知道這與人工智能 (AI) 有什麼關係,這張圖片是人工智能生成的,這條推文迅速傳播開來並引發了短暫的股市下跌。 事情本可以更糟——這清楚地提醒人們人工智能的危險。

人工智能的危險

我們需要擔心的不僅僅是假新聞。 有許多與人工智能相關的直接或潛在風險,從涉及隱私和安全的風險到偏見和版權問題。 我們將深入探討其中一些人工智能危險,看看現在和將來正在採取哪些措施來減輕這些危險,並詢問人工智能的風險是否超過了收益。

目錄

    假新聞

    當 deepfakes 首次登陸時,人們擔心它們可能會被惡意使用。 對於新一波的 AI 圖像生成器,如 DALL-E 2、Midjourney 或 DreamStudio,也可以這樣說。 2023 年 3 月 28 日,偽造的 AI 生成了教皇弗朗西斯身著白色 Balenciaga 羽絨服並享受滑板和打撲克等多項冒險的圖像在網上瘋傳。 除非你仔細研究圖像,否則很難將這些圖像與真實事物區分開來。

    雖然教皇的例子無疑有點有趣,但關於五角大樓的圖片(和隨附的推文)卻一點也不有趣。 AI 生成的虛假圖像有能力損害聲譽、結束婚姻或事業、製造政治動盪,如果被錯誤的人使用,甚至會引發戰爭——簡而言之,這些 AI 生成的圖像如果被濫用,可能會帶來巨大的危險。

    現在任何人都可以免費使用 AI 圖像生成器,並且 Photoshop 在其流行的軟件中添加了 AI 圖像生成器,因此操縱圖像和製造假新聞的機會比以往任何時候都大。

    隱私、安全和黑客攻擊

    當涉及到人工智能的風險時,隱私和安全也是巨大的擔憂,許多國家已經禁止 OpenAI 的 ChatGPT。 出於隱私方面的考慮,意大利已禁止該模型,認為它不符合歐洲通用數據保護條例 (GDPR),而中國、朝鮮和俄羅斯政府則因擔心它會傳播錯誤信息而禁止它。

    那麼,為什麼我們在人工智能方面如此關注隱私呢? 人工智能應用程序和系統收集大量數據以學習和做出預測。 但是這些數據是如何存儲和處理的呢? 確實存在數據洩露、黑客攻擊和信息落入壞人之手的風險。

    面臨風險的不僅僅是我們的個人數據。 AI 黑客攻擊是一個真正的風險——它還沒有發生,但如果那些懷有惡意的人可以侵入 AI 系統,這可能會產生嚴重的後果。 例如,黑客可以控制無人駕駛車輛,入侵 AI 安全系統以進入高度安全的位置,甚至可以入侵具有 AI 安全性的武器系統。

    美國國防部國防高級研究計劃局 (DARPA) 的專家認識到這些風險,並已著手開展 DARPA 的保證 AI 魯棒性反欺騙 (GARD) 項目,從頭開始解決這個問題。 該項目的目標是確保將對黑客攻擊和篡改的抵抗力內置到算法和人工智能中。

    侵犯版權

    人工智能的另一個危險是侵犯版權。 這聽起來可能不像我們提到的其他一些危險那麼嚴重,但是像 GPT-4 這樣的 AI 模型的發展讓每個人都面臨更大的侵權風險。

    每次你要求 ChatGPT 為你創建一些東西——無論是關於旅行的博客文章還是你的企業的新名稱——你都在向它提供信息,然後它會使用這些信息來回答未來的查詢。 它反饋給你的信息可能會侵犯他人的版權,這就是為什麼使用剽竊檢測器並在發布之前編輯 AI 創建的任何內容如此重要的原因。

    社會和數據偏見

    人工智能不是人類,所以它不能有偏見,對吧? 錯誤的。 人和數據被用來訓練人工智能模型和聊天機器人,這意味著有偏見的數據或個性會導致有偏見的人工智能。 人工智能有兩種偏見:社會偏見和數據偏見。

    日常生活中存在許多偏見,當這些偏見成為人工智能的一部分時會發生什麼? 負責訓練模型的程序員可能會有偏見,然後進入人工智能係統。

    或者,用於訓練和開發 AI 的數據可能是不正確的、有偏見的或惡意收集的。 這會導致數據偏差,這可能與社會偏見一樣危險。 例如,如果面部識別系統主要使用白人的面部進行訓練,它可能很難識別少數群體的面部,從而使壓迫永久化。

    機器人搶走了我們的工作

    ChatGPT 和 Google Bard 等聊天機器人的發展引發了圍繞 AI 的全新擔憂:機器人將搶走我們工作的風險。 我們已經看到科技行業的作家被 AI 取代,軟件開發人員擔心他們的工作會被機器人搶走,還有公司使用 ChatGPT 來創建博客內容和社交媒體內容,而不是僱用人類作家。

    根據世界經濟論壇的《2020 年就業前景報告》,預計到 2025 年人工智能將在全球範圍內取代 8500 萬個工作崗位。即使人工智能不會取代作家,它也已經被許多人用作工具。 那些面臨被 AI 取代風險的工作可能需要適應才能生存——例如,作家可能成為 AI 提示工程師,使他們能夠使用 ChatGPT 等工具來創建內容,而不是被這些模型取代。

    未來潛在的人工智能風險

    這些都是直接或迫在眉睫的風險,但我們在未來可能看到的人工智能的一些不太可能但仍有可能的危險呢? 這些包括諸如人工智能被編程為傷害人類之類的東西,例如,訓練有素的自主武器可以在戰爭中殺人。

    然後存在這樣的風險,即人工智能可能會一心一意地專注於其編程目標,在它試圖不惜一切代價實現該目標時發展出破壞性行為,即使人類試圖阻止這種情況發生。

    天網告訴我們當 AI 變得有知覺時會發生什麼。 然而,儘管谷歌工程師 Blake Lemoine 可能試圖讓所有人相信谷歌的人工智能聊天機器人生成器 LaMDA 早在 2022 年 6 月就具有感知能力,但值得慶幸的是,迄今為止還沒有證據表明這是真的。

    人工智能監管的挑戰

    202 年 5 月 15 日,星期一,OpenAI 首席執行官山姆奧特曼出席了關於人工智能的第一次國會聽證會,他警告說:“如果這項技術出了問題,它可能會大錯特錯。” OpenAI CO 明確表示他支持監管,並在聽證會上提出了許多自己的想法。 問題是 AI 正在以如此快的速度發展,很難知道從哪裡開始監管。

    國會希望避免重蹈社交媒體時代初期的覆轍,專家團隊與參議院多數黨領袖查克舒默一起制定了法規,要求公司披露他們用於訓練模型的數據源以及培訓對象。訓練了他們。 不過,人工智能的監管方式可能還需要一段時間才能變得清晰,而且毫無疑問,人工智能公司會強烈反對。

    人工智能的威脅

    還有創建通用人工智能 (AGI) 的風險,它可以完成人類(或動物)可以執行的任何任務。 在科幻電影中經常提到,我們距離這樣的創造可能還有幾十年的時間,但如果我們真的創造了 AGI,它可能會對人類構成威脅。

    許多公眾人物已經認同人工智能對人類構成生存威脅的信念,包括史蒂芬霍金、比爾蓋茨,甚至前谷歌首席執行官埃里克施密特,他表示,“人工智能可能帶來生存風險,政府需要知道如何確保這項技術不會被壞人濫用。”

    那麼,人工智能是否危險,其風險是否大於其收益? 目前還沒有定論,但我們已經看到了我們周圍存在的一些風險的證據。 其他危險不太可能很快實現,如果有的話。 不過有一點很明確:人工智能的危險不容低估。 至關重要的是,我們要確保從一開始就對 AI 進行適當監管,以最大限度地減少並有望減輕任何未來的風險。