2024 年人工智慧挑戰:三位領先人工智慧研究人員的見解

已發表: 2024-01-13

2023 年是人工智慧發展及其在社會中的作用的轉捩點。

這一年見證了生成式人工智慧的出現,使該技術從默默無聞的地方走向了公眾想像中的中心舞台。 一家人工智慧新創公司的董事會戲劇連續幾天佔據新聞週期。

拜登政府發布了一項行政命令,歐盟也通過了一項旨在監管人工智慧的法律,這些舉措或許最貼切的描述是試圖給已經奔騰的馬套上韁繩。

我們組成了一個人工智慧學者小組來展望 2024 年,描述人工智慧開發人員、監管機構和普通人可能面臨的問題,並給予他們的希望和建議。


Casey Fiesler,科羅拉多大學博爾德分校資訊科學副教授

2023 年是人工智慧炒作的一年。 無論人工智慧將拯救世界還是毀滅世界,人們常常感覺到人工智慧有一天可能會成為什麼樣的願景壓倒了當前的現實。

儘管我認為預測未來的危害是克服技術道德債務的關鍵組成部分,但過於沉迷於炒作可能會導致人工智慧的願景看起來更像是魔法,而不是仍然可以透過明確選擇來塑造的技術。

但要取得控制權需要更了解該技術。

2023 年人工智慧的主要論點之一是圍繞著 ChatGPT 和類似聊天機器人在教育中的作用。

去年的這個時候,最相關的頭條新聞都集中在學生如何利用它作弊,以及教育工作者如何努力阻止他們這樣做——而這種方式往往弊大於利。

然而,隨著時間的推移,人們意識到,未能向學生教授人工智慧可能會讓他們處於不利地位,許多學校取消了禁令。

我認為我們不應該改革教育,將人工智慧置於一切的中心,但如果學生不了解人工智慧的工作原理,他們就不會理解它的局限性——因此也不會理解它如何有用和適合使用和使用。怎麼不是。

這不僅適用於學生。 人們越了解人工智慧的工作原理,就越有能力使用它並批評它。

因此,我對 2024 年的預測,或者說我的希望是,學習將會受到巨大推動。

1966 年,ELIZA 聊天機器人的創建者約瑟夫·魏森鮑姆(Joseph Weizenbaum) 寫道,機器“通常足以讓最有經驗的觀察者眼花繚亂”,但一旦它們“用足夠簡單的語言解釋內部運作以促進理解,它的魔力就會崩潰」 」。

生成式人工智慧面臨的挑戰在於,與 ELIZA 非常基本的模式匹配和替換方法相比,找到「足夠簡單」的語言來使人工智慧魔法崩潰要困難得多。

我認為這是有可能實現的。 我希望那些急於聘請更多人工智慧技術專家的大學也能在聘請人工智慧倫理學家方面做出同樣的努力。 我希望媒體能夠幫助消除炒作。 我希望每個人都能反思自己對這項技術的使用及其後果。

我希望科技公司在考慮哪些選擇繼續塑造未來時聽取明智的批評。未來一年的許多挑戰都與社會已經面臨的人工智慧問題有關。


Kentaro Toyama,密西根大學社區資訊教授

1970 年,人工智慧先驅和神經網路懷疑論者馬文·明斯基 (Marvin Minsky) 對《生活》雜誌表示:“三到八年內,我們將擁有一台具有普通人一般智能的機器。”

有了奇點,人工智慧與人類智慧相匹配並開始超越人類智慧的那一刻(還沒有完全到來)可以肯定地說,明斯基至少落後了 10 倍。對人工智慧做出預測是危險的。

儘管如此,對未來一年進行預測似乎並沒有那麼冒險。 2024 年人工智慧可以期待什麼?

首先,比賽開始了! 自明斯基全盛時期以來,人工智慧領域的進展一直很穩定,但 2022 年 ChatGPT 的公開發布引發了一場對利潤、榮耀和全球霸權的全面競爭。

除了大量新的人工智慧應用程式之外,還期待更強大的人工智慧。

最大的技術問題是,人工智慧工程師能夠多快、多徹底地解決當前深度學習的致命弱點——所謂的廣義硬推理,例如演繹邏輯。

對現有神經網路演算法進行快速調整是否就足夠了,還是需要像神經科學家加里·馬庫斯(Gary Marcus)建議的那樣採用根本不同的方法?

大批人工智慧科學家正在研究這個問題,所以我預計 2024 年會取得一些進展。

同時,新的人工智慧應用也可能帶來新的問題。 您可能很快就會開始聽說人工智慧聊天機器人和助手相互交談,在您背後代表您進行整個對話。

其中一些會失控——滑稽地、悲劇性地或兩者兼而有之。

儘管監管剛剛起步,但難以檢測的 Deepfakes、人工智慧生成的圖像和影片可能會猖獗,對各地的個人和民主國家造成更多卑鄙傷害。 很可能會出現新的人工智慧災難,這在五年前是不可能的。

說到問題,那些對人工智慧發出最響亮警報的人——比如馬斯克和薩姆奧爾特曼——似乎無法阻止自己建造更強大的人工智慧。

我希望他們繼續做更多同樣的事情。 他們就像縱火犯一樣,自焚,請求當局製止他們。

沿著這些思路,我對 2024 年最希望的——儘管來得緩慢——是在國家和國際層面加強人工智慧監管。


Anjana Susarla,密西根州立大學資訊系統教授

自 ChatGPT 推出以來的一年裡,生成式人工智慧模型的發展仍在以令人眼花撩亂的速度發展。

與一年前的 ChatGPT 不同的是,ChatGPT 將文字提示作為輸入並產生文字輸出,新型生成式 AI 模型被訓練為多模態,這意味著用於訓練它們的資料不僅來自文字來源,例如維基百科和Reddit,也來自YouTube 上的影片、Spotify 上的歌曲以及其他音訊和視訊訊息。

借助為這些應用程式提供支援的新一代多模式大語言模型 (LLM),您不僅可以使用文字輸入來產生圖像和文本,還可以產生音訊和視訊。

公司正在競相開發可以部署在各種硬體和各種應用程式上的法學碩士,包括在智慧型手機上運行法學碩士。

這些輕量級法學碩士和開源法學碩士的出現可能會迎來一個自主人工智慧代理的世界——一個社會不一定做好準備的世界。

這些先進的人工智慧功能為從商業到精準醫療的各種應用提供了巨大的變革力量。

我主要擔心的是,這種先進的功能將為區分人類生成的內容和人工智慧生成的內容帶來新的挑戰,並帶來新類型的演算法危害。

生成式人工智慧產生的大量合成內容可能會帶來一個惡意人員和機構可以製造合成身份並策劃大規模錯誤訊息的世界。

大量人工智慧產生的內容,旨在利用演算法過濾器和推薦引擎,可能很快就會壓倒搜尋引擎、社交媒體平台和數位服務提供的資訊驗證、資訊素養和意外發現等關鍵功能。

美國聯邦貿易委員會對人工智慧輔助內容創作的便利性所導致的欺詐、欺騙、侵犯隱私和其他不公平行為發出了警告。

雖然YouTube 等數位平台已經制定了揭露人工智慧生成內容的政策指南,但聯邦貿易委員會等機構和致力於隱私保護的立法者(例如《美國資料隱私與保護法案》)仍需要對演算法危害進行更嚴格的審查。

國會提出的一項新的兩黨法案旨在將演算法素養編纂為數位素養的關鍵部分。

隨著人工智慧與人們所做的一切越來越緊密地交織在一起,很明顯,現在不是把演算法當作技術的一部分,而是要考慮演算法運作的環境:人、流程和社會。

編者註:本文由密西根州立大學資訊系統教授 Anjana Susarla、科羅拉多大學博爾德分校資訊科學副教授 Casey Fiesler、密西根大學社區資訊教授 Kentaro Toyama 撰寫,轉載自 The Conversation根據知識共享授權。 閱讀原文。

在 Flipboard、Google 新聞或 Apple 新聞上關注我們