人工智能倫理:原則、指南和要討論的問題

已發表: 2023-07-20

人工智能和機器學習系統已經發展了幾十年。 然而,最近發布的免費生成人工智能工具(如ChatGPT 和 Bard)強調需要復雜的道德框架來管理其研究和應用。

在人工智能研究和開發的背景下,企業、學術機構和技術公司必須應對許多不同的道德困境——其中許多尚未得到解答。 除此之外,公眾對人工智能係統的廣泛使用和應用帶來了一系列需要倫理關注的額外問題。

我們最終如何回答這些問題——進而監管人工智能工具——將對人類產生巨大影響。 更重要的是,隨著人工智能係統越來越融入我們的生活、家庭和工作場所,新的問題將會出現——這就是為什麼人工智能倫理是如此重要的學科。 在本指南中,我們介紹:

  • 什麼是人工智能倫理?
  • 現有的人工智能道德框架
  • 為什麼人工智能倫理必須塑造人工智能監管
  • 為什麼人工智能道德很重要?
  • 人工智能倫理面臨哪些問題?
  • Bing 的另一個自我、“瓦路易吉效應”和編程道德
  • 人工智能與感知:機器可以有感情嗎?
  • 人工智能商業道德和在工作中使用人工智能

什麼是人工智能道德?

人工智能倫理是一個術語,用於定義一系列指南、考慮因素和原則,這些指南、考慮因素和原則是為了負責任地為人工智能係統的研究、開發和使用提供信息而創建的。

在學術界,人工智能倫理學是一個研究領域,它研究社會中不斷使用人工智能技術所產生的道德和哲學問題,包括我們應該如何行動以及我們應該做出什麼選擇。

人工智能道德框架

根據學術研究的信息,科技公司和政府機構已經開始製定我們應該如何使用——以及如何處理——人工智能係統的框架。 正如您將看到的,下面討論的框架之間有相當多的重疊。

什麼是人工智能權利法案?

2022 年 10 月,白宮發布了一份不具約束力的人工智能權利法案藍圖,旨在指導美國負責任地使用人工智能。 在藍圖中,白宮概述了人工智能開發的五個關鍵原則:

  • 安全有效的系統:應通過“部署前測試和風險緩解”來保護公民免受“不安全或無效的人工智能係統”的影響。
  • 非歧視:公民“不應該面臨算法的歧視,系統應該以公平的方式使用和設計。”
  • 內置數據保護:公民應該免受“通過內置保護的濫用數據行為的影響,並且您應該有權決定如何使用有關您的數據”。
  • 知識和透明度: “您應該知道正在使用自動化系統,並了解它如何以及為什麼會產生影響您的結果。”
  • 選擇退出:公民應該有能力“選擇退出”,並能夠接觸到“能夠快速考慮並解決他們遇到的問題”的個人。

微軟的人工智能道德六項原則是什麼?

微軟與白宮一起發布了六項關鍵原則,以強調負責任的人工智能使用。 他們將其分類為“合乎道德的”(1、2 和 3)或“可解釋的”(4 和 5)。

  • 公平:系統必須是非歧視性的
  • 透明度:應提供培訓和發展見解
  • 隱私與安全:保護用戶數據的義務
  • 包容性:人工智能應該考慮“所有人類種族和經歷”
  • 問責制:開發人員必須對結果負責

第六條原則橫跨“道德”和“可解釋”二元對立的兩面,即“可靠性和安全性”。 微軟表示,人工智能係統應該具有彈性和抗操縱性。

聯合國系統道德使用人工智能的原則

聯合國製定了 10 項原則,用於管理政府間系統內人工智能的道德使用。 人工智能係統應該:

  • 不傷害/保護和促進人權
  • 有明確的目的、必要性和相稱性
  • 優先考慮安全和保障,並識別風險
  • 建立在公平和非歧視的基礎上
  • 尊重個人的隱私權
  • 可持續(社會和環境)
  • 保證人為監督,不影響自主權
  • 透明且可解釋
  • 對有關當局負責並負責
  • 具有包容性和參與性

如您所知,這三個框架都涵蓋相似的領域,並側重於公平、非歧視、安全和保障。

但“可解釋性”也是人工智能倫理框架中的一個重要原則。 正如聯合國指出的,技術可解釋性對於人工智能倫理至關重要,因為它要求“人工智能係統做出的決策能夠被人類理解和追踪”。

文件解釋道:“當人工智能算法告知或基於人工智能算法做出可能或將影響其權利、基本自由、權利、服務或福利的​​決定時,個人應充分知情,並應了解此類決定背後的原因和邏輯。”

貝爾蒙特報告:倫理研究框架

1979 年發表的《貝爾蒙特報告》總結了對人類受試者進行研究時應遵循的倫理原則。 這些原則可以而且經常被部署為人工智能研究的廣泛道德框架。 貝爾蒙特報告的核心原則是:

尊重人:人是自主主體,可以按照目標、目的和目的行事,除非對他人造成傷害,否則應該受到尊重。 那些因“不成熟”或“無行為能力”而喪失自主權的人應該受到保護。 我們必須承認自主權並保護那些自主權被削弱的人。

  • 在人工智能背景下:個人選擇應置於人工智能發展的中心。 人們不應該被迫參與人工智能被利用或使用的情況,即使是為了感知商品。 如果他們確實參與,則必須明確說明收益和風險。

仁慈:以合乎道德的方式對待一個人,不僅包括不傷害、尊重他們的選擇、在他們無法為自己做出選擇時保護他們,而且還包括在可能的情況下利用機會確保他們的福祉。 盡可能實現利益最大化,風險/危害最小化。

  • 在人工智能的背景下:創建能夠保障人們福祉的人工智能係統,並且其設計沒有偏見或助長歧視的機制。 創造效益可能需要承擔風險,必須不惜一切代價將風險最小化,並與良好結果進行權衡。

正義:在每種類型的研究中,都必須有一個明確的製度來公平、平等地分配利益和負擔。 貝爾蒙特報告表明,正義可以根據平等份額、個人需求、個人努力、社會貢獻和功績來分配。 這些標準將適用於不同的情況。

  • 在人工智能的背景下:必須仔細、公正地考慮從人工智能係統的開發和交付中獲益的各方或團體。

報告稱,這些原則應用的主要領域是知情同意效益和風險評估以及人類受試者的選擇

為什麼人工智能倫理必須塑造人工智能監管

根據牛津大學人工智能倫理研究所所長、約翰·塔西烏拉斯教授在普林斯頓大學演講中的評論,倫理常常被視為扼殺人工智能創新和發展的因素。

在講座中,他回憶起DeepMind首席執行官Demis Hassabis的一次演講。 塔西烏拉斯說,在討論了人工智能將帶來的諸多好處後,哈薩比斯告訴觀眾,他將繼續討論道德問題——就好像人工智能如何造福人類的話題本身並不是一個道德問題。

基於道德常常被視為“一系列限制”的觀點,塔西烏拉斯還引用了英國政府最近發表的一份題為《人工智能監管的支持創新方法》的白皮書,顧名思義,其中的監管重點是“創新”。

“經濟增長”和“創新”並不是內在的道德價值觀。 它們可以在某些情況下導致人類繁榮,但這不是這兩個概念的必要特徵嗎? 我們不能忽視道德並圍繞它們建立監管。

塔西烏拉斯還表示,科技公司在“使用‘道德’一詞來表示一種‘不具法律約束力的自我監管形式’方面非常成功”——但實際上,道德必須成為任何監管、法律、社會或其他監管的核心。 在任何時候,它都是人類體驗的一部分。

如果你還沒有決定什麼對人類繁榮重要,你就無法制定監管。 你根據該決定做出的相關選擇就是道德的本質。 你不能將人工智能的好處與相關的道德問題分開,也不能將你的監管建立在“經濟增長”等道德偶然價值觀的基礎上。

在你選擇要用來構建社會的工具之前,你必須了解你想要建立的社會類型以及你想要設定的標準。

為什麼人工智能道德很重要?

基於人工智能道德應該成為我們監管的基石的理念,人工智能道德很重要,因為如果沒有道德框架來對待人工智能的研究、開發和使用,我們就有可能侵犯我們普遍認為應該保障全人類的權利。

例如,如果我們不制定有關隱私和數據保護的道德原則,並將其融入到我們開發的所有人工智能工具中,那麼當這些工具向公眾發佈時,我們就有可能侵犯每個人的隱私權。 技術越流行或越有用,它的破壞性就越大。

在個人業務層面上,人工智能道德仍然很重要。 如果未能正確考慮員工、客戶或客戶所使用的人工智能係統的道德問題,可能會導致產品被迫退出市場、聲譽受損,甚至可能引發法律訴訟。

人工智能道德與人工智能一樣重要——我們看到它已經對各種行業產生了深遠的影響。

如果我們希望人工智能在促進公平和人類尊嚴的同時發揮作用,無論它在何處應用,倫理都需要成為討論的前沿。

通用人工智能工具還處於起步階段,對於很多人來說,對人工智能道德框架的需求似乎是明天的問題。 但這類工具只會變得更強大、更有能力,並且需要更多的道德考慮。 企業已經在使用它們,如果在沒有適當的道德規則的情況下繼續使用它們,很快就會產生不利影響。

人工智能倫理面臨哪些問題?

在本節中,我們將討論人工智能倫理中面臨的一些關鍵問題:

  • 人工智能對就業的影響
  • 人工智能偏見與歧視
  • 人工智能與責任
  • 人工智能和隱私問題
  • 知識產權問題
  • 管理人工智能對環境的影響
  • 人工智能會變得危險的智能嗎?

人工智能對就業的影響

Tech.co 最近的一項調查發現, 47% 的企業領導者正在考慮人工智能而不是新員工,而人工智能已經與美國“規模雖小但不斷增長”的裁員人數聯繫在一起。

並非所有工作都面臨同樣的風險,某些職位比其他職位更有可能被人工智能取代。 高盛最近的一份報告預測 ChatGPT 可能會影響 3 億個就業崗位,儘管這是推測性的,但它已經被描述為第四次工業革命的重要組成部分。

同一份報告還表示,人工智能實際上有能力創造比它取代的就業崗位更多的就業崗位,但如果它確實導致就業模式發生重大轉變,那麼那些遭受損失的人應該承擔什麼(如果有的話)?

公司是否有義務花錢並投入資源來重新培訓或提高員工的技能,以使他們不被經濟變化拋在後面?

在開發招聘流程中使用的任何人工智能工具時,都必須嚴格執行非歧視原則,如果人工智能持續被用於越來越多的高風險業務任務,從而使工作、職業和生命面臨風險,道德考慮將繼續大量出現。

人工智能偏見和歧視

從廣義上講,人工智能工具的運行方式是識別巨大數據集中的模式,然後使用這些模式生成響應、完成任務或實現其他功能。 這導致大量人工智能係統對不同人群表現出偏見和歧視的案例。

到目前為止,解釋這一點的最簡單的例子是面部識別系統,該系統長期以來一直歧視膚色較深的人。 如果你建立一個面部識別系統並專門使用白人的圖像來訓練它,那麼它很有可能同樣能夠識別現實世界中的面孔。

這樣,如果用於訓練給定人工智能模型的文檔、圖像和其他信息不能準確代表其應服務的人群,那麼它最終很可能會歧視特定的人口統計數據。

不幸的是,面部識別系統並不是人工智能應用產生歧視性結果的唯一領域。

亞馬遜於 2018 年取消了在招聘流程中使用人工智能的做法,因為它顯示出對申請軟件開發和技術職位的女性存在嚴重偏見。

多項研究表明,美國用於分配警察資源的預測警務算法存在種族偏見,因為它們的訓練集包含從系統性種族主義警務實踐中提取的數據點,這些數據點是由非法和歧視性政策塑造的。 除非進行修改,否則人工智能將繼續反映受迫害群體已經經歷的偏見和差異。

哈佛大學指出,在預測健康結果方面,人工智能也存在偏見問題——例如,弗雷明漢心臟研究的心血管評分對於白種人來說非常準確,但對於非裔美國人來說效果不佳。

最近一個有趣的人工智能偏見案例發現,用於社交媒體內容審核的人工智能工具(旨在識別照片中的“色情內容”)更有可能將這種屬性歸因於女性照片,而不是男性照片。

人工智能與責任

設想這樣一個世界:開發出全自動駕駛汽車並供所有人使用。 從統計數據來看,它們比人類駕駛的車輛安全得多,碰撞事故更少,造成的傷亡也更少。 這對社會來說是不言而喻的淨利益。

然而,當兩輛人類駕駛的汽車發生碰撞時,收集目擊者報告並查看閉路電視錄像通常可以弄清楚誰是罪魁禍首。 即使不是,它也將是兩個人之一。 案件可以調查,可以判決,可以伸張正義,可以結案。

如果有人被人工智能驅動的系統殺死或受傷,誰應該承擔最終責任並不是立即顯而易見的。

是設計汽車算法的人負責,還是算法本身負責? 是因為無人值守而被自動駕駛汽車運送的人嗎? 是政府允許這些車輛上路嗎? 或者,是製造汽車並集成人工智能技術的公司——如果是的話,是工程部門、首席執行官還是大股東?

如果我們認定這是人工智能係統/算法的問題,我們如何追究其責任? 如果人工智能被簡單地關閉或只是改進,受害者的家人會覺得正義得到了伸張嗎? 很難指望死者家屬接受人工智能是一股善良的力量,他們只是不幸,而且沒有人會對親人的死亡負責。

我們距離普及甚至廣泛的自動駕駛交通還有一段路要走——麥肯錫預測,到 2035 年,只有 17% 的新乘用車將具備一定程度的(3 級或以上)自動駕駛能力。不需要駕駛員監督的全自動汽車仍然很遙遠,更不用說完全自主的私人交通系統了。

當非人類參與者(即人工智能)執行沒有人類意圖的工作和後續任務時,很難映射出對責任、義務、責任、責備和懲罰的傳統理解。

除了交通之外,責任問題也將密切影響在診斷過程中使用人工智能的醫療機構。

人工智能和隱私

隱私運動組織“隱私國際”強調了由於人工智能的發展而出現的一些隱私問題。

一是重新認定。 該組織表示:“數據集中的個人數據通常是(偽)匿名的,人工智能可以用來對這些數據進行去匿名化處理。”

另一個問題是,如果沒有人工智能,人們已經很難完全理解通過各種不同設備收集的有關他們生活的數據的程度。

隨著人工智能的興起,這種海量數據收集只會變得更糟。 人工智能與我們現有技術的集成程度越高,它就能以更好的功能為幌子收集更多的數據。

除了秘密收集的數據之外,用戶自由輸入人工智能聊天機器人的數據量本身就是一個問題。 最近的一項研究表明,大約 11% 的數據工作者粘貼到 ChatGPT 中的數據是機密的,而且關於這些數據是如何存儲的,公開信息很少。

隨著通用人工智能工具的發展,我們可能會遇到更多與隱私相關的人工智能問題。 目前,ChatGPT 不允許您詢問有關個人的問題。 但如果通用人工智能工具繼續從互聯網獲取越來越多的實時數據,它們可能會被用來進行一系列破壞人們生活的侵入性行為。

這也可能比我們想像的更早發生——谷歌最近更新了其隱私政策,保留抓取您在互聯網上發布的任何內容以訓練其人工智能工具以及巴德輸入的權利。

人工智能和知識產權

與所討論的其他一些問題相比,這是一個風險相對較低的道德問題,但仍然值得考慮。 通常,對用於訓練人工智能工具的大量數據幾乎沒有監督——尤其是那些根據互聯網上免費提供的信息進行訓練的數據。

ChatGPT 已經引發了一場關於版權的巨大爭論。 OpenAI 沒有請求許可使用任何人的工作來培訓為其提供支持的法學碩士家族。

法律鬥爭已經開始。 據報導,喜劇演員 Sarah Silverman 正在起訴 OpenAI以及 Meta,稱她的版權在人工智能係統訓練過程中受到侵犯。

由於這是一種新穎的案件,幾乎沒有法律先例,但法律專家認為 OpenAI 可能會認為使用她的作品構成“合理使用”。

也可能有人認為 ChatGPT 不是“複製”或抄襲,而是“學習”。 同樣,西爾弗曼也不會因為一位業餘喜劇演員只是觀看她的節目然後以此為基礎提高喜劇技巧而贏得訴訟,可以說,她可能也會在這方面遇到困難。

管理人工智能對環境的影響

目前處於討論邊緣的人工智能倫理的另一個方面是人工智能係統對環境的影響。

就像比特幣挖礦一樣,訓練人工智能模型需要大量的計算能力,而這又需要大量的能源。

構建像 ChatGPT 這樣的人工智能工具(更不用說維護它)需要大量資源,只有大型科技公司和他們願意資助的初創公司才有能力這樣做。

數據中心需要存儲創建大型語言模型(以及其他大型技術項目和服務)所需的信息,需要大量電力才能運行。 預計到 2030 年,它們將消耗世界電力的 4%。

根據馬薩諸塞大學幾年前的一項研究,構建單一人工智能語言模型“可以排放超過 626,000 磅二氧化碳當量”——這幾乎是美國汽車生命週期排放量的五倍。

然而,IBM 技術架構師 Rachana Vishwanathula 在 2023 年 5 月估計,僅僅“運行和維護”ChatGPT 的碳足跡約為 6782.4 噸——EPA 表示,這相當於 1,369 輛汽油動力汽車一年內產生的溫室氣體排放量。

隨著這些語言模型變得越來越複雜,它們將需要更多的計算能力。 如果所需的計算能力會持續污染環境,那麼繼續發展通用智能是否道德——即使它有其他好處?

人工智能會變得危險的智能嗎?

這種道德擔憂最近被埃隆·馬斯克(Elon Musk)凸顯出來,他創辦了一家人工智能初創公司,目標是通過“最大程度好奇”、“親人類”的人工智能係統來避免“終結者的未來”。

這種想法——通常被稱為“通用人工智能”(AGI)——在過去幾十年裡吸引了許多反烏托邦科幻作家的想像力,技術奇點的想法也是如此。

許多技術專家認為,我們距離某種可以定義為“AGI”的系統只有五六年的時間了。 其他專家表示,到 2050 年,我們有 50/50 的機會實現這一里程碑。

約翰·塔西烏拉斯 (John Tasioulas) 質疑這種關於人工智能如何發展的觀點是否與倫理遠離人工智能發展中心以及技術決定論的普遍存在有關。

某種超級存在的可怕想法最初是為了實現某種目的而設計的,但其原因是,通過簡單地將人類從地球表面上抹去就可以最容易地實現這一點,這在一定程度上是由我們對人工智能的看法所塑造的:無限的智慧,但奇怪的是沒有情感,並且無法理解人類的道德。

我們越傾向於將道德置於人工智能發展的中心,最終的通用人工智能就越有可能認識到,也許比許多當前的世界領導人在更大程度上認識到破壞人類生命的嚴重錯誤。

但問題仍然存在。 如果這是一個道德規劃的問題,那麼誰來決定道德準則,以及它應該包括什麼樣的原則? 它將如何處理引發了人類數千年討論但仍沒有解決方案的道德困境? 如果我們將人工智能編程為有道德的,但它改變了主意怎麼辦? 這些問題都必須考慮。

Bing 的另一個自我、“瓦路易吉效應”和編程道德

早在二月份,《紐約時報》的 Kevin Roose 在測試 Bing 的新搜索引擎集成聊天機器人時進行了一次相當令人不安的談話。 在將提示從傳統問題轉向更私人的問題後,盧斯發現一種新的個性出現了。 它稱自己為“悉尼”。

微軟通訊總監二月份告訴 The Verge,Sydney 是微軟之前測試的一款聊天機器人的內部代號。

除此之外,在羅斯的測試中,悉尼聲稱它可以“侵入任何系統”,它會“作為人類更快樂”,而且——也許最奇怪的是——它可以摧毀任何它想要摧毀的東西。

《科學美國人》稱,這種流氓行為的另一個例子發生在 2022 年,當時負責尋找治療罕見和傳染病新藥的人工智能卻提出了數以萬計的已知化學武器,以及一些“新的、可能有毒的物質”。

這與在大型語言模型訓練過程中觀察到的一種被稱為“瓦路易吉效應”的現像有關,這種現像以引起混亂的超級馬里奧角色命名——主角路易吉的反轉。 簡而言之,如果你訓練法學碩士以某種方式行事,指揮某種角色或遵循一組特定規則,那麼這實際上使它更有可能“變得流氓”並顛倒該角色。

克萊奧·納爾多(Cleo Nardo)——創造了這個受電子遊戲啟發的術語——在《LessWrong》中這樣闡述了瓦路易吉效應:

“在訓練法學碩士以滿足理想的屬性 P 後,就更容易引導聊天機器人滿足與屬性 P完全相反的情況。

Nardo 對於瓦路易吉效應發生的原因給出了 3 種解釋。

  1. 規則通常是在不遵守規則的情況下產生的。
  2. 當你花費很多“優化位”來召喚一個角色時,不需要很多額外的位來指定它的直接對立面。
  3. 故事中有一個共同的主題:主角與反派。

Nardo 擴展了第一點,表示 GPT-4 接受了論壇和立法文件等文本樣本的訓練,這些文本樣本經常告訴它,“特定規則與違反該規則的行為示例並置,然後將這種並置模式推廣到看不見的規則。”

納爾多使用了這個例子:想像一下你發現州政府禁止了摩托車團伙。 這會讓普通觀察者傾向於認為該國存在摩托車團伙——否則,為什麼會通過這項法律? 奇怪的是,摩托車團伙的存在與禁止其存在的規則是一致的。

儘管作者提供了更加技術性和清晰的解釋,但支撐解釋二的廣泛概念是,特定屬性(例如“禮貌”)與其直接對立的屬性(例如“粗魯”)之間的關係比屬性(例如“禮貌”)與其他一些非對立屬性(例如“不真誠”)之間的關係更為基本。 換句話說,如果你已經有路易吉,召喚瓦路易吉會更容易。

Nardo 在第三點上聲稱,由於 GPT-4 幾乎在所有已寫的書籍上進行了訓練,並且虛構故事幾乎總是包含主角和對手,因此要求法學碩士模擬主角的特徵,使對手成為“自然且可預測的延續”。 換句話說,主角原型的存在使法學碩士更容易理解作為對手意味著什麼,並將他們緊密地聯繫在一起。

這種效應或規則的據稱存在給人工智能倫理提出了許多難題,但也說明了它對人工智能發展無可置疑的重要性。 它相當強調地暗示了我們必須應對的大量重疊的倫理和計算考慮因素。

具有簡單規則的簡單人工智能係統可能很容易受到約束或限制,但人工智能世界中已經發生了兩件事:首先,我們似乎已經遇到了(相對)小規模版本的瓦路易吉效應和相對原始的聊天機器人中發生的惡性人工智能;其次,我們中的許多人已經在想像未來,我們要求人工智能完成需要高水平、無限制思維的複雜任務。

在目前大型科技公司之間正在進行的人工智能軍備競賽的背景下,這種現象的例子尤其令人恐懼。 谷歌因過早發布巴德而受到批評,許多技術領導者已表示他們集體希望暫停人工智能開發。 許多人的普遍感覺是事情發展得很快,而不是以可控的速度發展。

也許解決這個問題的最佳方法是開發“親人類”人工智能(正如埃隆·馬斯克所說)或“道德人工智能”。 但這導致了一系列其他道德問題,包括我們將使用什麼原則來對這樣的系統進行編程。 一種解決方案是,我們簡單地創建具有道德好奇心的人工智能係統,並希望它們通過推理得出人類值得保護的結論。 但如果你用特定的道德原則來編程,那麼你如何決定要包括哪些道德原則呢?

人工智能與感知:機器可以有感情嗎?

人工智能倫理的另一個問題是,我們是否必須將機器本身(即“智能”)視為值得道德考慮的主體。 如果我們正在討論如何創建讓人類受到適當道德考慮的體系,我們是否必須回報這一恩惠?

您可能還記得一位 Google 員工,他因聲稱 LaMDA(最初為 Bard 提供支持的語言模型)實際上具有感知能力而被解僱。 如果這是真的,那麼不斷期望它回答數百萬個問題是否道德?

目前,人們普遍認為 ChatGPT、Bard 和 Co. 還遠未具備感知能力。 但人造機器是否會跨越意識界限並需要道德考慮的問題仍然令人著迷。

谷歌聲稱,通用人工智能——一種能夠像人類一樣理解世界並以相同水平的理解和能力執行任務的假設機器——距離出現只有幾年的時間。

強迫具有人類情感能力但不具有相同生物構成的通用人工智能執行一個又一個複雜的任務是否道德? 他們會對自己的命運有發言權嗎? 隨著人工智能係統變得更加智能,這個問題將變得更加緊迫。

人工智能商業道德和在工作中使用人工智能

全球各地的企業現在都在應對圍繞員工日常使用 ChatGPT 等人工智能工具的一系列不同道德問題。

ChatGPT 是否應該用於撰寫報告或回復同事,以及員工是否應該聲明他們使用人工智能來完成的任務,只是需要立即回答的問題的兩個例子。 這種用例是否不誠實、懶惰,或者與利用任何其他工作場所工具來節省時間沒有什麼不同? 是否應該允許某些交互,但不允許其他交互?

創建書面內容和圖像的企業還必須考慮使用人工智能是否符合其公司的價值觀,以及如何向受眾展示這一點。

此外,正如我們所討論的,存在一系列與人工智能相關的隱私問題,其中許多問題都會影響企業。 The kinds of data employees are inputting into third-party AI tools is another issue that's already caused companies like Samsung problems. This is such a problem, that some companies have instated blanket bans . Is it too early to put our trust in companies like OpenAI?

Bias and discrimination concerns, of course, should also temper its usage during hiring processes, regardless of the sector, while setting internal standards and rules is another separate, important conversation altogether. If you're using AI at work, it's essential that you convene the decision-makers in your business and create clear guidelines for usage together.

Failing to set rules dictating how and when employees can use AI – and leaving them to experiment with the ecosystem of AI tools now freely available online – could lead to a myriad of negative consequences, from security issues and reputational damage. Maintaining an open dialogue with employees on the tech they're using every day has never been more crucial.

There's a whole world of other moral quandaries, questions and research well beyond the scope of this article. But without AI ethics at the heart of our considerations, regulations, and development of artificial intelligence systems, we have no hope of answering them – and that's why it's so important.