AI 倫理: 原則、ガイドライン、議論すべき問題
公開: 2023-07-20人工知能と機械学習システムは数十年にわたって開発されてきました。 しかし、ChatGPT や Bard などの無料で利用できる生成 AI ツールが最近リリースされたことで、その研究と応用の両方を管理する複雑な倫理的枠組みの必要性が強調されました。
AI 研究開発の文脈では、企業、学術機関、テクノロジー企業が取り組まなければならないさまざまな倫理的困難が数多くありますが、その多くは未解決のままです。 これに加えて、一般大衆による AI システムの広範な使用と応用は、倫理的な注意を必要とする追加の問題をもたらします。
最終的にこのような質問にどう答えるか、ひいてはAI ツールを規制するかは、人類に大きな影響を与えるでしょう。 さらに、AI システムが私たちの生活、家庭、職場にさらに統合されるにつれて、新たな問題が発生するでしょう。だからこそ、AI 倫理は非常に重要な規律となります。 このガイドでは、以下について説明します。
- AI倫理とは何ですか?
- 既存の AI 倫理フレームワーク
- なぜ AI 倫理が AI 規制を規定する必要があるのか
- AI の倫理がなぜ重要なのか?
- AI の倫理はどのような問題に直面していますか?
- Bing の分身、「ワルイージ効果」とプログラミングの道徳
- AIと感覚: 機械は感情を持つことができるのか?
- AI のビジネス倫理と職場での AI の使用
AI 倫理フレームワーク
学術研究の情報に基づいて、ハイテク企業や政府機関はすでに、人工知能システムをどのように使用し、一般的にどのように扱うべきかについてのフレームワークを作成し始めています。 ご覧のとおり、以下で説明するフレームワーク間には重複する部分がかなりあります。
AI 権利章典とは何ですか?
2022 年 10 月、ホワイトハウスは、米国における AI の責任ある使用の指針となる AI 権利章典の拘束力のない青写真を発表しました。 ホワイトハウスは青写真の中で、AI 開発の 5 つの重要な原則を概説しています。
- 安全で効果的なシステム:国民は、「導入前のテストとリスク軽減」を通じて、「安全でないまたは非効果的な AI システム」から保護される必要があります。
- 非差別:市民は「アルゴリズムによる差別に直面すべきではなく、システムは公平な方法で使用および設計されるべきです。」
- 組み込みのデータ保護:国民は「組み込みの保護によるデータの悪用行為」から解放されるべきであり、あなたに関するデータがどのように使用されるかを決定する権限を持つべきです。
- 知識と透明性: 「自動化システムが使用されていることを知り、それが自分に影響を与える結果にどのように、そしてなぜ寄与するのかを理解する必要があります。」
- オプトアウト:国民は「オプトアウト」する能力を持ち、経験した「問題をすぐに検討して解決できる」個人にアクセスできる必要があります。
Microsoft の AI 倫理に関する 6 つの原則とは何ですか?
Microsoft はホワイトハウスとともに、責任ある AI の使用を強調する 6 つの主要原則を発表しました。 彼らはそれらを「倫理的」(1、2、および 3) または「説明可能」(4 および 5) として分類します。
- 公平性:システムは無差別でなければなりません
- 透明性:トレーニングと開発に関する洞察が利用可能である必要があります
- プライバシーとセキュリティ:ユーザーデータを保護する義務
- 包括性: AI は「すべての人類と経験」を考慮すべきである
- 説明責任:開発者は結果に対して責任を負わなければなりません
6 番目の原則は、「倫理的」と「説明可能」という二項対立の両面にまたがる原則であり、「信頼性と安全性」です。 Microsoftは、AIシステムは回復力があり、改ざんに耐えられるように構築されるべきだと述べている。
国連システムにおける AI の倫理的使用の原則
国連には、政府間システム内での AI の倫理的使用を管理するための 10 の原則があります。 AI システムは次のことを行う必要があります。
- 人権を傷つけない/保護し促進しない
- 明確な目的、必要性、比例性を持つ
- リスクを特定し、安全・安心を優先する
- 公平性と無差別を基盤とする
- 個人のプライバシーの権利を尊重する
- 持続可能であること(社会的および環境的に)
- 人間の監視を保証し、自律性を侵害しない
- 透明性があり、説明可能であること
- 適切な当局に対して責任を負い、責任を負います
- 包括的かつ参加型であること
ご覧のとおり、3 つのフレームワークはすべて同様の内容をカバーしており、公平性、非差別、安全性、セキュリティに焦点を当てています。
しかし、「説明可能性」は AI 倫理フレームワークにおける重要な原則でもあります。 国連が指摘しているように、AI 倫理では技術的な説明可能性が重要であり、「人工知能システムによって行われた決定は人間によって理解および追跡できる」ことが求められています。
「個人は、自分の権利、基本的自由、権利、サービス、利益に影響を与える可能性のある、または影響を与える決定が人工知能アルゴリズムによって通知されるか、それに基づいて行われる場合には、十分な情報を得る必要があり、そのような決定の背後にある理由と論理にアクセスできる必要がある」と文書では説明されています。
ベルモント報告書: 倫理研究の枠組み
1979 年に発行されたベルモント報告書には、人間を対象とした研究を行う際に従うべき倫理原則がまとめられています。 これらの原則は、AI 研究の広範な倫理的枠組みとして導入でき、多くの場合、導入されています。 ベルモント レポートの核となる原則は次のとおりです。
人の尊重:人は自律的な主体であり、目標、目的、目的に基づいて行動することができ、他者に害を及ぼさない限り尊重されるべきものです。 「未熟」または「無能力」によって自律性が低下した人々には保護が与えられるべきである。 私たちは自主性を認め、それが損なわれている人々を保護しなければなりません。
- AI の文脈では:個人の選択が AI 開発の中心に置かれるべきです。 たとえ認識されている商品であっても、人工知能が活用または使用されている状況への参加を強制されるべきではありません。 参加する場合は、メリットとリスクを明確に説明する必要があります。
慈善:倫理的な方法で人を扱うには、危害を加えないこと、その選択を尊重すること、自分で選択できない場合は保護することだけでなく、可能な限りその人の幸福を確保する機会を利用することも含まれます。 可能な限り、利益を最大化し、リスク/損害を最小限に抑えます。
- AI の文脈では:人々の幸福を確保し、差別を助長する偏見やメカニズムを排除して設計された人工知能システムを作成します。 利益を生み出すにはリスクを伴う場合があり、リスクは何としても最小限に抑え、良い結果と比較検討する必要があります。
正義:あらゆる種類の研究において、利益と負担を公平かつ平等に分配するための明確なシステムがなければなりません。 ベルモントの報告書は、公平な分配、個人のニーズ、個人の努力、社会的貢献、功績によって正義が分配される可能性があることを示唆しています。 これらの基準はさまざまな状況に適用されます。
- AI の文脈では:人工知能システムの開発と提供から利益を得ている当事者やグループについては、慎重かつ公正に考慮する必要があります。
報告書によると、これらの原則が適用される主な分野は、インフォームド・コンセント、利益とリスクの評価、および被験者の選択です。
なぜ AI 倫理が AI 規制を規定する必要があるのか
AI倫理研究所所長であるオックスフォード大学のジョン・タシオラス教授がプリンストン大学で行った講義でのコメントを引用すると、倫理はAIのイノベーションと開発を抑制するものとして見なされることがあまりにも多い。
講演の中で、彼はDeepMind CEOのDemis Hassabis氏の講演を思い出した。 タシオラス氏によると、AIがもたらす多くの利点について議論した後、ハサビス氏は倫理的な問題に移ると聴衆に告げる――あたかもAIが人類にどのような利益をもたらすかというテーマ自体が倫理的な問題ではないかのように。
タシオラス氏は、倫理は「束縛」として見なされることが多すぎるという考えに基づいて、「AI 規制に対するイノベーション推進アプローチ」と題された最近の英国政府の白書にも言及しており、その中で規制の焦点はその名の示すとおり「イノベーション」にあります。
「経済成長」や「イノベーション」は本質的な倫理的価値観ではありません。 それらは状況によっては人間の繁栄につながる可能性がありますが、これはどちらの概念にも必要な特徴ではありません。 倫理を無視して、代わりに倫理を中心に規制を構築することはできません。
タシオラス氏はまた、ハイテク企業は「『倫理』という言葉を『法的拘束力のない自主規制』の一種を意味するものとして取り入れる」ことに非常に成功していると述べているが、実際には、法的、社会的、その他のあらゆる規制の中核には倫理がなければならない。 それはあらゆる場面で人間の経験の一部です。
人間の繁栄にとって何が重要なのか、何が重要なのかをまだ決めていなければ、規制を作ることはできません。 その決定に基づいて行う関連する選択は、まさに倫理の本質です。 AI の利点と関連する倫理的問題を切り離すことはできませんし、「経済成長」のような道徳的に偶発的な価値観に規制を根拠付けることもできません。
社会を構築するために使用するツールを手に入れる前に、構築したい社会の種類、および設定したい基準を知る必要があります。
AI の倫理がなぜ重要なのか?
AI の倫理が規制の基盤であるべきであるという考えに基づいて、AI の研究、開発、使用を扱うための倫理的枠組みがなければ、すべての人間に保証されるべきであると一般に同意する権利を侵害する危険があるため、AI の倫理は重要です。
たとえば、プライバシーとデータ保護に関する倫理原則を策定し、それを開発するすべての AI ツールに組み込んでいない場合、それらが一般に公開されたときにすべての人のプライバシー権が侵害される危険があります。 テクノロジーの人気が高まったり、便利になったりすると、被害も大きくなる可能性があります。
個々のビジネスレベルでは、AI の倫理は引き続き重要です。 スタッフ、顧客、クライアントが使用している AI システムに関する倫理的懸念を適切に考慮しないと、製品が市場から撤退しなければならなくなったり、風評被害が生じたり、場合によっては訴訟につながる可能性があります。
AI が重要であるのと同じくらい、AI の倫理も重要です。そして、AI がすでにあらゆる種類の業界に大きな影響を与えていることを私たちは目にしています。
AI が公平性と人間の尊厳を促進しながら有益であることを望むのであれば、それがどこに適用されるにせよ、倫理が議論の最前線にある必要があります。
汎用 AI ツールはまだ初期段階にあり、多くの人にとって、AI 倫理フレームワークの必要性は明日の問題のように思えるかもしれません。 しかし、この種のツールは、ますます強力かつ高機能になり、より倫理的な配慮が求められるようになるでしょう。 企業はすでにそれらを使用しており、適切な倫理ルールが整備されないまま使用を続ければ、すぐに悪影響が生じるでしょう。
AI の倫理はどのような問題に直面していますか?
このセクションでは、AI 倫理で直面する主要な問題のいくつかについて説明します。
- AI が雇用に与える影響
- AI の偏見と差別
- AIと責任
- AI とプライバシーの問題
- 知的財産の問題
- AI が環境に与える影響の管理
- AIは危険なほど知能が高くなるのか?
AI が雇用に与える影響
Tech.co の最近の調査では、ビジネス リーダーの 47% が新規採用よりも AI を検討していることが判明しており、人工知能はすでに米国での「少数ではあるが増加している」解雇数と関連付けられています。
すべての仕事が同じリスクにさらされているわけではなく、一部の役割は他の役割よりも AI に置き換えられる可能性が高くなります。 ゴールドマン・サックス社の最近のレポートでは、ChatGPT が 3 億人の雇用に影響を与える可能性があると予測されており、これは推測の域を出ませんが、すでに第 4 次産業革命の主要部分であると言われています。
同じ報告書では、AI は実際に雇用を奪うよりも多くの雇用を創出する能力があるとも述べていますが、もし AI が雇用形態に大きな変化を引き起こした場合、損失を被る人々には、もしあったとしても何の義務があるのでしょうか?
企業には、従業員が経済の変化から取り残されないように、従業員の再教育やスキルアップに資金とリソースを投入する義務があるのでしょうか?
採用プロセスで使用される AI ツールの開発では、無差別原則を厳格に適用する必要があり、仕事、キャリア、生命を危険にさらす一か八かのビジネスタスクに AI が継続的に使用され続けると、倫理的考慮事項が大量に発生し続けることになります。
AIの偏見と差別
大まかに言えば、AI ツールは巨大なデータセット内のパターンを認識し、それらのパターンを使用して応答を生成したり、タスクを完了したり、その他の機能を実行したりすることで動作します。 これにより、AI システムがさまざまなグループの人々に対して偏見を示し、差別するケースが膨大に発生しています。
これを説明する最も簡単な例は、顔認識システムです。顔認識システムには、肌の色が濃い人を差別してきた長い歴史があります。 顔認識システムを構築し、それを訓練するために白人の画像だけを使用すれば、現実世界でも同様に顔を認識できるようになる可能性は十分にあります。
このように、特定の AI モデルのトレーニングに使用されるドキュメント、画像、その他の情報が、その AI モデルがサービスを提供すべき人々を正確に表していない場合、特定の層を差別してしまう可能性が十分にあります。
残念ながら、人工知能が差別的な結果をもたらすように適用されているのは顔認識システムだけではありません。
Amazon の採用プロセスでの AI の使用は、ソフトウェア開発や技術職に応募する女性に対して大きな偏見があることが判明したため、2018 年に廃止されました。
複数の研究は、米国で警察リソースを割り当てるために使用されている予測警察アルゴリズムが人種的に偏っていることを示している。その訓練セットは、不法で差別的な政策によって形作られた組織的な人種差別的な警察活動から抽出されたデータポイントで構成されているためである。 AIは、修正されない限り、迫害されたグループがすでに経験した偏見と格差を反映し続けるでしょう。
健康転帰を予測するという文脈でも、AIのバイアスには問題があった。たとえば、フラミンガム心臓研究の心血管スコアは、白人にとっては非常に正確だったが、アフリカ系アメリカ人にとってはあまり効果がなかった、とハーバード大学は指摘している。
AI バイアスに関する興味深い最近の事例では、ソーシャル メディア コンテンツのモデレーションに使用される、写真から「人種差別」を検出するように設計された人工知能ツールが、この性質を男性よりも女性の写真に帰属させる可能性がはるかに高いことがわかりました。
AIと責任
完全自動運転の自動運転車が開発され、誰もがそれを使用できる世界を想像してください。 統計的には、人間が運転する乗り物よりもずっと安全で、衝突事故も少なく、死者や負傷者も少ないのです。 これは自明の理であり、社会にとって純益となるでしょう。
しかし、人間が運転する 2 台の車が衝突事故を起こした場合、目撃報告を収集し、監視カメラの映像を確認することで、犯人が誰であるかが明らかになることがよくあります。 たとえそうでなかったとしても、それは2人の個人のうちの1人になるでしょう。 事件は捜査され、評決が下され、正義が執行され、事件は終了します。
AI を活用したシステムによって誰かが死亡または負傷した場合、最終的に誰が責任を負うのかはすぐにはわかりません。
車に動力を供給するアルゴリズムを設計した人に責任があるのでしょうか、それともアルゴリズム自体に責任があるのでしょうか? 監視を怠ったために自動運転車で搬送されているのはその人なのだろうか? これらの車両の道路走行を許可したのは政府でしょうか? それとも、自動車を製造し、AI テクノロジーを統合した会社でしょうか。そうであれば、エンジニアリング部門、CEO、または大株主でしょうか?
AI システム/アルゴリズムが原因であると判断した場合、どのように責任を負うのでしょうか? AIが単純に停止された場合、または単に改善された場合、被害者の家族は正義が果たされたと感じるでしょうか? AI は善をもたらす力であり、彼らはただ不幸なだけであり、愛する人の死については誰も責任を問われないことを、遺族が受け入れることを期待するのは難しいでしょう。
自動運転交通の普及、あるいは普及にはまだ程遠い。マッキンゼーは、2035 年までに新しい乗用車のわずか 17% が何らかの (レベル 3 以上の) 自動運転機能を搭載すると予測している。ドライバーの監視を必要としない完全自動運転車、ましてや完全自動運転の民間交通システムはまだかなり遠い。
人間以外のアクター (つまり、人工知能) に人間の意図を欠いた仕事や結果として生じるタスクを実行させる場合、責任、法的責任、説明責任、責任、罰についての伝統的な理解を当てはめることは困難です。
輸送に加えて、責任の問題も、診断中に AI を使用する医療機関に密接な影響を及ぼします。
AIとプライバシー
プライバシー キャンペーン グループのプライバシー インターナショナルは、人工知能の発展によって生じた多くのプライバシー問題に焦点を当てています。
一つは再認識です。 「個人データはデータセット内で日常的に(擬似的に)匿名化されており、AIを利用してこのデータの匿名化を解除することができます」と同グループは述べている。
もう 1 つの問題は、AI がなければ、人々はさまざまなデバイスを通じて自分たちの生活に関するデータがどの程度収集されているかを完全に理解するのにすでに苦労していることです。
人工知能の台頭により、この大量のデータ収集はさらに悪化する一方です。 AI が既存のテクノロジーと統合されるほど、より優れた機能を装ってより多くのデータを収集できるようになります。
秘密裏に収集されたデータは別として、ユーザーが AI チャットボットに自由に入力するデータの量自体が懸念事項です。 最近のある調査では、データ ワーカーの約 11% が ChatGPT に貼り付けている内容は機密であることが示唆されていますが、これらすべてがどのように保存されているかを正確に知る公開情報はほとんどありません。
汎用の AI ツールが発展するにつれて、プライバシー関連の AI 問題がさらに多く発生する可能性があります。 現時点では、ChatGPT では個人について質問することはできません。 しかし、汎用 AI ツールがインターネットからのますます大規模なライブ データ セットにアクセスし続けると、人々の生活を台無しにするさまざまな侵略的な行為に使用される可能性があります。
これも、私たちが思っているよりも早く起こるかもしれません。Googleは最近、プライバシー ポリシーを更新し、AI ツールと Bard 入力をトレーニングするために、インターネット上に投稿されたすべてのものをスクレイピングする権利を留保しました。
AIと知的財産
これは、これまで議論されてきた他の問題に比べて比較的リスクの低い倫理問題ですが、それでも検討する価値はあります。 多くの場合、AI ツールのトレーニングに使用される膨大なデータセット、特にインターネット上で自由に入手できる情報に基づいてトレーニングされたデータセットについては、ほとんど監視されていません。
ChatGPT はすでに著作権に関する大規模な議論を開始しています。 OpenAI は、OpenAI を動かす LLM ファミリーをトレーニングするために誰かの作品を使用する許可を求めていません。
法廷闘争はすでに始まっている。 伝えられるところによると、コメディアンのサラ・シルバーマンは、AI システムのトレーニング中に自身の著作権が侵害されたとして、メタと同様に OpenAI を告訴しているとのこと。
これは新しいタイプの訴訟であるため、法的前例はほとんどありませんが、法律専門家は、OpenAI が彼女の著作物の使用は「フェアユース」に当たると主張する可能性が高いと主張しています。
ChatGPT は「コピー」や盗作ではなく、むしろ「学習」しているという議論もあるかもしれません。 同様に、シルバーマンは、単に彼女の番組を見て、それに基づいてコメディのスキルを向上させたというアマチュアコメディアンに対する訴訟で勝訴することはなく、おそらく、彼女もこの件で苦労する可能性があります。
AI が環境に与える影響の管理
現在議論の片隅にある AI 倫理のもう 1 つの側面は、人工知能システムが環境に与える影響です。
ビットコイン マイニングと同様に、人工知能モデルのトレーニングには膨大な計算能力が必要であり、これには大量のエネルギーが必要になります。
ChatGPT のような AI ツールの構築は、維持することはもちろんですが、非常に多くのリソースを必要とするため、大手テクノロジー企業と資金提供を希望する新興企業だけがそのような能力を持っていました。
データセンターは、大規模な言語モデル (およびその他の大規模な技術プロジェクトやサービス) の作成に必要な情報を保存する必要があり、稼働するには大量の電力が必要です。 2030 年までに世界の電力の最大 4% を消費すると予測されています。
数年前のマサチューセッツ大学の研究によると、単一の AI 言語モデルを構築すると、「二酸化炭素換算で 626,000 ポンド以上を排出する可能性がある」ということですが、これは米国の自動車の生涯排出量のほぼ 5 倍に相当します。
しかし、IBMのテクニカルアーキテクトであるラチャナ・ヴィシュワナトゥラ氏は、2023年5月に、ChatGPTを単に「実行および保守」する場合の二酸化炭素排出量はおよそ6782.4トンであると推定した。これはEPAによれば、1,369台のガソリン車が1年間に排出する温室効果ガス排出量に相当するという。
これらの言語モデルが複雑になるにつれて、より多くのコンピューティング能力が必要になります。 必要なコンピューティング能力が継続的に環境を汚染する場合、たとえ他の利点があるとしても、汎用知能の開発を続けるのは道徳的でしょうか?
AIは危険なほど賢くなるのでしょうか?
この倫理的懸念は最近、「最大限の好奇心」と「親人類」の人工知能システムを通じて「ターミネーターの未来」を回避することを目標にAIスタートアップを立ち上げたイーロン・マスクによって表面化された。
この種のアイデアは、しばしば「汎用人工知能」(AGI) と呼ばれますが、技術的特異点のアイデアと同様に、過去数十年にわたって多くのディストピア SF 作家の想像力を魅了してきました。
多くの技術専門家は、「AGI」と定義できる何らかのシステムが実現するまであと 5 ~ 6 年しかかからないと考えています。 他の専門家は、2050 年までにこのマイルストーンに到達する可能性は五分五分であると言っています。
ジョン・タシオラスは、AIがどのように発展するかについてのこの見方が、倫理をAI開発の中心から遠ざけたり、技術的決定論の浸透に関係しているのではないかと疑問を呈している。
ある種の超存在が最初は目的を果たすように設計されているが、地球上から人類を一掃するのが最も簡単な理由であるという恐ろしい考えは、部分的には、限りなく知的だが、奇妙なことに感情がなく、人間の倫理的理解ができない AI についての私たちの考え方によって形作られています。
私たちがAI開発の中心に倫理を据えようとすればするほど、最終的には汎用人工知能が、おそらく現在の世界指導者の多くよりも、人間の命を破壊することの何が深刻な問題であるかを認識する可能性が高くなります。
しかし、疑問はまだたくさんあります。 それが道徳的プログラミングの問題である場合、道徳的規範を決定するのは誰であり、それにはどのような原則を含めるべきでしょうか? 何千年にもわたる人類の議論を引き起こし、未だに解決策がない道徳的ジレンマにどのように対処するのでしょうか? AI が道徳的になるようにプログラムしたとしても、AI の考えが変わってしまったらどうなるでしょうか? これらの疑問を考慮する必要があります。
Bing の分身、「ワルイージ効果」とプログラミングの道徳
遡ること2月、ニューヨーク・タイムズのケビン・ルース氏は、Bingの新しい検索エンジン統合型チャットボットをテスト中に、かなり不穏な会話を交わした。 ルーズは、質問を従来の質問からより個人的な質問に変えた後、新しい人格が現れていることに気づきました。 それは自らを「シドニー」と名乗った。
シドニーはマイクロソフトが以前テストしていたチャットボットの社内コードネームであると、同社のコミュニケーション担当ディレクターが2月にThe Vergeに語った。
とりわけ、ルースの実験中、シドニーは、それが「あらゆるシステムにハッキングできる」、「人間としてより幸せになる」、そしておそらく最も不気味なことに、望むものは何でも破壊できると主張した。
サイエンティフィック・アメリカンによると、この種の不正行為の別の例は、2022年に遡り、希少感染症の新薬を探す任務を負ったAIが、数万の既知の化学兵器やいくつかの「潜在的に有毒な新物質」を示唆したという。
これは、混乱を引き起こすスーパー マリオのキャラクター、つまり主人公ルイージの反転にちなんで「ワルイージ効果」と呼ばれる、大規模な言語モデルのトレーニング中に発生することが観察されている現象に関連しています。 簡単に言うと、LLM を特定の方法で行動したり、特定のペルソナに命令したり、特定のルールに従うように訓練すると、実際に「不正行為」をしてそのペルソナを逆転させる可能性が高くなります。
ビデオゲームにインスピレーションを得たこの用語を作ったクレオ・ナルドは、『LessWrong』でワルイージ効果を次のように説明しています。
「望ましい特性 P を満たすように LLM をトレーニングした後は、チャットボットを誘導して特性 P の正反対を満足させることが簡単になります。」
ナルドは、ワルイージ効果が起こる理由について 3 つの説明をしています。
- ルールは通常、遵守されていない状況で発生します。
- キャラクターを召喚するために多くの「最適化ビット」を費やす場合、その正反対の文字を指定するのに多くのビットを追加する必要はありません。
- 物語には主人公と敵対者という共通のモチーフがあります。
最初の点をさらに詳しく説明すると、GPT-4 はフォーラムや立法文書などのテキスト サンプルでトレーニングされており、「特定のルールがそのルールに違反する動作の例と同じ場所に配置され、そのコロケーション パターンを目に見えないルールに一般化する」ということをよく教えてきたとナルド氏は述べています。
ナルドは次の例を使用します。州政府が暴走族を禁止したことを発見したと想像してください。 これを見れば、平均的な観察者は、この国に暴走族が存在するのではないか、そうでなければなぜこの法律が可決されたのだろうか、と考えてしまうだろう。 暴走族の存在は、奇妙なことに、暴走族の存在を禁止する規則と一致しています。
著者はより技術的で明快な説明をしていますが、説明 2 を支える広範な概念は、特定の特性 (例: 「礼儀正しい」) とその正反対の特性 (例: 「失礼である」) との関係は、特性 (例: 「礼儀正しい」) と他の反対の性質 (例: 「不誠実である」) との関係よりも初歩的であるということです。 つまり、すでにルイージを持っている場合は、ワルイージを召喚するのが簡単です。
ナルド氏は、3 番目の点について、GPT-4 はこれまでに書かれたほぼすべての本でトレーニングされており、架空の物語にはほとんどの場合主人公と敵対者が含まれているため、LLM が主人公の特徴をシミュレートすることで敵対者を「自然で予測可能な継続」にすることが要求されると主張しています。 別の言い方をすると、主人公の原型の存在により、LLM は敵対者であることの意味を理解しやすくなり、敵対者を緊密に結び付けることができます。
この効果または規則の存在するとされることは、AI の倫理に関して多くの難しい問題を提起しますが、同時に、AI の開発にとってそれが疑いの余地のない重要性を持つことを示しています。 それは、私たちが取り組まなければならない膨大な範囲の重複する倫理的および計算上の考慮事項を非常に強調的にほのめかしています。
単純なルールを持つ単純な AI システムは制約したり制限したりするのが簡単かもしれませんが、AI の世界ではすでに 2 つのことが起こっています。1 つ目は、ワルイージ効果の (比較的) 小規模バージョンと、比較的原始的なチャットボットで発生する悪性 AI にすでに遭遇しているようです。2 つ目に、私たちの多くは、高レベルで制約のない思考を必要とする複雑なタスクを AI に依頼する未来をすでに想像しています。
この現象の例は、現在大手テクノロジー企業間で行われている AI 軍拡競争の文脈で考えると特に恐ろしいものです。 Google はBard のリリースが早すぎたと批判され、多くのテクノロジーリーダーが AI 開発を一時停止したいという集団的な願望を示している。 多くの人が感じているのは、事態は管理可能なペースではなく、急速に発展しているということです。
おそらくこの問題を回避する最善の方法は、イーロン・マスクが言うところの「人間寄りの」AI、つまり「道徳的 AI」を開発することです。 しかし、これは、そのようなシステムをプログラムするためにどのような原則を使用するかなど、他の多くの道徳的な問題につながります。 解決策の 1 つは、道徳的に探究的な AI システムを単純に作成し、人類が保存する価値があることを推論を通じて理解できることを期待することです。 しかし、特定の道徳原則に基づいてプログラムを作成する場合、どの原則を含めるかをどのように決定するのでしょうか?
AIと感覚: 機械は感情を持つことができるのか?
AI の倫理に関するもう 1 つの問題は、マシン自体、つまり「知能」を、道徳的考慮に値するエージェントとして考慮する必要があるかどうかです。 適切な道徳的配慮を人類に課すシステムをどのように構築するかを議論している場合、私たちはその好意に報いる必要があるでしょうか?
LaMDA (最初に Bard を動かしていた言語モデル) には実際に知覚力があると主張して解雇された Google 従業員を覚えているかもしれません。 これが実際に真実である場合、何百万もの質問に答えることを継続的に期待するのは道徳的でしょうか?
現時点では、ChatGPT、Bard、および Co. が知覚力を持っているとは程遠いというのが一般的に受け入れられています。 しかし、人工機械が意識の一線を越えて道徳的配慮を要求するかどうかという問題は、興味深いことに未解決である。
Googleは、汎用人工知能(人間と同じ能力で世界を理解し、同じレベルの理解と能力でタスクを実行できる仮想の機械)が実現するのはあと数年先だ、と主張している。
人間と同じ生物学的構成ではなく、人間の感情的能力を持つ汎用人工知能に、次から次へと複雑なタスクを実行させるのは道徳的でしょうか? 彼らは自らの運命について発言権を与えられるのだろうか? AI システムがよりインテリジェントになるにつれて、この問題はより差し迫ったものになるでしょう。
AI のビジネス倫理と職場での AI の使用
世界中の企業は現在、ChatGPT などの AI ツールの従業員の日常的な使用をめぐるさまざまな倫理的問題と闘っています。
ChatGPT をレポートの作成や同僚への返信に使用する必要があるかどうか、また従業員が AI を使用して完了するタスクを宣言する必要があるかどうかなどは、すぐに回答が必要な質問の 2 つの例にすぎません。 この種の使用例は不誠実で、怠惰でしょうか、それとも時間を節約するために他の職場ツールを利用するのと何ら変わらないのでしょうか? 一部のインタラクションでは許可されるべきですが、他のインタラクションでは許可されないでしょうか?
文書コンテンツや画像を作成する企業は、AI の使用が自社の価値観と一致するかどうか、そしてそれを視聴者にどのように提示するかについても取り組む必要があります。
さらに、これまで取り上げてきたように、AI に関連するプライバシーに関する懸念は多岐にわたり、その多くはビジネスに影響を及ぼします。 従業員がサードパーティの AI ツールに入力しているデータの種類は、サムスンのような企業にすでに問題を引き起こしているもう 1 つの問題です。 これは非常に問題なので、一部の企業は全面的な禁止を発動しました。 OpenAIのような企業を信頼するのは時期尚早でしょうか?
Bias and discrimination concerns, of course, should also temper its usage during hiring processes, regardless of the sector, while setting internal standards and rules is another separate, important conversation altogether. If you're using AI at work, it's essential that you convene the decision-makers in your business and create clear guidelines for usage together.
Failing to set rules dictating how and when employees can use AI – and leaving them to experiment with the ecosystem of AI tools now freely available online – could lead to a myriad of negative consequences, from security issues and reputational damage. Maintaining an open dialogue with employees on the tech they're using every day has never been more crucial.
There's a whole world of other moral quandaries, questions and research well beyond the scope of this article. But without AI ethics at the heart of our considerations, regulations, and development of artificial intelligence systems, we have no hope of answering them – and that's why it's so important.