AI の選択に依存すると、私たちの意思決定スキルが弱まる可能性がある
公開: 2024-04-22人工知能が人々の日常生活に深く浸透するにつれて、それに対する懸念も高まっています。 最も憂慮すべきは、AIが暴走し、その主人である人間を抹殺するのではないかという懸念だ。
しかし、AI 開発の一時停止を求める声の背後には、より具体的な一連の社会悪がある。
その中には、AI が人々のプライバシーと尊厳にもたらすリスクや、AI の内部にあるアルゴリズムは人間によってプログラムされているため、私たちの多くと同じように偏見や差別的であるという避けられない事実も含まれます。
AI が誰によってどのように設計されているかに関する透明性の欠如を考慮すると、なぜ最近、AI の可能性だけでなくリスクについても議論することに多くの時間が費やされているのかは簡単に理解できます。
しかし、人々がどのように意思決定を行うかを研究する心理学者としての私自身の研究では、これらすべてのリスクは、ほとんど目に見えないものの、さらに腐敗をもたらす脅威によって影が薄くなっていると確信しています。
つまり、AI は、思慮深い意思決定に関して人々の規律やスキルをさらに低下させることを、キーを押すだけで回避できるのです。
思慮深い決断を下す
思慮深い意思決定を行うプロセスには、直面しているタスクや問題を時間をかけて理解することから始まる 3 つの常識的なステップが含まれます。
何を知る必要があるのか、後で確実に自信を持って弁護できる決定を下すためには何をする必要があるのかを自問してください。
これらの質問に対する答えは、知識のギャップを埋め、これまでの信念や仮定に疑問を投げかける情報を積極的に探すかどうかにかかっています。
実際、この反事実的な情報、つまり人々が特定の前提条件を解放したときに現れる別の可能性が、最終的に批判されたときに自分の決定を守る力を与えてくれます。
2 番目のステップは、一度に複数のオプションを探して検討することです。 生活の質を向上させたいですか?
誰に投票するか、受け入れる仕事、または購入するものであっても、そこにたどり着く道は常に複数あります。
少なくともいくつかのもっともらしい選択肢を積極的に検討して評価することに労力を費やし、その長所と短所を考慮してトレードオフを誠実に検討することは、思慮深く防御可能な選択の特徴です。
3 番目のステップは、必要な精神的な重労働をすべて完了するまで、意思決定の終了を遅らせることです。
それは秘密ではありません。閉店は、難しい決断や重要な決断を忘れたことを意味するので、気分が良いものです。 しかし、時期尚早に先に進むことの代償は、時間をかけて下調べをするよりもはるかに高くなる可能性があります。
私の言うことを信じられないなら、自分の感情に任せて、時間をかけてもう少し真剣に考えなかったために後悔したときのことを思い出してみてください。
意思決定を AI にアウトソーシングする危険性
これら 3 つの手順はどれも、実行するのがそれほど難しいものではありません。 しかし、ほとんどの人にとって、それらは直感的でもありません。 思慮深く防御可能な決定を下すには、練習と自己規律が必要です。
そしてここに、AI が人々をさらす隠れた害が現れるのです。AI はほとんどの「思考」を舞台裏で行い、文脈や熟慮を省略した答えをユーザーに提示します。
さらに悪いことに、AI は人々が自分自身で思慮深く防御可能な決定を下すプロセスを実践する機会を奪います。
今日、人々が多くの重要な決定にどのように取り組んでいるかを考えてみましょう。 人間は精神的エネルギーの消費に関して倹約する傾向があるため、さまざまな偏見を持ちやすいことがよく知られています。
この倹約性により、人々は、一見良い、または信頼できる決定が下されると、それを好むようになります。 そして、私たちは社会的な動物であり、自分自身の自主性を重視するよりも、コミュニティの安全と受け入れを重視する傾向があります。
そこに AI を加えると、危険なフィードバック ループが生まれます。AI がアルゴリズムを強化するためにマイニングしているデータは、人々の偏った決定で構成されており、批判的推論の知恵ではなく、同調圧力も反映しています。
しかし、人々は自分のために決定を下してもらうことを好むため、これらの悪い決定を受け入れて次の決定に進む傾向があります。 結局のところ、私たちも AI も賢くなることはありません。
AI時代の思慮深さ
AI が社会に何の利益ももたらさないと主張するのは間違っています。
特に、複雑なモデルや大量のデータを日常的かつ迅速に分析する必要があるサイバーセキュリティ、ヘルスケア、金融などの分野では、そうなる可能性が最も高くなります。
ただし、日常的な意思決定のほとんどには、この種の分析能力は必要ありません。
しかし、私たちが求めるかどうかに関係なく、私たちの多くはすでに、娯楽や旅行から学業、医療、金融に至るまで、さまざまな場面で AI からアドバイスを受け、また AI によって実行される仕事を受けています。
そしてデザイナーたちは、日々の意思決定をさらに自動化できる次世代 AI の開発に熱心に取り組んでいます。 そして、これは私の考えでは危険です。
ソーシャルメディアのアルゴリズムのおかげで、人々が何をどのように考えるかがすでに包囲されている世界では、AIがあらゆる種類の決定を下せる高度なレベルに到達することを許可すると、私たちはさらに危険な立場に陥る危険があります。私たちの代わりに。
実際、私たちは、AI のサイレンの呼びかけに抵抗し、人間であることの真の特権と責任、つまり自分で考えて選択できるという所有権を取り戻す責任を自分自身に負っています。 そうすれば気分も良くなりますし、重要なことに、もっと良くなります。
これについて何か考えはありますか? 以下のコメント欄に記入していただくか、Twitter または Facebook でディスカッションを行ってください。
編集者のおすすめ:
- AI の時代でも航空管制に人間の手が必要な理由
- ChatGPT や他の言語 AI も私たちと同じように非合理的です
- 学生が Python スキルを抑制するために AI をどのように活用しているか
- 自動運転自動車レースが AI を強化し、より安全な自動運転車を実現
編集者注:この記事は、ジョー・アルヴァイ、ダナ、デイビッド・ドーンサイフ心理学教授、USC ドーンサイフ文学芸術科学大学リグレー環境持続可能性研究所所長によって書かれ、クリエイティブ・コモンズ・ライセンスの下で The Conversation から再公開されました。 元の記事を読んでください。