人工知能 (AI) は危険ですか?
公開: 2023-05-312023年5月22日月曜日、「ブルームバーグ・フィード」と呼ばれる認証済みツイッターアカウントが、国防総省で爆発があったとするツイートを画像付きで共有した。 これが人工知能 (AI) と何の関係があるのか疑問に思っている方のために説明すると、この画像は AI によって生成されたもので、ツイートはすぐに拡散し、株式市場の一時的な下落を引き起こしました。 事態はさらに悪化する可能性がありました。これは、人工知能の危険性をはっきりと思い出させます。
人工知能の危険性
私たちが心配する必要があるのはフェイクニュースだけではありません。 AI には、プライバシーやセキュリティから偏見や著作権の問題に至るまで、多くの差し迫ったリスクや潜在的なリスクが存在します。 これらの人工知能の危険性のいくつかを掘り下げ、現在および将来的にそれらを軽減するために何が行われているかを確認し、AI のリスクが利点を上回るかどうかを尋ねます。
フェイクニュース
ディープフェイクが初めて登場したとき、悪意を持って使用されるのではないかという懸念が生じました。 DALL-E 2、Midjourney、DreamStudio などの AI 画像ジェネレーターの新しい波にも同じことが言えます。 2023年3月28日、AIが生成した偽の教皇フランシスコがバレンシアガの白いダウンジャケットを着て、スケートボードやポーカーなどの冒険を楽しむ画像が急速に拡散した。 画像を注意深く観察しない限り、これらの画像を本物と区別するのは困難でした。
ローマ法王の例は間違いなくちょっと面白いものだったが、国防総省に関する画像(およびそれに付随するツイート)はまったく違ったものだった。 AI によって生成された偽の画像は、評判を傷つけ、結婚やキャリアに終止符を打ち、政情不安を引き起こし、間違った人々が使用した場合には戦争を引き起こす可能性さえあります。つまり、これらの AI によって生成された画像は、悪用されると非常に危険になる可能性があります。
AI 画像ジェネレーターが誰でも無料で利用できるようになり、Photoshop が人気のソフトウェアに AI 画像ジェネレーターを追加したことにより、画像を操作してフェイク ニュースを作成する機会がこれまで以上に大きくなりました。
プライバシー、セキュリティ、ハッキング
AI のリスクに関しては、プライバシーとセキュリティも大きな懸念事項となっており、多くの国がすでに OpenAI の ChatGPT を禁止しています。 イタリアはこのモデルが欧州一般データ保護規則(GDPR)に準拠していないと考え、プライバシー上の懸念からこのモデルを禁止し、中国、北朝鮮、ロシアの政府は誤った情報が拡散することを懸念してこのモデルを禁止した。
では、なぜ私たちは AI に関してプライバシーをこれほど懸念するのでしょうか? AI アプリとシステムは、学習して予測を行うために大量のデータを収集します。 しかし、このデータはどのように保存され、処理されるのでしょうか? データ侵害、ハッキング、情報が悪者の手に渡るという現実のリスクがあります。
危険にさらされているのは私たちの個人データだけではありません。 AI ハッキングは本物のリスクです。まだ起こっていませんが、悪意のある者が AI システムをハッキングできれば、深刻な結果が生じる可能性があります。 たとえば、ハッカーは無人車両を制御したり、AI セキュリティ システムをハッキングして非常に安全な場所に侵入したり、さらには AI セキュリティを備えた兵器システムをハッキングしたりする可能性があります。
米国国防総省の国防高等研究計画局 (DARPA) の専門家はこれらのリスクを認識しており、すでに DARPA の「欺瞞に対する AI の堅牢性の保証 (GARD)」プロジェクトに取り組んでおり、この問題に根本から取り組んでいます。 このプロジェクトの目標は、ハッキングや改ざんに対する耐性をアルゴリズムや AI に確実に組み込むことです。
著作権侵害
AI のもう 1 つの危険は著作権侵害です。 これは、これまで述べてきた他の危険ほど深刻ではないように聞こえるかもしれませんが、GPT-4 のような AI モデルの開発により、誰もが侵害のリスクが増大します。
ChatGPT に旅行に関するブログ投稿であれ、ビジネスの新しい名前であれ、何かの作成を依頼するたびに、将来のクエリに答えるために使用される情報が ChatGPT に入力されます。 AI によってフィードバックされる情報は、他人の著作権を侵害している可能性があります。そのため、AI によって作成されたコンテンツを公開する前に、盗用検出ツールを使用して編集することが非常に重要です。
社会的バイアスとデータバイアス
AIは人間ではないので、偏見を持つことはできませんよね? 間違い。 AI モデルとチャットボットのトレーニングには人とデータが使用されます。つまり、偏ったデータや性格は偏った AI をもたらします。 AI には、社会バイアスとデータ バイアスという 2 種類のバイアスがあります。
日常社会には多くのバイアスが存在しますが、これらのバイアスが AI の一部になると何が起こるでしょうか? モデルのトレーニングを担当するプログラマーは偏った期待を持ち、それが AI システムに組み込まれる可能性があります。
あるいは、AI のトレーニングと開発に使用されるデータが不正確であったり、偏見があったり、悪意を持って収集されたりする可能性があります。 これはデータバイアスにつながり、社会バイアスと同じくらい危険な可能性があります。 たとえば、顔認識システムが主に白人の顔を使用してトレーニングされた場合、少数派グループの顔を認識するのに苦労し、抑圧が永続する可能性があります。
ロボットが私たちの仕事を奪う
ChatGPT や Google Bard などのチャットボットの開発により、AI を取り巻くまったく新しい懸念が生まれました。それは、ロボットが私たちの仕事を奪うリスクです。 テクノロジー業界ではライターが AI に置き換えられ、ソフトウェア開発者はボットに仕事を奪われるのではないかと心配し、企業は人間のライターを雇わずに ChatGPT を使用してブログ コンテンツやソーシャル メディア コンテンツを作成しているのをすでに目にしています。
世界経済フォーラムの「仕事の未来レポート 2020」によると、2025 年までに世界中で 8,500 万人の仕事が AI に置き換わると予想されています。たとえ AI が作家に取って代わることはなくても、すでに多くの人がツールとして使用しています。 AI に置き換えられるリスクのある仕事に就いている人は、生き残るために適応する必要があるかもしれません。たとえば、ライターが AI プロンプト エンジニアになり、これらのモデルに置き換えられるのではなく、ChatGPT などのツールを使ってコンテンツを作成できるようになるかもしれません。
将来の潜在的な AI リスク
これらはすべて差し迫ったリスク、または差し迫ったリスクですが、可能性は低いものの、将来的に発生する可能性のある AI の危険についてはどうでしょうか? これらには、人間に危害を加えるようにプログラムされたAI、たとえば、戦争中に人を殺すために訓練された自律型兵器などが含まれます。
さらに、AI がプログラムされた目標にひたすら集中し、たとえ人間がそれを阻止しようとしても、どんな犠牲を払ってでもその目標を達成しようとするため、破壊的な行動を起こすリスクがあります。
スカイネットは、AI が知的になると何が起こるかを教えてくれました。 しかし、Google のエンジニア、ブレイク・ルモワン氏は、Google の人工知能チャットボット生成装置である LaMDA が 2022 年 6 月に感覚を持っていたことを皆に説得しようとしたかもしれないが、ありがたいことにこれが真実であることを示す証拠はこれまでのところない。
AI規制の課題
202年5月15日月曜日、OpenAIの最高経営責任者(CEO)サム・アルトマン氏は人工知能に関する初の議会公聴会に出席し、「この技術がうまくいかない場合、かなり間違った方向に進む可能性がある」と警告した。 OpenAI CO は、規制を支持していることを明らかにし、公聴会に彼自身のアイデアの多くを持ち込みました。 問題は、AI が非常に速いスピードで進化しているため、どこから規制を始めればよいのかを知ることが難しいことです。
議会はソーシャルメディア時代の初期に犯したのと同じ過ちを犯すことを避けたいと考えており、チャック・シューマー上院多数党院内総務と専門家チームは既に、企業がモデルのトレーニングにどのようなデータソースを使用したか、誰が誰であるかを明らかにすることを義務付ける規制に取り組んでいる。彼らを訓練した。 ただし、AIがどのように規制されるのかが明確になるまでにはしばらく時間がかかる可能性があり、AI企業からの反発があるのは間違いない。
汎用人工知能の脅威
また、人間 (または動物) が実行できるあらゆるタスクを実行できる汎用人工知能 (AGI) が作成されるリスクもあります。 SF 映画でよく言及されているように、そのような創造物が実現されるまでにはおそらくまだ数十年かかりますが、AGI が実現した場合、それは人類に脅威をもたらす可能性があります。
スティーブン・ホーキング博士、ビル・ゲイツ氏、さらには元Google CEOのエリック・シュミット氏を含む多くの著名人がすでにAIが人類に存亡の脅威をもたらすという信念を支持しており、次のように述べています。このテクノロジーは邪悪な人々によって悪用されることはありません。」
では、人工知能は危険なのでしょうか、またそのリスクがその利点を上回るのでしょうか? 陪審はまだそれについて結論を出していないが、現時点で私たちの周りにあるリスクのいくつかの証拠がすでに見えている。 他の危険は、たとえあったとしても、すぐに現実になる可能性は低いです。 ただし、明らかなことが 1 つあります。AI の危険性を過小評価すべきではないということです。 将来のリスクを最小限に抑え、できれば軽減するために、AI が最初から適切に規制されていることを確認することが最も重要です。