2024 年の AI の課題: 3 人の主要な AI 研究者からの洞察

公開: 2024-01-13

2023 年は、人工知能の進化と社会におけるその役割の転換点でした。

この年には、生成 AI が登場し、このテクノロジーが影の存在から大衆の想像力の表舞台に躍り出ました。 また、AI スタートアップ企業の取締役会でのドラマが数日間ニュースサイクルを独占した。

そして、バイデン政権が大統領令を出し、欧州連合がAIの規制を目的とした法律を可決した。この動きは、すでに疾走している馬に手綱をつけようとしていると表現するのが最も適切かもしれない。

私たちは、2024 年を展望し、AI 開発者、規制当局、一般の人々が直面する可能性のある問題について説明し、希望と推奨事項を示すために AI 学者のパネルを編成しました。


Casey Fiesler 氏、情報科学准教授、コロラド大学ボルダー校

2023 年は AI の誇大宣伝の年でした。 AI が世界を救うのか、それとも世界を破壊するのかという物語のどちらにせよ、いつか AI がどのようになるかというビジョンが現在の現実を圧倒しているように感じることがよくありました。

そして、将来の危害を予測することは、テクノロジーにおける倫理的負債を克服するための重要な要素であると私は考えていますが、誇大宣伝に流されすぎると、明示的な選択によって形成できるテクノロジーというよりも、魔法のような AI のビジョンが生み出される危険性があります。

しかし、制御するには、そのテクノロジーをより深く理解する必要があります。

2023 年の AI に関する主要な議論の 1 つは、教育における ChatGPT および同様のチャットボットの役割に関するものでした。

昨年の今頃、最も関連性の高い見出しは、学生が不正行為にどのように利用するか、そして教育者がそのような行為を防ぐためにどのように奮闘しているか、つまりしばしば良いことよりも害を及ぼす方法に焦点を当てていました。

しかし、年が経つにつれて、生徒に AI について教えないと不利な立場に置かれる可能性があるという認識が広まり、多くの学校が禁止を取り消しました。

AI をすべての中心に置くために教育を刷新する必要があるとは思いませんが、生徒が AI がどのように機能するかを学ばなければ、AI の限界、つまり AI がどのように便利で適切に使用できるのかを理解できません。なんとそうではないのです。

これは学生だけに当てはまることではありません。 AI の仕組みを理解する人が増えれば増えるほど、AI を使用したり、批判したりできるようになります。

したがって、2024 年に向けての私の予測、あるいは希望は、学習への大きな後押しが起こるだろうということです。

1966年、ELIZAチャットボットの開発者であるジョセフ・ワイゼンバウムは、機械は「最も経験豊富な観察者さえも驚かせるほど十分である」が、その内部の仕組みが「理解を促すのに十分平易な言語で説明されると、その魔法は崩れ去る」と書いている。 」

生成型人工知能の課題は、ELIZA の非常に基本的なパターン マッチングと置換の方法論とは対照的に、AI の魔法を打ち砕くのに「十分に平易な」言語を見つけるのがはるかに難しいことです。

これを実現することは可能だと思います。 AI技術専門家の採用を急いでいる大学には、AI倫理学者の採用にも同じくらい力を入れてほしいと思います。 報道機関が誇大広告を打ち破るのに協力してくれることを願っています。 誰もがこのテクノロジーの自分自身の使用法とその結果を振り返ってほしいと思います。

そして、テクノロジー企業が今後どのような選択が未来を形作るのかを検討する際に、情報に基づいた批評に耳を傾けることを願っています。今後 1 年間の課題の多くは、社会がすでに直面している AI の問題に関係しています。


遠山 健太郎 ミシガン大学コミュニティ情報教授

1970 年、AI の先駆者でニューラル ネットワーク懐疑論者のマービン ミンスキーはライフ誌に、「3 年から 8 年以内に、平均的な人間と同等の一般的な知能を備えたマシンが登場するでしょう」と語った。

シンギュラリティにより、人工知能が人間の知能に匹敵し、人間の知能を超え始めた瞬間(まだ完全には到達していませんが)、ミンスキーは少なくとも 10 倍外れていたと言っても過言ではありません。AI について予測するのは危険です。

それでも、1 年後の予測を立てることはそれほど危険ではないようです。 2024 年の AI には何が期待できるでしょうか?

まずはレースの始まりです! AI の進歩はミンスキーの全盛期から着実に進んでいたが、2022 年の ChatGPT の一般公開により、利益、栄光、世界の覇権をめぐる全面的な競争が始まった。

新しい AI アプリケーションの洪水に加えて、より強力な AI が期待されます。

技術的な大きな問題は、AI エンジニアが現在のディープラーニングのアキレス腱、つまり演繹論理のような一般化された厳密な推論と呼ばれるものに、どれだけ早く、どのくらい徹底的に対処できるかということです。

既存のニューラルネット アルゴリズムを簡単に調整するだけで十分なのでしょうか、それとも、神経科学者のゲイリー マーカス氏が示唆するように、根本的に異なるアプローチが必要になるのでしょうか?

AI 科学者の軍隊がこの問題に取り組んでいるため、2024 年にはある程度の進歩が見込まれると予想されます。

その一方で、新しい AI アプリケーションによって新たな問題が発生する可能性もあります。 AI チャットボットとアシスタントが互いに会話し、ユーザーに代わって背後で会話全体を行うという話をすぐに耳にするようになるかもしれません。

そのうちのいくつかは、滑稽なほど、悲劇的に、あるいはその両方で大混乱に陥るでしょう。

検出が難しいディープフェイク、AI が生成した画像や動画は、規制が始まったばかりであるにもかかわらず蔓延し、あらゆる場所で個人や民主主義にさらに卑劣な害を及ぼす可能性があります。 そして、5年前には考えられなかった新たな種類のAI災害が発生する可能性があります。

問題と言えば、イーロン・マスクやサム・アルトマンといった、AIに関して最も声高に警鐘を鳴らしている人々こそが、より強力なAIを構築することを止められないようだ。

私は彼らが今後も同じことを続けることを期待しています。 彼らは放火犯が自分たちで火を起こして当局に自制を懇願するようなものである。

そして、これらの線に沿って、2024 年に私が最も期待しているのは、来るのが遅いように見えますが、国内および国際レベルでの AI 規制の強化です。


アンジャナ・スサーラ氏、ミシガン州立大学情報システム教授

ChatGPT の発表から 1 年が経ち、生成 AI モデルの開発は目まぐるしいペースで続けられています。

テキスト プロンプトを入力として取り込み、テキスト出力を生成した 1 年前の ChatGPT とは対照的に、新しいクラスの生成 AI モデルはマルチモーダルになるようにトレーニングされています。つまり、トレーニングに使用されるデータは、次のようなテキスト ソースだけではありません。 Wikipedia や Reddit だけでなく、YouTube のビデオ、Spotify の曲、その他のオーディオおよびビジュアル情報も利用できます。

これらのアプリケーションを強化する新世代のマルチモーダル大規模言語モデル (LLM) を使用すると、テキスト入力を使用して画像やテキストだけでなく、オーディオやビデオも生成できます。

企業は、スマートフォンで LLM を実行するなど、さまざまなハードウェアやさまざまなアプリケーションに導入できる LLM の開発を競っています。

これらの軽量 LLM とオープンソース LLM の出現により、自律型 AI エージェントの世界が到来する可能性があります。これは社会が必ずしも準備ができているわけではありません。

これらの高度な AI 機能は、ビジネスから精密医療に至るまでのアプリケーションに計り知れない変革力をもたらします。

私の主な懸念は、このような高度な機能により、人間が生成したコンテンツと AI が生成したコンテンツを区別する際に新たな課題が生じ、新たなタイプのアルゴリズム上の害が生じることです。

生成 AI によって生成される合成コンテンツの氾濫により、悪意のある人物や組織が合成 ID を製造し、大規模な誤情報を組織できる世界が到来する可能性があります。

アルゴリズムフィルターやレコメンデーションエンジンを悪用するために準備されたAI生成コンテンツの洪水は、検索エンジン、ソーシャルメディアプラットフォーム、デジタルサービスによって提供される情報検証、情報リテラシー、セレンディピティなどの重要な機能を間もなく圧倒する可能性があります。

米連邦取引委員会は、AI支援によるコンテンツ作成の容易さによって可能になる詐欺、欺瞞、プライバシー侵害、その他の不当な行為について警告している。

YouTube などのデジタル プラットフォームは、AI によって生成されたコンテンツの開示に関するポリシー ガイドラインを制定していますが、FTC などの機関や、米国データ プライバシーおよび保護法などのプライバシー保護に取り組んでいる議員によるアルゴリズムの危害をより厳しく監視する必要があります。

議会に提出された新しい超党派の法案は、デジタル リテラシーの重要な部分としてアルゴリズム リテラシーを成文化することを目的としています。

AI が人々の行動すべてにますます絡み合っているため、テクノロジーの一部としてのアルゴリズムに焦点を当てるのではなく、アルゴリズムが動作するコンテキスト (人、プロセス、社会) を考慮する時期が来ていることは明らかです。

編集者注:この記事は、ミシガン州立大学情報システム教授 Anjana Susarla、コロラド大学ボルダー大学情報科学准教授 Casey Fiesler、ミシガン大学コミュニティ情報教授外山健太郎によって執筆され、The Conversation から再掲載されました。クリエイティブ・コモンズ・ライセンスに基づいて。 元の記事を読んでください。

Flipboard、Google ニュース、または Apple ニュースでフォローしてください