Проблемы искусственного интеллекта в 2024 году: выводы трех ведущих исследователей искусственного интеллекта

Опубликовано: 2024-01-13

2023 год стал переломным моментом в эволюции искусственного интеллекта и его роли в обществе.

В этом году появился генеративный искусственный интеллект, который вывел эту технологию из тени на центральное место в общественном воображении. В течение нескольких дней в новостном цикле доминировала драма в зале заседаний совета директоров стартапа в области искусственного интеллекта.

И это стало свидетелем того, как администрация Байдена издала указ, а Европейский Союз принял закон, направленный на регулирование ИИ. Эти шаги, пожалуй, лучше всего можно описать как попытку обуздать лошадь, которая уже скачет галопом.

Мы собрали группу ученых в области ИИ, чтобы заглянуть в будущее до 2024 года и описать проблемы, с которыми могут столкнуться разработчики ИИ, регулирующие органы и обычные люди, а также поделиться своими надеждами и рекомендациями.


Кейси Фислер, доцент кафедры информатики, Университет Колорадо в Боулдере

2023 год стал годом ажиотажа вокруг искусственного интеллекта. Независимо от того, было ли повествование о том, что ИИ собирается спасти мир или уничтожить его, часто казалось, что представления о том, каким ИИ может когда-нибудь стать, подавляют текущую реальность.

И хотя я считаю, что предвидение будущего вреда является важнейшим компонентом преодоления этического долга в сфере технологий, слишком увлекаясь шумихой, вы рискуете создать видение ИИ, которое больше похоже на волшебство, чем на технологию, которую все еще можно формировать посредством явного выбора.

Но чтобы взять под контроль, необходимо лучше понять эту технологию.

Одна из главных дебатов об искусственном интеллекте в 2023 году была вокруг роли ChatGPT и подобных чат-ботов в образовании.

В прошлом году на этот раз самые актуальные заголовки были посвящены тому, как студенты могут использовать это для мошенничества и как преподаватели изо всех сил стараются удержать их от этого – способами, которые часто приносят больше вреда, чем пользы.

Однако в течение года стало понятно, что неспособность обучать учащихся ИИ может поставить их в невыгодное положение, и многие школы отменили свои запреты.

Я не думаю, что нам следует перестраивать образование, чтобы поставить ИИ в центр всего, но если учащиеся не узнают о том, как работает ИИ, они не поймут его ограничений – и, следовательно, того, насколько полезно и целесообразно его использовать и как это не так.

Это справедливо не только для студентов. Чем больше людей понимают, как работает ИИ, тем больше у них возможностей использовать его и критиковать.

Итак, мой прогноз или, возможно, моя надежда на 2024 год заключается в том, что будет огромный толчок к обучению.

В 1966 году Джозеф Вайценбаум, создатель чат-бота ELIZA, написал, что машин «часто достаточно, чтобы ослепить даже самого опытного наблюдателя», но как только их «внутренняя работа объяснена на языке, достаточно простом, чтобы вызвать понимание, их магия рассыпается». ».

Проблема с генеративным искусственным интеллектом заключается в том, что, в отличие от очень простой методологии сопоставления и замены образов ELIZA, гораздо сложнее найти язык «достаточно простой», чтобы магия ИИ рассыпалась.

Я думаю, что это возможно. Я надеюсь, что университеты, которые спешат нанять больше технических экспертов по ИИ, приложат столько же усилий к найму специалистов по этике ИИ. Я надеюсь, что средства массовой информации помогут развеять эту шумиху. Я надеюсь, что каждый задумается о своем использовании этой технологии и ее последствиях.

И я надеюсь, что технологические компании прислушаются к информированной критике при рассмотрении того, какой выбор продолжит формировать будущее. Многие проблемы предстоящего года будут связаны с проблемами искусственного интеллекта, с которыми общество уже сталкивается.


Кентаро Тояма, профессор общественной информации, Мичиганский университет

В 1970 году Марвин Мински, пионер искусственного интеллекта и скептик в области нейронных сетей, сказал журналу Life: «Через три-восемь лет у нас будет машина с общим интеллектом среднего человека».

Учитывая сингулярность, в тот момент, когда искусственный интеллект станет соответствовать человеческому интеллекту и начнет превосходить его (еще не совсем), можно с уверенностью сказать, что Мински ошибся как минимум в 10 раз. Делать прогнозы относительно ИИ опасно.

Тем не менее, делать прогнозы на год вперед не кажется таким уж рискованным. Чего можно ожидать от ИИ в 2024 году?

Во-первых, гонка началась! Прогресс в области искусственного интеллекта был устойчивым со времен премьер-министра Мински, но публичный выпуск ChatGPT в 2022 году положил начало тотальной конкуренции за прибыль, славу и глобальное превосходство.

Ожидайте более мощного ИИ в дополнение к потоку новых приложений ИИ.

Большой технический вопрос заключается в том, как скоро и насколько тщательно инженеры ИИ смогут устранить нынешнюю ахиллесову пяту глубокого обучения – то, что можно назвать обобщенными жесткими рассуждениями, такими вещами, как дедуктивная логика.

Будет ли достаточно быстрой настройки существующих алгоритмов нейронных сетей или для этого потребуется принципиально иной подход, как предполагает нейробиолог Гэри Маркус?

Над этой проблемой работают армии ученых в области искусственного интеллекта, поэтому я ожидаю некоторого прогресса в 2024 году.

Между тем, новые приложения ИИ, вероятно, также приведут к новым проблемам. Возможно, вскоре вы начнете слышать о чат-ботах и ​​помощниках искусственного интеллекта, которые разговаривают друг с другом, ведут целые разговоры от вашего имени, но за вашей спиной.

Некоторые из них пойдут наперекосяк – комично, трагично или и то, и другое.

Дипфейки, изображения и видео, созданные с помощью искусственного интеллекта, которые трудно обнаружить, вероятно, будут распространяться безудержно, несмотря на зарождающееся регулирование, нанося еще более грязный вред отдельным людям и демократиям 1. повсюду. И, вероятно, возникнут новые классы катастроф ИИ, которые были бы невозможны даже пять лет назад.

Говоря о проблемах, те самые люди, которые громче всех бьют тревогу по поводу ИИ, такие как Илон Маск и Сэм Альтман, похоже, не могут удержаться от создания еще более мощного ИИ.

Я ожидаю, что они будут продолжать делать то же самое. Они подобны поджигателям, вызывающим пожар, который сами же и разожгли, и умоляющим власти сдержать их.

И в этом плане я больше всего надеюсь на 2024 год (хотя это кажется медленным) — это более строгое регулирование ИИ на национальном и международном уровнях.


Анжана Сусарла, профессор информационных систем, Мичиганский государственный университет

За год, прошедший с момента запуска ChatGPT, развитие генеративных моделей искусственного интеллекта продолжается головокружительными темпами.

В отличие от ChatGPT год назад, который принимал текстовые подсказки в качестве входных данных и выдавал текстовый вывод, новый класс генеративных моделей ИИ обучен быть мультимодальным, то есть данные, используемые для их обучения, поступают не только из текстовых источников, таких как Википедия и Reddit, а также видео на YouTube, песни на Spotify и другая аудио- и визуальная информация.

Благодаря новому поколению мультимодальных моделей большого языка (LLM), лежащих в основе этих приложений, вы можете использовать ввод текста для генерации не только изображений и текста, но также аудио и видео.

Компании стремятся разработать LLM, которые можно будет развернуть на различном оборудовании и в различных приложениях, включая запуск LLM на вашем смартфоне.

Появление этих легких LLM и LLM с открытым исходным кодом может открыть мир автономных агентов ИИ – мир, к которому общество не обязательно готово.

Эти расширенные возможности искусственного интеллекта предлагают огромную преобразующую силу в различных приложениях, от бизнеса до точной медицины.

Меня больше всего беспокоит то, что такие расширенные возможности создадут новые проблемы в различении контента, созданного человеком, и контента, созданного искусственным интеллектом, а также создадут новые типы алгоритмического вреда.

Поток синтетического контента, создаваемого генеративным искусственным интеллектом, может создать мир, в котором злонамеренные люди и учреждения смогут создавать синтетические личности и организовывать крупномасштабную дезинформацию.

Поток контента, созданного искусственным интеллектом и использующего алгоритмические фильтры и системы рекомендаций, вскоре может превзойти такие важные функции, как проверка информации, информационная грамотность и интуиция, обеспечиваемые поисковыми системами, платформами социальных сетей и цифровыми сервисами.

Федеральная торговая комиссия предупредила о мошенничестве, обмане, нарушении конфиденциальности и других недобросовестных практиках, ставших возможными благодаря простоте создания контента с помощью искусственного интеллекта.

Хотя цифровые платформы, такие как YouTube, ввели руководящие принципы политики раскрытия контента, созданного искусственным интеллектом, существует необходимость более тщательного изучения алгоритмического ущерба со стороны таких агентств, как FTC, и законодателей, работающих над защитой конфиденциальности, таких как Американский закон о конфиденциальности и защите данных.

Новый двухпартийный законопроект, представленный в Конгрессе, направлен на кодификацию алгоритмической грамотности как ключевой части цифровой грамотности.

Поскольку ИИ все больше переплетается со всем, что делают люди, становится ясно, что пришло время сосредоточиться не на алгоритмах как на части технологии, а на рассмотрении контекстов, в которых алгоритмы работают: людей, процессов и общества.

Примечание редактора: эту статью написали Анджана Сусарла, профессор информационных систем Мичиганского государственного университета, Кейси Фислер, доцент кафедры информатики, Университет Колорадо в Боулдере, Кентаро Тояма, профессор общественной информации, Мичиганский университет, и переиздана из The Conversation. по лицензии Creative Commons. Прочтите оригинал статьи.

Следите за нами в Flipboard, Google News или Apple News.