Опасен ли искусственный интеллект (ИИ)?

Опубликовано: 2023-05-31

В понедельник, 22 мая 2023 года, проверенный аккаунт в Твиттере под названием «Bloomberg Feed» поделился твитом, в котором утверждалось, что в Пентагоне произошел взрыв, сопровождаемый изображением. Если вам интересно, какое отношение это имеет к искусственному интеллекту (ИИ), изображение было сгенерировано ИИ, а твит быстро стал вирусным и вызвал кратковременное падение фондового рынка. Все могло быть намного хуже — яркое напоминание об опасностях искусственного интеллекта.

Опасности искусственного интеллекта

Мы должны беспокоиться не только о фейковых новостях. Существует множество непосредственных или потенциальных рисков, связанных с ИИ, от тех, что касаются конфиденциальности и безопасности, до проблем с предвзятостью и авторскими правами. Мы углубимся в некоторые из этих опасностей искусственного интеллекта, посмотрим, что делается для их смягчения сейчас и в будущем, и спросим, ​​перевешивают ли риски ИИ преимущества.

Оглавление

    Фейковые новости

    Когда дипфейки только появились, возникли опасения, что они могут быть использованы со злым умыслом. То же самое можно сказать и о новой волне генераторов изображений с искусственным интеллектом, таких как DALL-E 2, Midjourney или DreamStudio. 28 марта 2023 года фальшивые ИИ-изображения Папы Франциска в белой пуховой куртке Balenciaga, наслаждающегося несколькими приключениями, включая катание на скейтборде и игру в покер, стали вирусными. Если вы внимательно не изучали изображения, было трудно отличить эти изображения от реальных вещей.

    В то время как пример с папой, несомненно, был немного забавным, изображение (и сопроводительный твит) о Пентагоне было совсем не таким. Поддельные изображения, созданные ИИ, могут нанести ущерб репутации, положить конец бракам или карьере, вызвать политические волнения и даже начать войны, если ими владеют не те люди — короче говоря, эти изображения, созданные ИИ, могут быть чрезвычайно опасными при неправильном использовании.

    Благодаря тому, что генераторы изображений с искусственным интеллектом теперь доступны для всех бесплатно, а Photoshop добавил генератор изображений с искусственным интеллектом в свое популярное программное обеспечение, возможности манипулировать изображениями и создавать фальшивые новости больше, чем когда-либо.

    Конфиденциальность, безопасность и взлом

    Конфиденциальность и безопасность также вызывают серьезные опасения, когда речь идет о рисках, связанных с ИИ, поскольку в ряде стран уже запрещен ChatGPT от OpenAI. Италия запретила эту модель из соображений конфиденциальности, полагая, что она не соответствует Европейскому общему регламенту защиты данных (GDPR), а правительства Китая, Северной Кореи и России запретили ее из-за опасений, что она будет распространять дезинформацию.

    Так почему же мы так беспокоимся о конфиденциальности, когда речь идет об ИИ? Приложения и системы ИИ собирают большие объемы данных, чтобы учиться и делать прогнозы. Но как эти данные хранятся и обрабатываются? Существует реальный риск утечки данных, взлома и попадания информации не в те руки.

    Под угрозой находятся не только наши личные данные. Взлом ИИ — это реальный риск — такого еще не было, но если злоумышленники смогут взломать системы ИИ, это может иметь серьезные последствия. Например, хакеры могут управлять беспилотными транспортными средствами, взламывать системы безопасности ИИ, чтобы получить доступ к высокозащищенным местам, и даже взламывать системы оружия с безопасностью ИИ.

    Эксперты Агентства перспективных исследовательских проектов Министерства обороны США (DARPA) осознают эти риски и уже работают над проектом DARPA «Гарантия устойчивости ИИ к обману» (GARD), решая проблему с нуля. Цель проекта — гарантировать, что устойчивость к взлому и взлому будет встроена в алгоритмы и искусственный интеллект.

    Нарушение авторского права

    Еще одна опасность ИИ — нарушение авторских прав. Это может показаться не таким серьезным, как некоторые другие опасности, которые мы упомянули, но разработка моделей ИИ, таких как GPT-4, подвергает всех повышенному риску нарушения.

    Каждый раз, когда вы просите ChatGPT создать что-то для вас — будь то запись в блоге о путешествии или новое название для вашего бизнеса — вы передаете ему информацию, которую он затем использует для ответов на будущие запросы. Информация, которую он возвращает вам, может нарушать чьи-то авторские права, поэтому так важно использовать детектор плагиата и редактировать любой контент, созданный ИИ, перед его публикацией.

    Социальное и предвзятое отношение к данным

    ИИ не человек, поэтому он не может быть предвзятым, верно? Неправильный. Люди и данные используются для обучения моделей ИИ и чат-ботов, а это означает, что предвзятые данные или личности приведут к предвзятому ИИ. В ИИ есть два типа предвзятости: социальная предвзятость и предвзятость данных.

    Что происходит, когда в повседневном обществе присутствует множество предубеждений, когда эти предубеждения становятся частью ИИ? У программистов, ответственных за обучение модели, могут быть предвзятые ожидания, которые затем попадают в системы ИИ.

    Или данные, используемые для обучения и разработки ИИ, могут быть неверными, предвзятыми или собранными недобросовестно. Это приводит к предвзятости данных, которая может быть столь же опасной, как и предвзятость общества. Например, если система распознавания лиц обучается, используя в основном лица белых людей, она может с трудом распознавать лица из групп меньшинств, что увековечивает угнетение.

    Роботы захватывают наши рабочие места

    Разработка чат-ботов, таких как ChatGPT и Google Bard, породила совершенно новую проблему, связанную с искусственным интеллектом: риск того, что роботы займут наши рабочие места. Мы уже видим, как писателей в технологической отрасли заменяет ИИ, разработчики программного обеспечения опасаются, что потеряют работу из-за ботов, а компании используют ChatGPT для создания контента для блогов и социальных сетей, а не для найма писателей-людей.

    Согласно отчету Всемирного экономического форума «Будущее рабочих мест за 2020 год», ожидается, что к 2025 году ИИ заменит 85 миллионов рабочих мест во всем мире. Даже если ИИ не заменит писателей, многие уже используют его в качестве инструмента. Тем, кто находится на работе, которая рискует быть замененной ИИ, может потребоваться адаптация, чтобы выжить — например, писатели могут стать инженерами подсказок ИИ, что позволит им работать с такими инструментами, как ChatGPT, для создания контента, а не быть замененными этими моделями.

    Будущие потенциальные риски ИИ

    Все это непосредственные или надвигающиеся риски, но как насчет менее вероятных, но все же возможных опасностей ИИ, которые мы можем увидеть в будущем? К ним относятся такие вещи, как ИИ, запрограммированный на причинение вреда людям, например, автономное оружие, обученное убивать во время войны.

    Кроме того, существует риск того, что ИИ может целиком сосредоточиться на своей запрограммированной цели, развивая деструктивное поведение, пытаясь достичь этой цели любой ценой, даже когда люди пытаются этому помешать.

    Скайнет научил нас, что происходит, когда ИИ становится разумным. Однако, хотя инженер Google Блейк Лемуан, возможно, пытался убедить всех, что LaMDA, генератор чат-ботов Google с искусственным интеллектом, был разумным еще в июне 2022 года, к счастью, на сегодняшний день нет никаких доказательств того, что это правда.

    Проблемы регулирования ИИ

    В понедельник, 15 мая 2002 года, генеральный директор OpenAI Сэм Альтман посетил первое слушание в Конгрессе по искусственному интеллекту, предупредив: «Если эта технология пойдет не так, она может пойти совсем не так». CO OpenAI ясно дал понять, что выступает за регулирование, и представил на слушания многие свои собственные идеи. Проблема в том, что ИИ развивается с такой скоростью, что трудно понять, с чего начать регулирование.

    Конгресс хочет избежать тех же ошибок, которые были совершены в начале эры социальных сетей, и группа экспертов вместе с лидером большинства в Сенате Чаком Шумером уже работает над правилами, которые требуют от компаний раскрывать, какие источники данных они использовали для обучения моделей и кто тренировал их. Однако может пройти какое-то время, прежде чем станет ясно, как именно будет регулироваться ИИ, и, несомненно, со стороны ИИ-компаний возникнет негативная реакция.

    Угроза искусственного общего интеллекта

    Существует также риск создания общего искусственного интеллекта (ИИО), который мог бы выполнять любые задачи, которые может выполнять человек (или животное). Часто упоминаемый в научно-фантастических фильмах, мы, вероятно, еще в нескольких десятилетиях от такого творения, но если и когда мы создадим ОИИ, это может представлять угрозу для человечества.

    Многие общественные деятели уже поддерживают мнение о том, что ИИ представляет собой экзистенциальную угрозу для людей, включая Стивена Хокинга, Билла Гейтса и даже бывшего генерального директора Google Эрика Шмидта, который заявил: «Искусственный интеллект может создавать экзистенциальные риски, и правительства должны знать, как убедиться, что технология не используется злыми людьми».

    Итак, опасен ли искусственный интеллект и перевешивают ли его риски преимущества? Жюри еще не пришло к этому, но мы уже видим доказательства некоторых рисков вокруг нас прямо сейчас. Другие опасности вряд ли осуществятся в ближайшее время, если вообще осуществятся. Однако ясно одно: опасность ИИ нельзя недооценивать. Крайне важно, чтобы мы с самого начала обеспечивали надлежащее регулирование ИИ, чтобы свести к минимуму и, надеюсь, смягчить любые будущие риски.