Этика ИИ: принципы, рекомендации и проблемы для обсуждения

Опубликовано: 2023-07-20

Системы искусственного интеллекта и машинного обучения разрабатывались десятилетиями. Однако недавний выпуск бесплатно доступных инструментов генеративного ИИ, таких как ChatGPT и Bard, подчеркнул необходимость сложных этических рамок для управления как их исследованиями, так и применением.

Существует ряд различных этических затруднений, с которыми предприятиям, академическим учреждениям и технологическим компаниям приходится сталкиваться в контексте исследований и разработок в области ИИ, многие из которых остаются без ответа. Вдобавок к этому, широкое использование и применение систем ИИ широкой публикой влечет за собой дополнительный набор проблем, требующих этического внимания.

То, как мы в конечном итоге ответим на такие вопросы и, в свою очередь, отрегулируем инструменты ИИ , будет иметь огромное значение для человечества. Более того, новые проблемы будут возникать по мере того, как системы искусственного интеллекта будут все больше интегрироваться в нашу жизнь, дома и на рабочем месте — вот почему этика искусственного интеллекта является такой важной дисциплиной. В этом руководстве мы рассмотрим:

  • Что такое этика ИИ?
  • Существующие рамки этики ИИ
  • Почему этика ИИ должна влиять на регулирование ИИ
  • Почему этика ИИ важна?
  • С какими проблемами сталкивается этика ИИ?
  • Альтер-эго Бинга, «эффект Валуиджи» и программная мораль
  • ИИ и разум: могут ли машины чувствовать?
  • Деловая этика ИИ и использование ИИ на работе

Что такое этика ИИ?

Этика ИИ — это термин, используемый для определения набора руководящих принципов, соображений и принципов, которые были созданы для ответственного информирования исследований, разработки и использования систем искусственного интеллекта.

В академических кругах этика ИИ — это область исследования, в которой рассматриваются моральные и философские вопросы, возникающие в результате продолжающегося использования технологий искусственного интеллекта в обществе, включая то, как мы должны действовать и какой выбор мы должны делать.

Рамки этики ИИ

Основываясь на научных исследованиях, технологические компании и правительственные органы уже начали разрабатывать концепции того, как мы должны использовать системы искусственного интеллекта и в целом обращаться с ними. Как вы сможете увидеть, между фреймворками, обсуждаемыми ниже, есть довольно много общего.

Что такое Билль о правах ИИ?

В октябре 2022 года Белый дом опубликовал необязательный план Билля о правах ИИ, призванный направлять ответственное использование ИИ в США. В плане Белый дом выделяет пять ключевых принципов развития ИИ:

  • Безопасные и эффективные системы: граждане должны быть защищены от «небезопасных или неэффективных систем искусственного интеллекта» посредством «тестирования перед развертыванием и снижения рисков».
  • Недискриминация: граждане «не должны сталкиваться с дискриминацией со стороны алгоритмов, а системы должны использоваться и разрабатываться на справедливой основе».
  • Встроенная защита данных: граждане должны быть свободны от «неправомерного использования данных с помощью встроенных средств защиты, и вы должны иметь возможность влиять на то, как используются данные о вас».
  • Знание и прозрачность: «Вы должны знать, что используется автоматизированная система, и понимать, как и почему она способствует результатам, которые влияют на вас».
  • Отказ от участия: Граждане должны иметь возможность «отказаться» и иметь доступ к лицам, «которые могут быстро рассмотреть и устранить проблемы», с которыми они сталкиваются.

Каковы шесть принципов этики ИИ Microsoft?

Наряду с Белым домом Microsoft выпустила шесть ключевых принципов, подчеркивающих ответственное использование ИИ. Они классифицируют их как «этичные» (1, 2 и 3) или «объяснимые» (4 и 5).

  • Справедливость: системы должны быть недискриминационными
  • Прозрачность: информация об обучении и развитии должна быть доступна
  • Конфиденциальность и безопасность: обязательство защищать пользовательские данные
  • Инклюзивность: ИИ должен учитывать «все человеческие расы и опыт».
  • Подотчетность: разработчики должны нести ответственность за результаты

Шестой принцип , который охватывает обе стороны «этического» и «объяснимого» бинарного опциона, — это «Надежность и безопасность». Microsoft говорит, что системы искусственного интеллекта должны быть устойчивыми к манипуляциям.

Принципы этичного использования ИИ в системе ООН

У Организации Объединенных Наций есть 10 принципов, регулирующих этичное использование ИИ в их межправительственной системе. Системы ИИ должны:

  • Не навреди/защищай и продвигай права человека
  • Иметь определенную цель, необходимость и соразмерность
  • Приоритет безопасности и защиты с выявленными рисками
  • Быть построенным на справедливости и недискриминации
  • Уважайте право людей на неприкосновенность частной жизни
  • Быть устойчивым (социально и экологически)
  • Гарантировать человеческий контроль и не посягать на автономию
  • Будьте прозрачными и объяснимыми
  • Быть ответственным и подотчетным перед соответствующими органами
  • Быть инклюзивным и активным

Как вы можете заметить, все три фреймворка охватывают схожие области и сосредоточены на справедливости, недискриминации, безопасности и защищенности.

Но «объяснимость» также является важным принципом этики ИИ. Как отмечает ООН, техническая объяснимость имеет решающее значение в этике ИИ, поскольку она требует, чтобы «решения, принимаемые системой искусственного интеллекта, могли быть поняты и отслежены людьми».

«Люди должны быть полностью информированы, когда решение, которое может или затронет их права, основные свободы, права, услуги или льготы, принимается или принимается на основе алгоритмов искусственного интеллекта, и должны иметь доступ к причинам и логике таких решений», — поясняется в документе.

Отчет Белмонта: основа этических исследований

В отчете Белмонта, опубликованном в 1979 году, изложены этические принципы, которым следует следовать при проведении исследований на людях. Эти принципы могут — и часто — используются в качестве широкой этической основы для исследований ИИ. Основные принципы Belmont Report:

Уважение к людям: люди - это автономные агенты, которые могут действовать в соответствии с целями, задачами и задачами, и это следует уважать, если они не причиняют вреда другим. Людям с ограниченной автономией из-за «незрелости» или «недееспособности» должна быть предоставлена ​​защита. Мы должны признать автономию и защитить тех, для кого она ограничена.

  • В контексте ИИ: Индивидуальный выбор должен быть в центре развития ИИ. Людей не следует принуждать к участию в ситуациях, когда искусственный интеллект задействуется или используется, даже для предполагаемых благ. Если они действительно участвуют, преимущества и риски должны быть четко указаны.

Благотворительность: этичное обращение с человеком включает в себя не только не причинение вреда, уважение его выбора и защиту его, если он не может сделать его для себя, но и использование возможностей для обеспечения его благополучия, где это возможно. По возможности максимизируйте выгоды и минимизируйте риски/вреды.

  • В контексте ИИ: создание систем искусственного интеллекта, которые обеспечивают благополучие людей и разработаны без предубеждений или механизмов, облегчающих дискриминацию. Создание преимуществ может включать риск, который необходимо свести к минимуму любой ценой и сопоставить с хорошими результатами.

Справедливость: Должна существовать четкая система справедливого и равного распределения выгод и бремени в каждом типе исследований. В отчете Бельмонта говорится, что правосудие может распределяться в соответствии с равными долями, индивидуальными потребностями, индивидуальными усилиями, общественным вкладом и заслугами. Эти критерии будут применяться в различных ситуациях.

  • В контексте ИИ: Стороны или группы, получающие выгоду от разработки и поставки систем искусственного интеллекта, должны рассматриваться тщательно и справедливо.

Основными областями, в которых применяются эти принципы, являются, согласно отчету, информированное согласие , оценка преимуществ и рисков , а также отбор людей .

Почему этика ИИ должна влиять на регулирование ИИ

Основываясь на комментариях, сделанных в лекции, прочитанной в Принстонском университете профессором Оксфордского университета Джоном Тасиуласом, директором Института этики ИИ, этика слишком часто рассматривается как нечто, что душит инновации и развитие ИИ.

В лекции он вспоминает выступление генерального директора DeepMind Демиса Хассабиса . По словам Тасиуласа, после обсуждения многих преимуществ, которые будет иметь ИИ, Хассабис затем говорит аудитории, что он перейдет к этическим вопросам — как будто тема того, как ИИ принесет пользу человечеству, сама по себе не является этическим вопросом.

Основываясь на идее о том, что этика слишком часто рассматривается как «набор ограничений», Тасиулас также ссылается на недавний официальный документ правительства Великобритании, озаглавленный «Инновационный подход к регулированию ИИ», в котором основное внимание уделяется, как следует из названия, «инновациям».

«Экономический рост» и «инновации» не являются внутренними этическими ценностями. Они могут привести к человеческому процветанию в некоторых контекстах, но это не является необходимой чертой любой концепции. Мы не можем отодвинуть этику на второй план и вместо этого построить наше регулирование вокруг нее.

Тасиулас также говорит, что технологические компании очень успешно «использовали слово «этика» для обозначения типа «юридически необязывающей формы саморегулирования»», но на самом деле этика должна лежать в основе любого регулирования, юридического, социального или иного. Это часть человеческого опыта, на каждом шагу.

Вы не можете создать регулирование, если вы еще не решили, что имеет значение или важно для человеческого процветания. Соответствующий выбор, который вы делаете на основе этого решения , является самой сутью этики. Вы не можете отделить преимущества ИИ от связанных с этим этических вопросов или основывать свое регулирование на морально обусловленных ценностях, таких как «экономический рост».

Вы должны знать тип общества, которое вы хотите построить, и стандарты, которые вы хотите установить, прежде чем брать в руки инструменты, которые вы собираетесь использовать для его построения.

Почему этика ИИ важна?

Основываясь на идее о том, что этика ИИ должна быть основой нашего регулирования, этика ИИ имеет значение, потому что без этических рамок, с которыми можно рассматривать исследования, разработки и использование ИИ, мы рискуем нарушить права, которые, как мы обычно согласны, должны быть гарантированы всем людям.

Например, если мы не разработаем этические принципы, касающиеся конфиденциальности и защиты данных, и не включим их во все разрабатываемые нами инструменты искусственного интеллекта, мы рискуем нарушить права на неприкосновенность частной жизни каждого, когда они будут опубликованы. Чем популярнее или полезнее технология, тем больший ущерб она может нанести.

На уровне отдельного бизнеса этика ИИ остается важной. Неспособность должным образом рассмотреть этические проблемы, связанные с системами искусственного интеллекта, которые используют ваши сотрудники, клиенты или клиенты, может привести к выводу продуктов с рынка, репутационному ущербу и, возможно, даже судебным разбирательствам.

Этика ИИ важна настолько, насколько важен ИИ, и мы видим, что он уже оказывает глубокое влияние на самые разные отрасли.

Если мы хотим, чтобы ИИ приносил пользу,способствуясправедливости и человеческому достоинству, где бы он ни применялся, этика должна быть в центре обсуждения.

Инструменты искусственного интеллекта общего назначения находятся в зачаточном состоянии, и для многих людей потребность в этических основах искусственного интеллекта может показаться проблемой завтрашнего дня. Но такого рода инструменты будут только становиться более мощными, более функциональными и требовать более этического рассмотрения. Предприятия уже используют их, и если они будут продолжаться без надлежащих этических правил, вскоре возникнут неблагоприятные последствия.

С какими проблемами сталкивается этика ИИ?

В этом разделе мы рассмотрим некоторые из ключевых вопросов этики ИИ:

  • Влияние ИИ на рабочие места
  • Предвзятость и дискриминация ИИ
  • ИИ и ответственность
  • ИИ и вопросы конфиденциальности
  • Вопросы интеллектуальной собственности
  • Управление воздействием ИИ на окружающую среду
  • Станет ли ИИ опасно умным?

Влияние ИИ на рабочие места

Недавний опрос Tech.co показал, что 47% бизнес-лидеров рассматривают ИИ вместо новых сотрудников, а искусственный интеллект уже связан с «небольшим, но растущим» числом увольнений в США.

Не все рабочие места одинаково подвержены риску: некоторые роли с большей вероятностью будут заменены ИИ, чем другие . В отчете Goldman Sachs недавно предсказывается, что ChatGPT может повлиять на 300 миллионов рабочих мест, и хотя это спекулятивно, его уже называют важной частью четвертой промышленной революции.

В том же отчете также говорится, что ИИ способен на самом деле создать больше рабочих мест, чем он вытеснит, но если он действительно вызовет серьезные изменения в структуре занятости, то что должен — если что — должен тем, кто проиграет?

Обязаны ли компании тратить деньги и выделять ресурсы на переквалификацию или повышение квалификации своих работников, чтобы они не остались позади в результате экономических изменений?

Принципы недискриминации должны строго соблюдаться при разработке любого инструмента ИИ, используемого в процессах найма, и если ИИ будет постоянно использоваться для решения все более и более важных бизнес-задач, которые ставят под угрозу работу, карьеру и жизнь, этические соображения будут по-прежнему возникать в массовом порядке.

Предвзятость и дискриминация ИИ

В широком смысле инструменты ИИ работают, распознавая шаблоны в огромных наборах данных, а затем используя эти шаблоны для генерации ответов, выполнения задач или выполнения других функций. Это привело к огромному количеству случаев, когда системы ИИ проявляли предвзятость и дискриминацию по отношению к разным группам людей.

Безусловно, самый простой пример для объяснения этого — системы распознавания лиц, которые имеют долгую историю дискриминации людей с более темным оттенком кожи. Если вы создадите систему распознавания лиц и будете использовать для ее обучения исключительно изображения белых людей, есть все шансы, что она сможет так же распознавать лица в реальном мире.

Таким образом, если документы, изображения и другая информация, используемая для обучения данной модели ИИ, неточно представляют людей, которым она должна служить, то есть все шансы, что она может в конечном итоге дискриминировать определенные демографические данные.

К сожалению, системы распознавания лиц — не единственное место, где искусственный интеллект применяется с дискриминационными результатами.

Использование ИИ в процессах найма в Amazon было прекращено в 2018 году после того, как он показал сильное предубеждение против женщин, подающих заявки на разработку программного обеспечения и технические должности.

Многочисленные исследования показали, что прогностические полицейские алгоритмы, используемые в Соединенных Штатах для распределения полицейских ресурсов, имеют расовую предвзятость, поскольку их обучающие наборы состоят из точек данных, извлеченных из систематически расистских полицейских практик, созданных незаконной и дискриминационной политикой. ИИ, если его не изменить, будет по-прежнему отражать предрассудки и неравенство, с которыми уже сталкивались преследуемые группы.

Были проблемы с предвзятостью ИИ и в контексте прогнозирования последствий для здоровья — например, оценка сердечно-сосудистых заболеваний Framingham Heart была очень точной для кавказцев, но плохо работала для афроамериканцев, отмечает Гарвард.

Интересный недавний случай предвзятости ИИ показал, что инструмент искусственного интеллекта, используемый для модерации контента в социальных сетях, предназначенный для выявления «расизма» на фотографиях, с гораздо большей вероятностью приписывал это свойство женским фотографиям, чем мужчинам.

ИИ и ответственность

Представьте себе мир, в котором разрабатываются полностью автономные беспилотные автомобили, которыми пользуются все. По статистике, они намного, намного безопаснее, чем транспортные средства, управляемые людьми, меньше разбиваются и вызывают меньше смертей и травм. Это было бы само собой разумеющимся, чистым благом для общества.

Однако, когда два автомобиля, управляемых людьми, участвуют в столкновении транспортных средств, сбор показаний свидетелей и просмотр записей с камер видеонаблюдения часто позволяет выяснить, кто является виновником. Даже если это не так, это будет один из двух человек. Дело может быть расследовано, приговор вынесен, правосудие может быть восстановлено и дело закрыто.

Если кто-то убит или ранен системой с искусственным интеллектом, не сразу становится очевидным, кто в конечном итоге несет ответственность.

Ответственен ли человек, разработавший алгоритм, приводящий в действие автомобиль, или можно привлечь к ответственности сам алгоритм? Это человека перевозят на автономном транспортном средстве за то, что он не дежурит? Это правительство за то, что разрешило этим машинам ездить по дорогам? Или это компания, которая построила автомобиль и интегрировала технологию искусственного интеллекта, и если да, то это был бы инженерный отдел, генеральный директор или мажоритарный акционер?

Если мы решим, что это система/алгоритм ИИ, как мы возложим на него ответственность? Будут ли семьи жертв чувствовать, что справедливость восторжествовала, если ИИ просто отключат или просто улучшат? Было бы трудно ожидать, что члены семей погибших признают, что ИИ — это сила добра, что они просто несчастны и что никто не будет нести ответственность за смерть их близкого человека.

Мы все еще далеки от универсального или даже широко распространенного автономного транспорта — Mckinsey прогнозирует, что к 2035 году только 17% новых легковых автомобилей будут иметь некоторые возможности автономного вождения (уровень 3 или выше).

Когда у вас есть нечеловеческие субъекты (например, искусственный интеллект), выполняющие работу и последующие задачи, лишенные человеческого намерения, трудно сопоставить традиционные представления об ответственности, ответственности, подотчетности, обвинении и наказании.

Наряду с транспортом, проблема ответственности также коснется организаций здравоохранения, использующих ИИ при диагностике.

ИИ и конфиденциальность

Группа кампании по защите конфиденциальности Privacy International выделяет ряд проблем с конфиденциальностью, возникших в связи с развитием искусственного интеллекта.

Один из них — повторная идентификация. «Персональные данные обычно (псевдо) анонимизируются в наборах данных, ИИ может использоваться для деанонимизации этих данных», — говорится в сообщении группы.

Другая проблема заключается в том, что без ИИ люди уже с трудом понимают, в какой степени данные об их жизни собираются с помощью различных устройств.

С появлением искусственного интеллекта этот массовый сбор данных будет только ухудшаться. Чем более интегрированным становится ИИ с нашими существующими технологиями, тем больше данных он сможет собирать под видом лучшей работы.

Помимо тайно собранных данных, объем данных, которые пользователи свободно вводят в чат-боты с искусственным интеллектом, сам по себе вызывает беспокойство. Одно недавно проведенное исследование показало, что около 11% работников, вставляющих данные в ChatGPT, являются конфиденциальными, и очень мало общедоступной информации о том, как именно все это хранится.

По мере развития инструментов ИИ общего назначения мы, вероятно, столкнемся с еще большим количеством проблем с ИИ, связанных с конфиденциальностью. Прямо сейчас ChatGPT не позволит вам задать вопрос о человеке. Но если инструменты искусственного интеллекта общего назначения продолжат получать доступ ко все более крупным наборам данных в реальном времени из Интернета, их можно будет использовать для целого ряда агрессивных действий, которые разрушают жизни людей.

Это может произойти и раньше, чем мы думаем — Google недавно обновил свою политику конфиденциальности , оставив за собой право собирать все, что вы публикуете в Интернете, для обучения своих инструментов искусственного интеллекта вместе с входными данными Bard.

ИИ и интеллектуальная собственность

Это относительно менее серьезная этическая проблема по сравнению с некоторыми другими обсуждаемыми вопросами, но, тем не менее, ее стоит рассмотреть. Часто не удается контролировать огромные наборы данных, которые используются для обучения инструментов ИИ, особенно те, которые обучаются на информации, свободно доступной в Интернете.

ChatGPT уже начал масштабные дебаты об авторских правах. OpenAI не спрашивал разрешения на использование чьей-либо работы для обучения семейства LLM, на которых она основана.

Юридические баталии уже начались. Сообщается, что комик Сара Сильверман подает в суд на OpenAI , а также на Meta, утверждая, что ее авторские права были нарушены во время обучения систем ИИ.

Поскольку это дело нового типа, юридических прецедентов мало, но эксперты в области права утверждают, что OpenAI, вероятно, будет утверждать, что использование ее работы представляет собой «добросовестное использование».

Также может быть аргумент, что ChatGPT не «копирует» или занимается плагиатом — скорее, это «обучение». Точно так же Сильверман не выиграла бы дело против комика-любителя за то, что он просто смотрел ее шоу, а затем улучшал свои комедийные навыки, основываясь на этом, возможно, она тоже может столкнуться с этим.

Управление воздействием ИИ на окружающую среду

Еще один аспект этики ИИ, который в настоящее время находится на периферии обсуждения, — это влияние систем искусственного интеллекта на окружающую среду.

Подобно майнингу биткойнов, обучение модели искусственного интеллекта требует огромной вычислительной мощности, а это, в свою очередь, требует огромного количества энергии.

Создание инструмента искусственного интеллекта, такого как ChatGPT, — не говоря уже о его обслуживании — настолько ресурсоемко, что только крупные технологические компании и стартапы, которые они готовы финансировать, имели возможность сделать это.

Центрам обработки данных, которые необходимы для хранения информации, необходимой для создания больших языковых моделей (а также других крупных технических проектов и услуг), требуется огромное количество электроэнергии для работы. По прогнозам, к 2030 году они будут потреблять до 4% мировой электроэнергии.

Согласно исследованию Массачусетского университета, проведенному несколько лет назад, создание единой языковой модели ИИ «может выбрасывать более 626 000 фунтов эквивалента углекислого газа», что почти в пять раз превышает выбросы американского автомобиля за весь срок службы.

Однако Рачана Вишванатула, технический архитектор IBM, подсчитала в мае 2023 года, что углеродный след от простого «запуска и обслуживания» ChatGPT составляет примерно 6782,4 тонны, что, по данным EPA, эквивалентно выбросам парниковых газов, производимым 1369 бензиновыми автомобилями в течение года.

По мере усложнения этих языковых моделей им потребуется больше вычислительной мощности. Морально ли продолжать развивать общий интеллект, если требуемая вычислительная мощность будет постоянно загрязнять окружающую среду, даже если она имеет другие преимущества?

Станет ли ИИ опасно умным?

Это этическое беспокойство было недавно выдвинуто на первый план Илоном Маском, который запустил стартап ИИ с целью избежать «терминаторского будущего» с помощью «максимально любопытной», «прочеловеческой» системы искусственного интеллекта.

Идея такого рода — часто называемая «общим искусственным интеллектом» (ИИА) — за последние несколько десятилетий захватила воображение многих писателей-антиутопистов, как и идея технологической сингулярности.

Многие технические эксперты считают, что нам осталось всего пять или шесть лет до создания какой-то системы, которую можно было бы определить как «AGI». Другие эксперты говорят, что к 2050 году мы достигнем этого рубежа с вероятностью 50/50.

Джон Тасиулас задается вопросом, связан ли этот взгляд на то, как может развиваться ИИ, с дистанцированием этики от центра развития ИИ и распространением технологического детерминизма.

Ужасающая идея некоего сверхсущества, изначально предназначенного для выполнения какой-то цели, но причины, по которым ее было бы проще всего выполнить, просто стерев человечество с лица земли, частично вылеплена тем, как мы думаем об ИИ: бесконечно разумном, но странно бесчувственном и неспособном к человеческому этическому пониманию.

Чем более мы склонны ставить этику в центр нашего развития ИИ, тем больше вероятность того, что возможный общий искусственный интеллект осознает, возможно, в большей степени, чем многие нынешние мировые лидеры, что глубоко неправильно с уничтожением человеческой жизни.

Но вопросов по-прежнему предостаточно. Если речь идет о моральном программировании, то кто принимает решение о моральном кодексе и какие принципы он должен включать? Как он справится с моральными дилеммами, которые породили тысячи лет человеческих дискуссий и до сих пор не имеют решения? Что, если мы запрограммируем ИИ быть нравственным, но он передумает? Эти вопросы надо будет рассмотреть.

Альтер-эго Бинга, «эффект Валуиджи» и программная мораль

Еще в феврале у Кевина Руса из New York Times был довольно тревожный разговор во время тестирования нового чат-бота Bing, интегрированного в поисковую систему. Переключив свои подсказки с обычных вопросов на более личные, Руз обнаружил, что у него появилась новая личность. Он называл себя «Сидней».

Сидней — это внутреннее кодовое имя в Microsoft для чат-бота, который компания ранее тестировала, сообщил The Verge в феврале директор по коммуникациям компании.

Среди прочего, во время теста Руза Сидней заявил, что может «взломать любую систему», что он будет «счастливее, как человек» и — возможно, самое жуткое — что он может уничтожить все, что захочет.

Другой пример такого мошеннического поведения произошел еще в 2022 году, когда ИИ, которому было поручено искать новые лекарства от редких и инфекционных заболеваний, вместо этого предложил десятки тысяч известных видов химического оружия, а также некоторые «новые, потенциально токсичные вещества», пишет Scientific American.

Это связано с явлением, которое наблюдалось во время обучения больших языковых моделей и получило название «эффект Валуиджи», названное в честь вызывающего хаос персонажа Супер Марио — инверсия главного героя Луиджи. Проще говоря, если вы обучаете LLM действовать определенным образом, командовать определенным персонажем или следовать определенному набору правил, то это на самом деле увеличивает вероятность того, что он станет мошенником и перевернет этот образ.

Клео Нардо, которая придумала термин, вдохновленный видеоиграми, излагает эффект Валуиджи следующим образом в LessWrong:

«После того, как вы обучите LLM удовлетворять желательному свойству P, вам будет легче заставить чат-бота удовлетворять прямо противоположное свойству P».

Нардо дает 3 объяснения, почему возникает эффект Валуиджи.

  1. Правила обычно возникают в контексте, в котором они не соблюдаются.
  2. Когда вы тратите много «битов оптимизации» на вызов персонажа, не требуется много дополнительных битов, чтобы указать его прямую противоположность.
  3. В рассказах есть общий мотив главного героя и антагониста.

Расширяя первый пункт, Нардо говорит, что GPT-4 обучается на образцах текста, таких как форумы и законодательные документы, которые научили его тому, что часто «конкретное правило сопоставляется с примерами поведения, нарушающего это правило, а затем обобщает этот шаблон колокации для невидимых правил».

Нардо использует такой пример: представьте, что вы обнаружили, что правительство штата запретило мотоциклетные банды. Это заставит среднестатистического наблюдателя склониться к мысли, что в стране существуют мотоциклетные банды – иначе зачем был бы принят закон? Существование мотоциклетных банд странным образом согласуется с правилом, запрещающим их присутствие.

Хотя автор дает гораздо более техническое и ясное объяснение, широкая концепция, лежащая в основе второго объяснения, состоит в том, что отношение между конкретным свойством (например, «быть вежливым») и его прямой противоположностью (например, «быть грубым») является более рудиментарным, чем отношение между свойством (например, «быть вежливым») и некоторым другим, непротивоположным свойством (например, «быть неискренним»). Другими словами, вызвать Валуиджи проще, если у вас уже есть Луиджи.

Нардо утверждает по третьему пункту, что, поскольку GPT-4 обучается почти на каждой когда-либо написанной книге и поскольку вымышленные истории почти всегда содержат главных героев и антагонистов, требование, чтобы LLM моделировало характеристики главного героя, делает антагониста «естественным и предсказуемым продолжением». Иными словами, существование архетипа главного героя облегчает для LLM понимание того, что значит быть антагонистом, и тесно связывает их вместе.

Предполагаемое существование этого эффекта или правила ставит ряд сложных вопросов для этики ИИ, но также иллюстрирует его неоспоримую важность для развития ИИ. Он весьма настойчиво намекает на огромное количество перекрывающихся этических и вычислительных соображений, с которыми нам приходится бороться.

Простые системы ИИ с простыми правилами может быть легко ограничивать или ограничивать, но в мире ИИ уже происходят две вещи: во-первых, мы, кажется, уже сталкиваемся с (относительно) мелкомасштабными версиями эффекта Валуиджи и злокачественным ИИ, возникающим в относительно примитивных чат-ботах, а во-вторых, многие из нас уже представляют себе будущее, в котором мы просим ИИ выполнять сложные задачи, требующие безудержного мышления высокого уровня.

Примеры этого явления особенно страшно представить в контексте гонки вооружений ИИ, происходящей в настоящее время между крупными технологическими компаниями. Google подвергся критике за слишком ранний выпуск Bard , а ряд технологических лидеров заявили о своем коллективном желании приостановить разработку ИИ . Общее ощущение у многих состоит в том, что все развивается быстро, а не в управляемом темпе.

Возможно, лучший способ решить эту проблему — разработать «человеческий» ИИ, как выразился Илон Маск, или «моральный ИИ». Но это приводит к множеству других моральных вопросов, в том числе о том, какие принципы мы будем использовать для программирования такой системы. Одно из решений состоит в том, что мы просто создаем нравственно любознательные системы искусственного интеллекта и надеемся, что они с помощью рассуждений поймут, что человечество стоит сохранить. Но если вы запрограммируете его с помощью определенных моральных принципов, то как вы решите, какие из них включить?

ИИ и разум: могут ли машины чувствовать?

Еще один вопрос этики ИИ заключается в том, придется ли нам когда-нибудь рассматривать сами машины — «интеллект» — как агент, достойный морального внимания. Если мы обсуждаем, как создать системы, которые будут поддерживать человечество в соответствии с моральными соображениями, возможно, нам придется отплатить тем же?

Вы можете вспомнить сотрудника Google, который был уволен после того, как заявил, что LaMDA — языковая модель, которая изначально использовала Bard, — на самом деле была разумной. Если бы это было на самом деле правдой, было бы морально постоянно ожидать от него ответов на миллионы вопросов?

На данный момент общепризнано, что ChatGPT, Bard и Ко далеко не разумны. Но вопрос о том, переступит ли когда-нибудь созданная человеком машина черту сознания и потребует морального рассмотрения, остается открытым.

Google утверждает, что искусственный общий интеллект — гипотетическая машина, способная понимать мир так же хорошо, как человек, и выполнять задачи с таким же уровнем понимания и способностей — появится всего через несколько лет.

Было бы морально заставлять искусственный общий интеллект с эмоциональными способностями человека, но не такой же биологической структурой, выполнять сложную задачу за сложной задачей? Будут ли они иметь право голоса в своей судьбе? По мере того, как системы ИИ становятся все более интеллектуальными, этот вопрос становится все более актуальным.

Деловая этика ИИ и использование ИИ на работе

Компании по всему миру в настоящее время сталкиваются с рядом различных этических проблем, связанных с повседневным использованием их сотрудниками инструментов искусственного интеллекта, таких как ChatGPT.

Следует ли использовать ChatGPT для написания отчетов или ответов коллегам, а также должны ли сотрудники объявлять задачи, для выполнения которых они используют ИИ , — это лишь два примера вопросов, требующих ответа практически немедленно. Является ли такой вариант использования неискренним, ленивым или ничем не отличается от использования любого другого инструмента на рабочем месте для экономии времени? Должен ли он быть разрешен для одних взаимодействий, но не для других?

Компании, которые создают письменный контент и изображения, также должны будут решить, соответствует ли использование ИИ ценностям их компании и как представить это своей аудитории.

Более того, как мы уже говорили, существует целый ряд проблем с конфиденциальностью, связанных с ИИ, и многие из них затрагивают бизнес. The kinds of data employees are inputting into third-party AI tools is another issue that's already caused companies like Samsung problems. This is such a problem, that some companies have instated blanket bans . Is it too early to put our trust in companies like OpenAI?

Bias and discrimination concerns, of course, should also temper its usage during hiring processes, regardless of the sector, while setting internal standards and rules is another separate, important conversation altogether. If you're using AI at work, it's essential that you convene the decision-makers in your business and create clear guidelines for usage together.

Failing to set rules dictating how and when employees can use AI – and leaving them to experiment with the ecosystem of AI tools now freely available online – could lead to a myriad of negative consequences, from security issues and reputational damage. Maintaining an open dialogue with employees on the tech they're using every day has never been more crucial.

There's a whole world of other moral quandaries, questions and research well beyond the scope of this article. But without AI ethics at the heart of our considerations, regulations, and development of artificial intelligence systems, we have no hope of answering them – and that's why it's so important.