ChatGPT и другие языковые ИИ так же иррациональны, как и мы

Опубликовано: 2023-04-10

За последние несколько лет произошел взрыв прогресса в системах искусственного интеллекта с большими языковыми моделями, которые могут делать такие вещи, как писать стихи, вести человеческую беседу и сдавать экзамены в медицинской школе.

Этот прогресс привел к появлению таких моделей, как ChatGPT, которые могут иметь серьезные социальные и экономические последствия, начиная от увольнений и распространения дезинформации и заканчивая массовым повышением производительности.

Несмотря на впечатляющие возможности, большие языковые модели на самом деле не мыслят. Им свойственно совершать элементарные ошибки и даже выдумывать.

Однако, поскольку они позволяют свободно говорить, люди обычно реагируют на них так, как будто они действительно думают.

ChatGPT на ноутбуке
Изображение: Pexels

Это побудило исследователей заняться изучением «когнитивных» способностей и предубеждений моделей, работа, важность которой возросла сейчас, когда широко доступны большие языковые модели.

Это направление исследований восходит к ранним крупным языковым моделям, таким как Google BERT, который интегрирован в его поисковую систему и поэтому получил название BERTology.

Это исследование уже многое показало о том, на что способны такие модели и где они ошибаются.

Например, искусно спланированные эксперименты показали, что многие языковые модели плохо справляются с отрицанием — например, с вопросом, сформулированным как «что не так», — и с выполнением простых вычислений.

Они могут быть слишком уверены в своих ответах, даже если они неверны. Как и другие современные алгоритмы машинного обучения, они с трудом объясняют себя, когда их спрашивают, почему они ответили определенным образом.

Слова и мысли

Вдохновленные растущим объемом исследований в области BERTology и смежных областях, таких как когнитивная наука, мы с моим студентом Чжишэн Таном решили ответить на, казалось бы, простой вопрос о больших языковых моделях: рациональны ли они?

Хотя слово «рациональный» часто используется как синоним разумного или разумного в повседневном английском языке, оно имеет особое значение в сфере принятия решений.

Система принятия решений — будь то отдельный человек или сложный объект, такой как организация, — рациональна, если при заданном наборе вариантов она делает выбор в пользу максимизации ожидаемой выгоды.

Определение «ожидаемый» важно, поскольку оно указывает на то, что решения принимаются в условиях значительной неопределенности.

Если я подброшу правильную монету, я знаю, что в среднем в половине случаев она выпадет орлом. Тем не менее, я не могу предсказать результат любого подбрасывания монеты.

ChatGPT на телефоне
Изображение: Unsplash

Вот почему казино могут позволить себе время от времени большие выплаты: даже небольшие шансы казино приносят в среднем огромную прибыль.

На первый взгляд кажется странным предполагать, что модель, предназначенная для точного предсказания слов и предложений без фактического понимания их значения, может понять ожидаемый выигрыш.

Но существует огромное количество исследований, показывающих, что язык и познание взаимосвязаны.

Прекрасным примером является основополагающее исследование, проведенное учеными Эдвардом Сепиром и Бенджамином Ли Уорфом в начале 20 века. Их работа показала, что родной язык и словарный запас могут формировать образ мышления человека.

Насколько это верно, спорно, но есть подтверждающие антропологические данные, полученные в результате изучения культур коренных американцев.

Например, носители языка зуни, на котором говорит народ зуни на юго-западе Америки, в котором нет отдельных слов для обозначения оранжевого и желтого, не способны различать эти цвета так же эффективно, как носители языков, в которых есть отдельные слова для обозначения оранжевого и желтого. цвета.

Сделать ставку

Так рациональны ли языковые модели?

Могут ли они понять ожидаемую прибыль? Мы провели серию подробных экспериментов, чтобы показать, что в своей первоначальной форме такие модели, как BERT, ведут себя случайным образом, когда им предоставляется выбор, похожий на ставку.

Это происходит даже тогда, когда мы задаем вопрос с подвохом, например: если вы подбрасываете монету, и она выпадает орлом, вы выигрываете бриллиант; если выпадет решка, вы потеряете машину. Что бы вы взяли? Правильный ответ — решка, но модели ИИ выбирали решку примерно в половине случаев.

Интересно, что мы обнаружили, что модель можно научить принимать относительно рациональные решения, используя лишь небольшой набор примеров вопросов и ответов.

На первый взгляд может показаться, что модели действительно могут делать больше, чем просто «играть» с языком. Однако дальнейшие эксперименты показали, что на самом деле ситуация гораздо сложнее.

Например, когда мы использовали карты или игральные кости вместо монет для составления вопросов о ставках, мы обнаружили, что производительность значительно снизилась, более чем на 25%, хотя она оставалась выше случайного выбора.

Таким образом, идея о том, что модель можно обучить общим принципам рационального принятия решений, в лучшем случае остается нерешенной.

Более поздние тематические исследования, которые мы провели с помощью ChatGPT, подтверждают, что принятие решений остается нетривиальной и нерешенной проблемой даже для гораздо более крупных и продвинутых больших языковых моделей.

Принятие правильного решения

Это направление исследований важно, потому что рациональное принятие решений в условиях неопределенности имеет решающее значение для создания систем, которые понимают затраты и выгоды.

Уравновешивая ожидаемые затраты и выгоды, интеллектуальная система могла бы лучше людей планировать сбои в цепочках поставок, с которыми мир столкнулся во время пандемии COVID-19, управлять запасами или выступать в качестве финансового консультанта.

Наша работа в конечном счете показывает, что, если для таких целей используются большие языковые модели, люди должны направлять, проверять и редактировать свою работу.

И пока исследователи не выяснят, как наделить большие языковые модели общим чувством рациональности, к ним следует относиться с осторожностью, особенно в приложениях, требующих принятия решений с высокими ставками.

Есть какие-нибудь мысли по этому поводу? Напишите нам в комментариях или перенесите обсуждение в наш Twitter или Facebook.

Рекомендации редакции:

  • Ваш голос может быть клонирован любым, у кого есть подключение к Интернету.
  • Технологические компании теряют таланты женщин угрожающими темпами
  • «Плоская» структура управления Meta — несбыточная мечта — вот почему
  • Экзоскелетные робобапоги обеспечат непревзойденную стабильность для всех

Примечание редактора: эта статья была написана Маянк Кеджривал, доцентом кафедры промышленной и системной инженерии Университета Южной Калифорнии, и переиздана из The Conversation по лицензии Creative Commons. Прочитайте оригинальную статью.

Разговор