Люди и ChatGPT отражают взаимные языковые модели — вот как

Опубликовано: 2023-06-15

ChatGPT — горячая тема в моем университете, где преподаватели глубоко обеспокоены академической честностью, а администраторы призывают нас «использовать преимущества» этого «нового рубежа».

Это классический пример того, что мой коллега Пунья Мишра называет «циклом дум-хайпа» вокруг новых технологий. Точно так же освещение в СМИ взаимодействия человека и ИИ — будь то параноидальное или мечтательное — имеет тенденцию подчеркивать его новизну.

В каком-то смысле он, несомненно, новый. Взаимодействие с ChatGPT может показаться беспрецедентным, например, когда технический журналист не может заставить чат-бота перестать признаваться ему в любви.

Однако, на мой взгляд, граница между людьми и машинами, с точки зрения того, как мы взаимодействуем друг с другом, более нечеткая, чем большинство людей хотели бы признать, и эта нечеткость объясняет большую часть дискурса, вращающегося вокруг ChatGPT.

Когда меня просят поставить галочку, чтобы подтвердить, что я не робот, я не задумываюсь — конечно, я не робот.

С другой стороны, когда мой почтовый клиент предлагает слово или фразу, чтобы закончить мое предложение, или когда мой телефон угадывает следующее слово, которое я собираюсь написать, я начинаю сомневаться в себе. Это то, что я хотел сказать?

Пришло бы мне это в голову, если бы приложение не предложило это? Я наполовину робот? Эти большие языковые модели были обучены на огромном количестве «естественного» человеческого языка. Делает ли это роботов частично людьми?

Чат-боты с искусственным интеллектом — новое явление, но публичные дебаты по поводу изменения языка — нет. Как лингвист-антрополог я нахожу реакцию людей на ChatGPT наиболее интересной вещью.

При внимательном рассмотрении таких реакций можно обнаружить представления о языке, лежащие в основе амбивалентных, непростых, все еще развивающихся отношений людей с собеседниками ИИ.

ChatGPT и тому подобное отражают человеческий язык. Когда дело доходит до языка, люди одновременно очень оригинальны и неоригинальны. Чат-боты отражают это, выявляя тенденции и модели, которые уже присутствуют во взаимодействии с другими людьми.

Творцы или подражатели?

Пользователь взаимодействует с графическим интерфейсом пользователя. С чат-ботом ChatGPT
Изображение: Getty Images

Недавно известный лингвист Ноам Хомский и его коллеги заявили, что чат-боты «застряли в дочеловеческой или нечеловеческой фазе когнитивной эволюции», потому что они могут только описывать и предсказывать, но не объяснять.

Вместо того, чтобы использовать бесконечную способность генерировать новые фразы, они компенсируют это огромным количеством входных данных, что позволяет им с высокой степенью точности предсказывать, какие слова использовать.

Это согласуется с историческим признанием Хомского того, что человеческий язык не может быть создан просто путем подражания детьми говорящим взрослым.

Способность к человеческому языку должна была быть генеративной, поскольку дети не получают достаточно входных данных, чтобы объяснить все формы, которые они производят, многие из которых они не могли слышать раньше.

Это единственный способ объяснить, почему люди — в отличие от других животных со сложными системами коммуникации — обладают теоретически бесконечной способностью генерировать новые фразы.

Ноам Хомский разработал генеративную теорию овладения языком.

Однако с этим аргументом есть проблема. Несмотря на то, что люди бесконечно способны генерировать новые строки языка, люди обычно этого не делают.

Люди постоянно перерабатывают фрагменты языка, с которыми они сталкивались раньше, и формируют свою речь таким образом, чтобы реагировать — сознательно или бессознательно — на речь других, присутствующих или отсутствующих.

Как выразился Михаил Бахтин — фигура, подобная Хомскому для лингвистических антропологов, — «сама наша мысль» вместе с нашим языком «рождается и формируется в процессе взаимодействия и борьбы с чужой мыслью».

Наши слова «пробуют» контексты, в которых мы и другие уже сталкивались с ними раньше, поэтому мы постоянно боремся за то, чтобы сделать их своими.

Даже плагиат не так прост, как кажется. Концепция кражи чужих слов предполагает, что общение всегда происходит между людьми, самостоятельно придумывающими свои оригинальные идеи и фразы.

Людям может нравиться думать о себе таким образом, но реальность показывает обратное почти в каждом взаимодействии — когда я как попугай повторяю высказывание моего отца своей дочери.

Кроме того, когда президент произносит речь, которую кто-то придумал, выражая взгляды внешней группы интересов, или когда терапевт взаимодействует со своим клиентом в соответствии с принципами, которым ее научили учителя.

В любом конкретном взаимодействии структура производства — говорения или письма — и восприятия — слушания, чтения и понимания — варьируется в зависимости от того, что сказано, как сказано, кто это говорит и кто несет ответственность в каждом конкретном случае.

Что ИИ говорит о людях

Ночной городской пейзаж, освещенный синим цветом Majorelle, создает потрясающее произведение искусства.
Изображение: Профессиональное образование Технологического института Джорджии

Популярная концепция человеческого языка рассматривает коммуникацию прежде всего как то, что происходит между людьми, которые изобретают новые фразы на пустом месте.

Однако это предположение рушится, когда Woebot, терапевтическое приложение с искусственным интеллектом, обучается взаимодействовать с людьми-клиентами терапевтами-людьми, используя разговоры из сеансов терапии между людьми.

Это ломается, когда один из моих любимых авторов песен, Колин Мелой из The Decemberists, говорит ChatGPT писать тексты и аккорды в своем собственном стиле.

Мелой нашел получившуюся песню «удивительно посредственной» и лишенной интуиции, но также и сверхъестественно в зоне песни декабристов.

Однако, как отмечает Мелой, последовательности аккордов, темы и рифмы в написанных людьми поп-песнях также имеют тенденцию отражать другие поп-песни, так же как речи политиков свободно черпаются из прошлых поколений политиков и активистов, которые уже изобиловали фразами из Библия.

Эстрадные песни и политические речи являются особенно яркими иллюстрациями более общего явления. Когда кто-нибудь говорит или пишет, сколько вновь генерируется а-ля Хомский?

Сколько переработано а-ля Бахтин? Мы наполовину роботы? Роботы наполовину люди? Такие люди, как Хомский, которые говорят, что чат-боты не похожи на говорящих людей, правы.

Однако таковы и такие, как Бахтин, которые указывают, что мы никогда не контролируем свои слова по-настоящему — по крайней мере, не так сильно, как нам кажется.

В этом смысле ChatGPT заставляет нас заново задуматься над извечным вопросом: какая часть нашего языка действительно принадлежит нам?

Есть какие-нибудь мысли по этому поводу? Напишите нам в комментариях или перенесите обсуждение в наш Twitter или Facebook.

Рекомендации редакции:

  • ИИ-трейдеры ChatGPT: слишком быстро, слишком яростно, слишком рискованно?
  • Спам, сгенерированный искусственным интеллектом, скоро может наводнить ваш почтовый ящик мошенническими сообщениями
  • ChatGPT и другие языковые ИИ так же иррациональны, как и мы
  • Как уберечь подростка от опасных вызовов в социальных сетях

Примечание редактора: эта статья была написана Бренданом Х. О'Коннером, адъюнкт-профессором трансграничных исследований Университета штата Аризона, и переиздана из The Conversation под лицензией Creative Commons. Прочитайте оригинальную статью.

Подпишитесь на нас в Flipboard, Google News или Apple News.