Ответы на поиск AI — это быстрая и вкусная, но не питательная информация

Опубликовано: 2024-06-17

Если вы в последнее время пользовались Google и вам повезло (или не повезло) найти ответ на свой запрос, а не кучу ссылок, вы подверглись так называемому обзору ИИ.

Это новая основная функция, которую Google внедряет, и этот шаг широко ожидался с момента экспериментов компании с моделью большого языка LaMDA в 2021 году, а также с тех пор, как чат-бот OpenAI ChatGPT с искусственным интеллектом приобрел известность в 2023 году.

Эта функция является еще одним дополнением к растущему числу надстроек и инструментов, интегрируемых в поисковые системы, такие как Google.

Некоторые из примечательных примеров включают панели знаний на основе диаграммы знаний, которые используются для заполнения соответствующей фактической информации в информационном поле рядом с результатами поиска, а также избранные фрагменты, которые представляют собой аннотации, извлеченные из результатов поиска и предоставляемые перед ссылкой на эту страницу.

Но особенность обзоров ИИ заключается в том, что они не просто извлекаются из соответствующих источников, а генерируются «за кулисами» с помощью генеративной технологии ИИ Google.

Цель компании — предоставить вам персонализированный ответ по запросу вместо стандартного набора документов или даже поля для ответов, соответствующего вашему запросу.

Это кажется почти волшебным и потенциально полезным во многих ситуациях. Ведь люди используют поисковые системы в первую очередь для поиска ответов, а не списков документов. Но это еще не все.

Мы с моей коллегой Эмили Бендер написали о том, что нужно, чего хотят и что имеют пользователи поисковых систем. Мы показали, что им нужна не только информация, но и возможность открывать, изучать и подвергать сомнению то, что они находят.

Другими словами, у пользователей широкий спектр ситуаций и целей, и сжать их до набора ссылок или, что еще хуже, до одного ответа проблематично.

Плохой совет

иллюстрация искусственного интеллекта
Изображение: пиксели

Эти функции ИИ собирают информацию из Интернета и других доступных источников и выдают ответ на основе того, как они обучены связывать слова.

Основной аргумент против них заключается в том, что они по большей части исключают из уравнения суждения, свободу действий и возможность обучения пользователя.

Это может подойти для многих поисков. Хотите получить описание того, как инфляция повлияла на цены на продукты за последние пять лет, или краткое изложение того, что включает в себя Закон Европейского Союза об искусственном интеллекте?

Обзоры ИИ могут быть хорошим способом просмотреть множество документов и извлечь конкретные ответы.

Но поисковые потребности людей не ограничиваются фактической информацией. Они ищут идеи, мнения и советы. Ищете советы, как предотвратить соскальзывание сыра с пиццы?

Google скажет вам, что в соус следует добавить немного клея. Или задаетесь вопросом, полезен ли бег с ножницами для здоровья? Конечно, Google скажет: «Он также может улучшить ваши поры и придать вам силы».

Ученый-компьютерщик Пауло Шакарян объясняет, почему «галлюцинации» – неправильные и часто странные ответы – скорее всего, будут продолжать преследовать большие языковые модели и, следовательно, такие инструменты, как обзоры искусственного интеллекта Google.

Хотя разумный пользователь может понять, что такие возмутительные ответы, скорее всего, будут неправильными, это трудно обнаружить в вопросах, касающихся фактов.

Например, исследуя веру президентов США, Google AI Reviews дал неверный ответ, что Барак Обама — мусульманин.

Эта дезинформация была широко распространена и развенчана много лет назад, но Google извергнул ее, не дав пользователям возможности узнать, что это дезинформация.

А как насчет студента, который использует Google для выполнения домашнего задания и спрашивает, какие страны Африки начинаются с буквы К? Хотя Кения действительно соответствует этому критерию, обзоры искусственного интеллекта Google неправильно ответили, что таких стран нет.

Google признал проблемы с обзорами AI и заявил, что устранил их. Но вопрос остается: можете ли вы действительно доверять ответам, которые получаете через этот сервис?

Как избежать ответов ИИ

Изображение: Unsplash

Есть альтернативы. Вы всегда можете вернуться к традиционному поиску Google с его 10 синими ссылками.

Нажмите «Еще» в меню — «Все», «Новости», «Изображения», «Карты», «Видео» и многое другое — непосредственно под полем поиска в верхней части страницы поиска Google и выберите «Интернет».

Затем вы сможете сделать то, что вы, вероятно, делали уже несколько десятилетий – просмотреть некоторые из лучших результатов, посетить несколько из этих сайтов и принять решение самостоятельно.

Это требует небольшой работы, но возвращает вам возможность исследовать несколько сайтов и доказательств, чтобы поддержать или опровергнуть что-то. Что еще более важно, вы оставляете открытыми возможности для обучения, открытий и счастливой случайности.

Обзоры AI похожи на фаст-фуд, который доставляют через окно для проезда: это быстро, горячо и удобно, но не самый здоровый выбор.

Просмотр традиционных результатов поиска Google похож на изучение меню в ресторане и размещение заказа, который займет некоторое время, прежде чем он попадет к вашему столу.

Вы можете задать своему серверу вопросы об этих предметах и ​​даже запросить некоторые изменения в предложениях ресторана. Он готовится с большей тщательностью, настройкой и контролем, но занимает больше времени и может стоить дороже.

Однако это не единственные методы поиска информации. Существуют альтернативы поисковой системе Google, включая специальные инструменты поиска.

Для научных целей полезными местами для поиска научных статей и цитат являются Google Scholar, Semantic Scholar и CORE. Ищете медицинскую информацию?

Попробуйте PubMed, ScienceDirect и OpenMD. Для юридических нужд некоторые услуги включают Fastcase, Caselaw Access Project и CourtListener.

Беспокоитесь о конфиденциальности? Посетите DuckDuckGo, Startpage и Swisscows.

Если вам по-прежнему нужны ответы, сгенерированные искусственным интеллектом, некоторые альтернативы обзорам искусственного интеллекта Google и конкурирующему Bing Copilot — это You.com и Komo, которые обеспечивают большую прозрачность данных, которые они собирают о вас, обеспечивают большую конфиденциальность, а также предлагают способы отказаться. сбора ваших данных для обучения их моделей ИИ.

Сбалансированная информационная диета

руки на клавиатуре ноутбука и телефоне для B2B-технологий
Изображение: Unsplash

Возможно, вы не можете позволить себе поесть в хорошем ресторане или каждый раз готовить каждый прием пищи с нуля, но важно не допустить, чтобы в конечном итоге вам пришлось проезжать мимо машины за всей едой.

В конце концов, вы — то, что вы едите, и, аналогично, вы — то, как вы ищете.

Легко попасться на сенсационные заголовки и короткие новости, которым не хватает контекста. Но вы не должны позволять этому определять вас. Вы можете расширить сферу поиска.

Это нормально — время от времени заходить в проезжую часть и просматривать обзоры ИИ, но важно также найти другие, более полезные способы удовлетворения ваших потребностей — в еде и информации.

Есть какие-нибудь мысли по этому поводу? Напишите нам в комментариях ниже или перенесите обсуждение в наш Twitter или Facebook.

Рекомендации редакции:

  • Чат-боты с искусственным интеллектом отказываются выдавать «спорные» результаты
  • ИИ решает сложную задачу — дать компьютерам обоняние
  • Проблемы искусственного интеллекта в 2024 году: выводы трех ведущих исследователей искусственного интеллекта
  • Опора на выбор ИИ может ослабить наши навыки принятия решений

Примечание редактора: эта статья была написана Чирагом Шахом , профессором информатики Вашингтонского университета, и переиздана из The Conversation под лицензией Creative Commons. Прочтите оригинал статьи.

Разговор

Следите за нами в Flipboard, Google News или Apple News.