Работает ли OpenAI на GPT-5?

Опубликовано: 2023-04-17

Быстрый ответ: Нет, OpenAI не работает с GPT-5 и, вероятно, не будет работать какое-то время. OpenAI продолжает уделять внимание совершенствованию возможностей GPT-4.

На недавнем мероприятии Массачусетского технологического института, на котором обсуждались проблемы и потенциальные опасности систем ИИ, генеральный директор и соучредитель OpenAI Сэм Альтман вышел на сцену по виртуальной видеосвязи.

Альтман обратился к распространенному открытому письму, в котором призвал учреждения, включая OpenAI, приостановить любые дальнейшие системы искусственного интеллекта, создающие системы искусственного интеллекта, выходящие за рамки возможностей GPT-4.

Письмо было подписано такими людьми, как Илон Маск, соучредитель Apple Стив Возняк и другие. Вы можете прочитать письмо здесь или через раскрывающийся список ниже:

Приостановить гигантские эксперименты с искусственным интеллектом: открытое письмо

Системы искусственного интеллекта с интеллектом, конкурирующим с человеком, могут представлять серьезную опасность для общества и человечества, как показывают обширные исследования и признают ведущие лаборатории искусственного интеллекта. Как указано в широко одобренных Принципах ИИ Asilomar, продвинутый ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его следует планировать и управлять им с соразмерной тщательностью и ресурсами .

К сожалению, такого уровня планирования и управления не существует, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта застряли в неконтролируемой гонке по разработке и развертыванию все более мощных цифровых умов, которые никто — даже их создатели — не может понять. прогнозировать или надежно контролировать.

Современные системы искусственного интеллекта в настоящее время становятся конкурентоспособными в решении общих задач, и мы должны спросить себя: должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, в том числе выполняющие? Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, устаревать и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны делегироваться неизбранным лидерам технологий.

Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски управляемыми. Эта уверенность должна быть хорошо обоснована и возрастать с величиной потенциальных эффектов системы. В недавнем заявлении OpenAI относительно общего искусственного интеллекта говорится, что «в какой-то момент может оказаться важным получить независимую оценку, прежде чем приступать к обучению будущих систем, и для самых продвинутых усилий согласиться ограничить скорость роста вычислений, используемых для создания новых». модели». Мы согласны. Этот момент сейчас.

Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ более мощных, чем GPT-4 . Эта пауза должна быть общедоступной и поддающейся проверке, и в ней должны участвовать все ключевые участники. Если такую ​​паузу нельзя ввести быстро, правительства должны вмешаться и ввести мораторий.

Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для усовершенствованного проектирования и разработки искусственного интеллекта, которые тщательно проверяются и контролируются независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений безопасны. Это не означает паузу в развитии ИИ в целом, а просто шаг назад от опасной гонки к все более крупным непредсказуемым моделям черного ящика с появляющимися возможностями.

Исследования и разработки в области искусственного интеллекта должны быть переориентированы на то, чтобы сделать современные мощные современные системы более точными, безопасными, интерпретируемыми, прозрачными, надежными, согласованными, заслуживающими доверия и лояльными.

Параллельно разработчики ИИ должны работать с политиками, чтобы значительно ускорить разработку надежных систем управления ИИ. Они должны как минимум включать: новые и дееспособные регулирующие органы, занимающиеся вопросами ИИ; надзор и отслеживание высокопроизводительных систем искусственного интеллекта и больших пулов вычислительных мощностей; системы происхождения и водяных знаков, помогающие отличить настоящие от синтетических и отслеживать утечки моделей; надежная экосистема аудита и сертификации; ответственность за вред, причиненный ИИ; надежное государственное финансирование технических исследований безопасности ИИ; и хорошо обеспеченные ресурсами институты для преодоления серьезных экономических и политических потрясений (особенно демократии), которые вызовет ИИ.

Человечество может наслаждаться процветающим будущим с ИИ. Добившись успеха в создании мощных систем ИИ, мы теперь можем наслаждаться «летом ИИ», во время которого мы пожинаем плоды, разрабатываем эти системы на благо всех и даем обществу возможность адаптироваться. Общество поставило на паузу другие технологии с потенциально катастрофическими последствиями для общества. Мы можем сделать это здесь. Давайте насладимся долгим ИИ-летом, а не торопимся к осени неподготовленными».

Альтман раскритиковал письмо за удобный пропуск некоторых важных деталей и за то, что более ранняя версия распространяла слухи о том, что OpenAI уже обучает GPT-5. Но это поднимает справедливый вопрос, не так ли?

Работает ли OpenAI на GPT-5?

Краткий ответ: нет

В настоящее время OpenAI не работает над GPT-5 «и не будет в течение некоторого времени», — сказал Альтман, обращаясь к письму. Альтман утверждал, что разработка GPT-5 не входит в его текущие планы.

При этом Альтман подчеркнул, что OpenAI продолжает уделять внимание совершенствованию возможностей GPT-4 и решению потенциальных проблем безопасности, не упомянутых в открытом письме.

Посмотрите видео с беседой ниже:

«Помимо GPT-4 мы делаем и другие вещи, которые, как я думаю, имеют всевозможные проблемы безопасности, которые важно решить и которые были полностью исключены из письма», — отметил Альтман, ссылаясь на плагины GPT-4, которые позволяют использовать модель большого языка. просматривать Интернет.

А пока давайте сосредоточимся на GPT-4.

И это само по себе уже другой вопрос. Хотя в будущем существует возможность анонса GPT-5, мы должны сосредоточиться на том, на что полностью способен GPT-4. Мы еще даже не видели всех его возможностей.

«По мере того, как возможности становятся все более и более серьезными, планка безопасности должна увеличиваться», — добавил Альтман. «Я думаю, что двигаться с осторожностью и уделять все больше внимания вопросам безопасности действительно важно. Письмо, я не думаю, что это оптимальный способ решить эту проблему.

Хотя OpenAI в настоящее время не фокусируется на обучении GPT-5, это не означает, что они не создают другие смелые и инновационные инструменты.

Хотя OpenAI, возможно, в настоящее время не концентрируется на GPT-5, они активно участвуют в создании различных инструментов, расширяющих границы искусственного интеллекта.

Есть какие-нибудь мысли по этому поводу? Напишите нам в комментариях или перенесите обсуждение в наш Twitter или Facebook.

Рекомендации редакции:

  • ChatGPT и другие языковые ИИ так же иррациональны, как и мы
  • Может ли ChatGPT выполнять вашу работу? OpenAI говорит да, по крайней мере 19% из вас
  • Ошибка ChatGPT определенно выявила ваши ленивые привычки писать (обновлено)
  • Помощник по написанию GPT от Linkedin поможет вам создать свой профиль