Что такое часы Судного дня и как на них влияет ИИ?

Опубликовано: 2024-01-24

На этой неделе ученые подтвердили, что Часы Судного Дня будут оставаться на отметке 90 секунд до полуночи второй год подряд.

Часы Судного дня — это метафора того, насколько близки люди к уничтожению мира. В последний раз их переводили ближе к полуночи — символической конечной точке — в 2023 году из-за проблем с климатом и войны в Украине.

Бюллетень ученых-атомщиков, который устанавливает время каждый год, заявил, что оно должно оставаться на уровне 90 секунд, несмотря на войну в Газе, еще один самый жаркий год за всю историю наблюдений и, что интересно, растущую обеспокоенность по поводу искусственного интеллекта .

Давайте посмотрим, что такое «Часы Судного дня» и как ИИ заставляет их идти ближе к уничтожению.

Что такое Часы Судного Дня?

Часы Судного Дня , впервые разработанные в 1947 году Дж. Робертом Оппенгеймером и его коллегами-учёными, разработавшими атомную бомбу, показывают, насколько близко человечество подошло к полному уничтожению. Он был создан, чтобы оказать давление на мировых лидеров, чтобы они никогда больше не использовали ядерное оружие после разрушительных последствий Второй мировой войны.

Начиная с семи минут до полуночи, стрелки часов переместились в общей сложности 25 раз, а после окончания холодной войны в 1991 году они даже вернулись к отметке 17 минут до полуночи.

Война является ключевым фактором, лежащим в основе большей части расчетов часов. Во вторник Бюллетень заявил, что Китай, Россия и США расширяют и модернизируют свои ядерные вооружения, что усиливает «постоянную опасность ядерной войны из-за ошибки или просчета». Аналогичным образом, война на Украине также создала «постоянный риск ядерной эскалации».

Однако инструменты искусственного интеллекта также были названы причиной того, что часы остаются наиболее близкими к Армагеддону за всю историю.

Логотип Surfshark Хотите просматривать веб-страницы конфиденциально? Или выглядеть так, будто вы находитесь в другой стране?
Получите огромную скидку 86 % на Surfshark с этим специальным предложением от tech.co. Посмотреть кнопку сделки

Как ИИ влияет на обратный отсчет?

Члены «Бюллетеня ученых-атомщиков» включают в свои расчеты часов антропогенные риски, такие как искусственный интеллект, с 2007 года.

Однако благодаря драматическому и быстрому развитию технологий генеративного искусственного интеллекта, когда чат-боты, такие как ChatGPT от OpenAI , по-видимому, каждый день попадают в заголовки новостей, его значительное упоминание в списке этого года не является сюрпризом.

В бюллетене говорилось: «Мы подчеркиваем один вопрос, вызывающий особую озабоченность: конвергенция новых инструментов искусственного интеллекта и биологических технологий, [которые] могут радикально расширить возможности людей злоупотреблять биологией».

Предприятия и организации пожинают плоды искусственного интеллекта и больших языковых моделей, благодаря которым они повышают производительность и минимизируют ошибки. Даже в сфере здравоохранения наблюдается положительный эффект ИИ, связанный с повышением эффективности диагностики. Так что же именно вызывает беспокойство учёных-атомщиков?

Согласно заявлению «Часов Судного дня» :

«Обеспокоенность заключается в том, что большие языковые модели позволяют людям, которым в противном случае не хватает достаточных знаний, идентифицировать, приобретать и использовать биологические агенты, которые могут нанести вред большому количеству людей, животных, растений и других элементов окружающей среды».

Более того, непредсказуемость генеративного ИИ, а также его потенциал искажать информацию и усиливать дезинформацию — все это угрозы демократии, что, в свою очередь, может серьезно повлиять на то, как мы управляем ядерными рисками, пандемиями и изменением климата.

Если говорить с технологической точки зрения, влияние ИИ на отрасль также сильно варьируется.

Возьмем вредный для бизнеса, но в конечном итоге безобидный пример онлайн-чат-бота DPD, которым легко манипулировать, заставляя его критиковать себя и компанию. Хотя это не является разрушительной в широком масштабе, это досадная ошибка, которая может означать денежные потери для компаний.

На другом конце шкалы находится риск для жизни. В прошлом году Tesla была вынуждена отозвать более двух миллионов своих автомобилей из-за неисправности автопилота . Это произошло из-за серии аварий, в которых две отдельные машины врезались в заднюю часть припаркованной пожарной машины и полицейской машины.

Ученые-атомщики заявили, что «достижения в области искусственного интеллекта и генной инженерии, например, имеют огромный потенциал, но также несут значительные риски в зависимости от того, как эти технологии используются».

Могут ли помочь правила ИИ?

Основная цель «Часов Судного дня» — повысить осведомленность и, как мы надеемся, привлечь внимание к глобальным проблемам, чтобы побудить к действиям политиков, мировых лидеров и граждан.

Президент и генеральный директор «Бюллетеня ученых-атомщиков» Рэйчел Бронсон объяснила: «В нашем заявлении есть два ключевых сообщения: одно: 90 секунд до полуночи крайне нестабильно и не должно вызывать самоуспокоенности, и второе: развитие технологий ускоряется. и опережая нашу способность управлять ими».

Это означает, что «новые прорывные технологии», такие как искусственный интеллект, должны регулироваться соответствующим законодательством и правилами.

Еще в октябре президент США Джо Байден подписал указ о «безопасном, надежном и заслуживающем доверия ИИ», который призывает защитить «от рисков использования ИИ для создания опасных биологических материалов путем разработки новых строгих стандартов скрининга биологического синтеза». Хотя этот шаг и не имеет обязательной юридической силы, он является шагом в правильном направлении.

Аналогичным образом, многие страны по всему миру признают потенциальный вред ИИ и принимают смягчающие меры. Это включает в себя предлагаемую Евросоюзом нормативно-правовую базу, международную декларацию по борьбе с рисками ИИ и формирование нового консультативного органа ООН.

Чтобы убедиться, что вы используете искусственный интеллект наиболее эффективным и безопасным способом, обязательно полностью осознайте ограничения и риски каждого инструмента генеративного ИИ, с которым вы работаете. Это позволит вам лучше контролировать их использование и, надеюсь, поможет избежать тикающих часов.