Видеть значит сомневаться: восстановление доверия в эпоху искусственного интеллекта
Опубликовано: 2024-06-16Старая мантра гласит: «Я поверю, когда увижу» , а сегодняшние технологии заставляют всех задавать совсем другие вопросы. Могу ли я поверить в то, что вижу?
Измененные изображения и дипфейки реализовать проще, чем когда-либо прежде. В некоторых случаях ставки невелики. Папа Франциск в пуховике? Это всего лишь безобидный трюк ИИ.
Явно подтасованная фотография Кейт Миддлтон вызвала волну слухов и увековечила дезинформацию, но вред был относительно минимальным и затронул немногих, за исключением британской королевской семьи.
Ставки были существенно выше в Индии, где избирателям насильно скармливали санкционированные дипфейки от политических кандидатов — по данным WIRED , их было более 50 миллионов накануне недавних выборов.
В этом году почти половина населения мира отправится на избирательные участки, чтобы проголосовать на выборах, а визуальные средства массовой информации будут играть огромную роль в принятии ими решений.
Задача отличить подлинные изображения от поддельных имеет огромную важность.
Подделанные или поддельные предвыборные фотографии, речи, интервью и политическая реклама угрожают подорвать сам демократический процесс, подрывая общественное понимание истины.
Общественность зависит от доступа к фактической информации при выборе политического руководства.
Тем не менее, назревает идеальный шторм — быстрое развитие технологий в сочетании с вирусным распространением дезинформации и ростом недоверия к институтам. Это опасная смесь, которая ставит под угрозу осознанное гражданское участие.
Поскольку осведомленность широкой общественности об изображениях, обработанных ИИ, продолжает расти, растет и ее обеспокоенность тем, что становится все труднее отличить факты от вымысла. Разделение этих двух процессов требует технической компетентности, которой обладают немногие.
Вид с точностью до пикселя
На протяжении 15 лет я работал над цифровыми камерами — от разработки их прошивки до разработки программного обеспечения, которое будет использоваться для их просмотра. Не существует такого понятия, как «неизмененный» образ.
Будь то датчик в камере, программное обеспечение для постобработки или механизм искусственного интеллекта, где-то что-то меняет изображение.
Люди плохо умеют заметать следы — они всегда оставляют улики при ручной постобработке изображений.
Увеличьте масштаб обложки журнала, и вы легко поймете, где и как изображение было «улучшено». Механизмы искусственного интеллекта все еще находятся в зачаточном состоянии, чтобы их изменения можно было обнаружить, но так будет ненадолго.
Мы очень близки к тому моменту, когда «настоящие» и «поддельные» изображения будут неотличимы, поскольку изменения постобработки и обработка изображений на камере будут выглядеть слишком похожими.
Независимо от того, насколько сильно эксперт увеличивает масштаб, он не сможет обнаружить никаких признаков того, что изображение было изменено после того, как оно покинуло камеру.
На этом этапе единственным способом отличить настоящие изображения от поддельных будет проследить всю цепочку хранения изображения до камеры, которая его засняла. Анализ самого изображения уже не поможет.
Проверка подлинности
Технические решения могут помочь справиться с распространением дипфейков и медиа, синтезированных с помощью искусственного интеллекта, и несколько крупных технологических компаний уже предприняли шаги по их внедрению.
OpenAI пообещала включить метаданные Коалиции за происхождение и подлинность контента (C2PA), открытый технический стандарт, также используемый производителями камер, в изображения, создаваемые DALL·E 3.
Meta также работает над маркировкой изображений, созданных искусственным интеллектом, с использованием стандарта C2PA.
Цифровые камеры также можно запрограммировать на включение этого кода в метаданные каждого изображения, что сделает его проверяемым.
Например, контрольная сумма изображения может быть зашифрована с использованием закрытого ключа, который есть только у производителя камеры, который может быть проверен любым человеком в открытом доступе (или через сторонние сайты, такие как Content Credentials Verify, который, как сообщается, TikTok намерен использовать). .
Каждому производителю цифровых камер необходимо будет подвергнуть свой код аудиту, чтобы убедиться, что в него не внесены какие-либо изменения, которые были бы сочтены неприемлемыми.
Каждому человеку, выполняющему постобработку, необходимо будет добавить к изображению дополнительные метаданные, показывающие точные изменения. Исходное изображение должно быть включено в файл.
Любое изображение, не соответствующее этим стандартам, может считаться подделкой. Сюда входят изображения, распечатанные на бумаге, и снимки экрана.
Со временем общество поймет, что большинство изображений подобны картинам — иногда они изображают реальные события, но в большинстве случаев это не так, если не будет дополнительных доказательств, подтверждающих их подлинность.
Ставя под сомнение то, во что мы верим
Это будет непросто, но технологии развиваются настолько быстро, что для доказательства подлинности необходимы дополнительные шаги. Тем, кто заинтересован в установлении истины, например журналистам и судьям, придется проявлять особую осторожность при изучении доказательств.
Сто лет назад в судах главенствовали показания очевидцев. Тогда такие инновации, как аудиозаписи, отпечатки пальцев и фотографические доказательства, обещали доверие, хотя анализ отпечатков пальцев по-прежнему требовал подтверждения цепочки поставок.
Национальная академия наук теперь бросила вызов этим стандартам: точность отпечатков пальцев и баллистики вновь вызывает сомнения.
По мере развития искусственного интеллекта фотографии и видео также теряют свою надежность. Путь вперед требует сотрудничества между технологическими новаторами, искателями истины и общественностью.
Крайне важно внедрить стандартизированные системы аутентификации, подчеркнуть прозрачность и переосмыслить предположения о подлинности изображений.
Проявляя бдительность и коллективную ответственность, мы можем работать над сохранением уверенности в том, что увидеть – значит поверить.
Примечание редактора. Эту статью написал Алекс Финк, генеральный директор и основатель Otherweb. Алекс — технический руководитель, а также основатель и генеральный директор Otherweb, общественной благотворительной корпорации, которая использует искусственный интеллект, чтобы помогать людям читать новости и комментарии, слушать подкасты и осуществлять поиск в Интернете без платного доступа, кликбейта, рекламы и любого другого «мусора». содержание. Otherweb доступен в виде приложения для iOS или Android, веб-сайта, информационного бюллетеня или отдельного расширения для браузера. До работы в Otherweb Алекс был основателем и генеральным директором Panopteo, а также соучредителем и председателем правления Swarmer.
Что вы думаете об этой технологии? Напишите нам в комментариях ниже или перенесите обсуждение в наш Twitter или Facebook.
Рекомендации редакции:
- Дипфейки с использованием искусственного интеллекта дебютируют в политике с роботизированным вызовом Байдена
- Алгоритм поиска Google считает дипфейковое порно полезным контентом
- Что такое дипфейк-порно?
- Брюс Уиллис продал права на свое изображение компании, занимающейся дипфейками?