Ver para duvidar: Restaurando a confiança na era da IA

Publicados: 2024-06-16

O velho mantra diz: acreditarei quando vir , e a tecnologia de hoje faz com que todos façam perguntas muito diferentes. Posso acreditar no que estou vendo?

Imagens alteradas e deepfakes estão mais fáceis de obter do que nunca. Em alguns casos, os riscos são baixos. Papa Francisco com um casaco fofo? Isso são apenas alguns truques inofensivos da IA.

A foto obviamente manipulada de Kate Middleton gerou uma onda de rumores e perpetuou a desinformação, mas o dano foi relativamente mínimo, afetando poucos além da família real britânica.

As apostas eram substancialmente maiores na Índia, onde os eleitores foram alimentados à força com deepfakes sancionados de candidatos políticos – mais de 50 milhões deles antes das recentes eleições, de acordo com a WIRED .

Este ano, quase metade da população mundial irá às urnas para votar nas eleições e os meios de comunicação visual desempenharão um papel descomunal na sua tomada de decisões.

O desafio de distinguir imagens autênticas de imagens falsas é de grande importância.

Fotografias de campanha, discursos, entrevistas e anúncios políticos falsificados ou falsificados ameaçam minar o próprio processo democrático ao corroer o discernimento público da verdade.

O público depende do acesso à informação factual ao escolher a liderança política.

No entanto, está a preparar-se uma tempestade perfeita – um rápido avanço da tecnologia combinado com a propagação viral de desinformação e a crescente desconfiança nas instituições. É uma mistura perigosa que põe em risco a participação cívica informada.

À medida que a consciência do público em geral sobre as imagens manipuladas pela IA continua a crescer, também aumentam as suas preocupações de que é cada vez mais difícil discernir os factos da ficção. Separar os dois requer uma competência técnica com a qual poucos estão armados.

Uma visão com profundidade de pixels

Close-up da câmera capturando a cena da cidade à noite.
Imagem: Pexels

Durante 15 anos, trabalhei com câmeras digitais – desde o desenvolvimento do firmware até o design do software que será usado para visualizá-las. Não existe imagem “inalterada”.

Seja um sensor na câmera, um software de pós-processamento ou um mecanismo de IA, algo está mudando a imagem em algum lugar.

Os humanos são ruins em encobrir seus rastros – eles sempre deixam evidências ao pós-processar imagens manualmente.

Aumente o zoom na capa de uma revista e será fácil saber onde e como uma imagem foi “aprimorada”. Os mecanismos de IA ainda são incipientes o suficiente para que suas edições sejam detectáveis, mas esse não será o caso por muito tempo.

Estamos muito próximos do ponto em que imagens “reais” e “falsas” serão indistinguíveis porque as alterações pós-processamento e o processamento de imagens na câmera parecerão muito semelhantes.

Não importa o quão longe um especialista aumente o zoom, ele não conseguirá encontrar nenhum sinal de que uma imagem foi alterada depois de sair da câmera.

Nesse ponto, a única maneira de saber a diferença entre imagens reais e falsas será rastrear a imagem através de toda a sua cadeia de custódia, até a câmera que a capturou. Analisar a imagem em si não ajudará mais.

Verificando a autenticidade

Editando foto de paisagem na tela do computador.
Imagem: Pixabay

Soluções técnicas poderiam ajudar a gerir a proliferação de deepfakes e meios de comunicação sintetizados por IA, e algumas grandes empresas tecnológicas já tomaram medidas para implementá-las.

A OpenAI prometeu incluir metadados da Coalition for Content Provenance and Authenticity (C2PA), um padrão técnico aberto também usado por fabricantes de câmeras, em imagens produzidas pelo DALL·E 3.

A Meta também está trabalhando para rotular imagens geradas por IA usando o padrão C2PA.

As câmeras digitais também podem ser programadas para incluir esse código nos metadados de cada imagem, tornando-o verificável.

Por exemplo, uma soma de verificação da imagem pode ser criptografada usando uma chave privada que apenas o fabricante da câmera possui, que pode ser verificada por qualquer pessoa em público (ou através de sites de terceiros como Content Credentials Verify, que o TikTok supostamente pretende usar) .

Todo fabricante de câmeras digitais precisaria submeter seu código a uma auditoria para verificar se não realiza alterações que seriam consideradas inaceitáveis.

Cada pessoa que executa uma edição pós-processamento precisaria adicionar metadados adicionais à imagem mostrando as alterações exatas. A imagem original precisaria ser incluída no arquivo.

Qualquer imagem que não cumpra esses padrões pode ser considerada falsa. Isso inclui imagens impressas em papel e capturas de tela.

Com o tempo, a sociedade aprenderá que a maioria das imagens são como pinturas – às vezes, retratam eventos reais, mas na maioria das vezes, não o fazem, a menos que haja evidências adicionais para corroborar a sua autenticidade.

Questionando o que acreditamos

Pope deepfakes vestindo uma jaqueta branca e um solidéu branco.
Imagem: IA gerada

Não seria fácil, mas a tecnologia está avançando tão rapidamente que são necessárias etapas extras para provar a autenticidade. Os interessados ​​em descobrir a verdade, como jornalistas e juízes, precisariam de mostrar cautela extra ao examinar as provas.

Há um século, o depoimento de testemunhas oculares reinava supremo nos tribunais. Depois, inovações como gravações de áudio, impressões digitais e provas fotográficas prometeram credibilidade, embora as análises de impressões digitais ainda exigissem a validação de uma cadeia de custódia.

A Academia Nacional de Ciências desafiou agora esses padrões – as impressões digitais e a balística enfrentam dúvidas renovadas em relação à precisão.

À medida que a IA avança, as fotos e os vídeos também perdem a sua fiabilidade. O caminho a seguir requer colaboração entre inovadores tecnológicos, buscadores da verdade e o público.

Implementar estruturas de autenticação padronizadas, enfatizar a transparência e repensar as suposições de autenticidade de imagens são essenciais.

Com vigilância e responsabilidade colectiva, podemos trabalhar para preservar a confiança de que ver para crer.

Homem de camisa preta, olhando para frente.

Nota do Editor: Este artigo foi escrito por Alex Fink, CEO e fundador da Otherweb. Alex é executivo de tecnologia e fundador e CEO da Otherweb, uma corporação de benefício público que usa IA para ajudar as pessoas a ler notícias e comentários, ouvir podcasts e pesquisar na web sem acesso pago, clickbait, anúncios ou qualquer outro 'lixo' contente. Otherweb está disponível como um aplicativo iOS ou Android, um site, um boletim informativo ou uma extensão de navegador independente. Antes da Otherweb, Alex foi fundador e CEO da Panopteo e cofundador e presidente da Swarmer.

O que você acha dessa tecnologia? Deixe-nos uma linha abaixo nos comentários ou leve a discussão para nosso Twitter ou Facebook.

Recomendações dos Editores:

  • Deepfakes de IA fazem sua estreia política com Biden robocall
  • O algoritmo de busca do Google vê pornografia deepfake como conteúdo útil
  • O que é pornografia deepfake?
  • Bruce Willis vendeu seus direitos de imagem para uma empresa deepfake?

Siga-nos no Flipboard, Google News ou Apple News