Ver para dudar: restaurar la confianza en la era de la IA
Publicado: 2024-06-16El viejo mantra dice: Lo creeré cuando lo vea , y la tecnología actual hace que todos hagan una pregunta muy diferente. ¿Puedo creer lo que estoy viendo?
Las imágenes alteradas y los deepfakes son más fáciles de lograr que nunca. En algunos casos, hay poco en juego. ¿El Papa Francisco con un abrigo acolchado? Eso es sólo un truco inofensivo de la IA.
La foto obviamente manipulada de Kate Middleton provocó una ola de rumores y perpetuó la desinformación, pero el daño fue relativamente mínimo y afectó a pocos más allá de la familia real británica.
Lo que estaba en juego era sustancialmente mayor en India, donde los votantes fueron alimentados a la fuerza con deepfakes autorizados de candidatos políticos (más de 50 millones de ellos antes de las recientes elecciones, según WIRED ).
Este año, casi la mitad de la población mundial acudirá a las urnas para votar en las elecciones, y los medios visuales desempeñarán un papel enorme en la toma de decisiones.
El desafío de distinguir las imágenes auténticas de las falsas reviste gran importancia.
Fotografías de campaña, discursos, entrevistas y anuncios políticos manipulados o falsificados amenazan con socavar el proceso democrático mismo al erosionar el discernimiento público de la verdad.
El público depende del acceso a información objetiva a la hora de elegir liderazgo político.
Sin embargo, se está gestando una tormenta perfecta: un rápido avance de la tecnología combinado con la difusión viral de información errónea y una creciente desconfianza en las instituciones. Es una combinación peligrosa que pone en peligro la participación cívica informada.
A medida que la conciencia del público en general sobre las imágenes manipuladas por IA continúa creciendo, también aumenta su preocupación por el hecho de que sea cada vez más difícil discernir la realidad de la ficción. Separar los dos requiere una competencia técnica con la que pocos cuentan.
Una vista de píxeles profundos
Durante 15 años trabajé en cámaras digitales, desde el desarrollo de su firmware hasta el diseño del software que se utilizará para verlas. No existe una imagen “inalterada”.
Ya sea un sensor en la cámara, un software de posprocesamiento o un motor de inteligencia artificial, algo está cambiando la imagen en alguna parte.
Los humanos son malos para cubrir sus huellas: siempre dejan evidencia cuando posprocesan imágenes manualmente.
Acérquese lo suficiente en la portada de una revista y será fácil saber dónde y cómo se ha "mejorado" una imagen. Los motores de IA todavía son lo suficientemente incipientes como para que sus ediciones sean detectables, pero ese no será así por mucho tiempo.
Estamos muy cerca del punto en el que las imágenes “reales” y “falsas” serán indistinguibles porque las alteraciones posteriores al procesamiento y el procesamiento de imágenes en la cámara se verán demasiado similares.
No importa qué tan lejos se acerque un experto, no podrá encontrar ninguna señal de que una imagen haya sido alterada después de salir de la cámara.
En ese momento, la única forma de distinguir entre imágenes reales y falsas será rastrear la imagen a través de toda su cadena de custodia, hasta la cámara que la capturó. Analizar la imagen en sí ya no ayudará.
Verificando autenticidad
Las soluciones técnicas podrían ayudar a gestionar la proliferación de deepfakes y medios sintetizados por IA, y algunas grandes empresas de tecnología ya han tomado medidas para implementarlas.
OpenAI se ha comprometido a incluir metadatos de la Coalición para la procedencia y autenticidad del contenido (C2PA), un estándar técnico abierto también utilizado por los fabricantes de cámaras, en las imágenes producidas por DALL·E 3.
Meta también está trabajando para etiquetar imágenes generadas por IA utilizando el estándar C2PA.
Las cámaras digitales también se pueden programar para incluir este código en los metadatos de cada imagen, haciéndolo verificable.
Por ejemplo, se puede cifrar una suma de verificación de la imagen utilizando una clave privada que solo tiene el fabricante de la cámara, que puede ser verificada por cualquier persona del público (o a través de sitios de terceros como Content Credentials Verify, que TikTok supuestamente pretende utilizar). .
Cada fabricante de cámaras digitales necesitaría someter su código a una auditoría para verificar que no realiza ninguna alteración que se considere inaceptable.
Cada persona que realice una edición de posprocesamiento necesitaría agregar metadatos adicionales a la imagen que muestren los cambios exactos. La imagen original debería incluirse en el archivo.
Cualquier imagen que no cumpla con estos estándares se puede presumir como falsa. Esto incluye imágenes impresas en papel y capturas de pantalla.
Con el tiempo, la sociedad aprenderá que la mayoría de las imágenes son como pinturas: a veces representan eventos reales, pero la mayoría de las veces no, a menos que haya evidencia adicional que corrobore su autenticidad.
Cuestionando lo que creemos
No sería fácil, pero la tecnología avanza tan rápido que se necesitan pasos adicionales para demostrar la autenticidad. Aquellos interesados en encontrar la verdad, como periodistas y jueces, tendrían que mostrar especial cautela al examinar las pruebas.
Hace un siglo, el testimonio de los testigos presenciales reinaba en los tribunales. Luego, innovaciones como grabaciones de audio, huellas dactilares y pruebas fotográficas prometieron credibilidad, aunque los análisis de huellas dactilares aún requerían validar una cadena de custodia.
La Academia Nacional de Ciencias ahora ha desafiado esos estándares: las huellas dactilares y la balística enfrentan renovadas dudas sobre su precisión.
A medida que avanza la IA, las fotos y los vídeos también pierden su fiabilidad. El camino a seguir requiere la colaboración entre los innovadores tecnológicos, los buscadores de la verdad y el público.
Es esencial implementar marcos de autenticación estandarizados, enfatizar la transparencia y repensar los supuestos de autenticidad de las imágenes.
Con vigilancia y responsabilidad colectiva, podemos trabajar para preservar la confianza de que ver para creer.
Nota del editor: este artículo fue escrito por Alex Fink, director ejecutivo y fundador de Otherweb. Alex es un ejecutivo tecnológico y fundador y director ejecutivo de Otherweb, una corporación de beneficio público que utiliza inteligencia artificial para ayudar a las personas a leer noticias y comentarios, escuchar podcasts y buscar en la web sin muros de pago, clickbait, anuncios ni cualquier otra "basura". contenido. Otherweb está disponible como una aplicación para iOS o Android, un sitio web, un boletín informativo o una extensión de navegador independiente. Antes de Otherweb, Alex fue fundador y director ejecutivo de Panopteo y cofundador y presidente de Swarmer.
¿Qué piensas de esta tecnología? Escríbanos a continuación en los comentarios o lleve la discusión a nuestro Twitter o Facebook.
Recomendaciones de los editores:
- Los deepfakes de IA hacen su debut político con la llamada automática de Biden
- El algoritmo de búsqueda de Google ve el porno deepfake como contenido útil
- ¿Qué es el porno deepfake?
- ¿Bruce Willis vendió sus derechos de imagen a una empresa de deepfake?