Voir, c'est douter : restaurer la confiance à l'ère de l'IA

Publié: 2024-06-16

Le vieux mantra dit : « Je le croirai quand je le verrai » , et la technologie d'aujourd'hui amène tout le monde à poser une question très différente. Puis-je croire ce que je vois ?

Les images modifiées et les deepfakes sont plus faciles à réaliser que jamais. Dans certains cas, les enjeux sont faibles. Le pape François en doudoune ? Ce n’est qu’une supercherie inoffensive de l’IA.

La photo manifestement manipulée de Kate Middleton a donné lieu à une vague de rumeurs et a perpétué la désinformation, mais le préjudice a été relativement minime, touchant peu de personnes au-delà de la famille royale britannique.

Les enjeux étaient considérablement plus élevés en Inde, où les électeurs ont été gavés de force par des candidats politiques – plus de 50 millions d’entre eux avant les récentes élections, selon WIRED .

Cette année, près de la moitié de la population mondiale se rendra aux urnes pour voter aux élections, et les médias visuels joueront un rôle démesuré dans leur prise de décision.

Le défi consistant à distinguer les images authentiques des fausses revêt une importance capitale.

Les photos de campagne, les discours, les interviews et les publicités politiques falsifiés ou falsifiés menacent de saper le processus démocratique lui-même en érodant le discernement du public quant à la vérité.

Le public dépend de l’accès à des informations factuelles lorsqu’il choisit un leadership politique.

Pourtant, une tempête parfaite se prépare : un progrès technologique rapide combiné à la propagation virale de la désinformation et à une méfiance croissante à l’égard des institutions. Il s'agit d'un mélange dangereux qui met en péril une participation civique éclairée.

À mesure que la sensibilisation du grand public aux images manipulées par l'IA continue de croître, ses inquiétudes quant à la difficulté de distinguer les faits de la fiction augmentent également. Séparer les deux nécessite une compétence technique dont peu de gens sont armés.

Une vue au pixel près

Gros plan d'une caméra capturant la scène de la ville la nuit.
Image : Pexels

Pendant 15 ans, j'ai travaillé sur des appareils photo numériques, du développement de leur micrologiciel à la conception du logiciel qui sera utilisé pour les visualiser. Il n’existe pas d’image « inchangée ».

Qu'il s'agisse d'un capteur dans l'appareil photo, d'un logiciel de post-traitement ou d'un moteur d'IA, quelque chose change l'image quelque part.

Les humains ne parviennent pas à brouiller les traces : ils laissent toujours des preuves derrière eux lors du post-traitement manuel des images.

Zoomez suffisamment près sur une couverture de magazine et il est facile de savoir où et comment une image a été « améliorée ». Les moteurs d’IA en sont encore suffisamment à leurs balbutiements pour que leurs modifications soient détectables, mais ce ne sera pas le cas pour longtemps.

Nous sommes très proches du point où les images « réelles » et « fausses » seront impossibles à distinguer, car les modifications post-traitement et le traitement des images sur la caméra se ressembleront trop.

Quelle que soit la distance de zoom d'un expert, il ne pourra trouver aucun signe indiquant qu'une image a été modifiée après avoir quitté l'appareil photo.

À ce stade, la seule façon de faire la différence entre les images réelles et fausses sera de retracer l’image tout au long de sa chaîne de contrôle, jusqu’à la caméra qui l’a capturée. Analyser l’image elle-même n’aidera plus.

Vérifier l'authenticité

Modification d'une photo de paysage sur un écran d'ordinateur.
Image : Pixabay

Des solutions techniques pourraient aider à gérer la prolifération des deepfakes et des médias synthétisés par l’IA, et quelques grandes entreprises technologiques ont déjà pris des mesures pour les mettre en œuvre.

OpenAI s'est engagé à inclure les métadonnées de la Coalition for Content Provenance and Authenticity (C2PA), une norme technique ouverte également utilisée par les fabricants d'appareils photo, dans les images produites par DALL·E 3.

Meta travaille également à étiqueter les images générées par l'IA en utilisant la norme C2PA.

Les appareils photo numériques peuvent également être programmés pour inclure ce code dans les métadonnées de chaque image, le rendant ainsi vérifiable.

Par exemple, une somme de contrôle de l'image peut être cryptée à l'aide d'une clé privée que seul le fabricant de l'appareil photo possède, qui peut être vérifiée par toute personne publique (ou via des sites tiers comme Content Credentials Verify, que TikTok aurait l'intention d'utiliser). .

Chaque fabricant d'appareils photo numériques devrait soumettre son code à un audit pour vérifier qu'il n'effectue aucune modification qui serait considérée comme inacceptable.

Toute personne effectuant une modification post-traitement devra ajouter des métadonnées supplémentaires à l'image montrant les modifications exactes. L'image originale devra être incluse dans le fichier.

Toute image qui ne respecte pas ces normes peut être présumée fausse. Cela inclut les images imprimées sur papier et les captures d’écran.

Au fil du temps, la société apprendra que la plupart des images sont comme des peintures : parfois, elles représentent des événements réels, mais la plupart du temps, elles ne le font pas, à moins qu'il n'y ait des preuves supplémentaires pour corroborer leur authenticité.

Remettre en question ce que nous croyons

Le pape deepfake porte une doudoune blanche et une calotte blanche.
Image : générée par l'IA

Ce ne serait pas facile, mais la technologie évolue si vite que des étapes supplémentaires sont nécessaires pour prouver l'authenticité. Ceux qui souhaitent découvrir la vérité, comme les journalistes et les juges, devraient faire preuve d’une extrême prudence lors de l’examen des preuves.

Il y a un siècle, les témoignages oculaires régnaient en maître devant les tribunaux. Ensuite, des innovations telles que les enregistrements audio, les empreintes digitales et les preuves photographiques promettaient de la crédibilité, même si les analyses d’empreintes digitales nécessitaient toujours de valider une chaîne de traçabilité.

L’Académie nationale des sciences a maintenant contesté ces normes : les empreintes digitales et la balistique sont confrontées à de nouveaux doutes quant à leur exactitude.

À mesure que l’IA progresse, les photos et les vidéos perdent également de leur fiabilité. La voie à suivre nécessite une collaboration entre les innovateurs technologiques, les chercheurs de vérité et le public.

La mise en œuvre de cadres d’authentification standardisés, l’accent mis sur la transparence et la refonte des hypothèses sur l’authenticité des images sont autant d’éléments essentiels.

Avec vigilance et responsabilité collective, nous pouvons œuvrer pour préserver la confiance selon laquelle voir, c’est croire.

Homme en chemise noire avec impatience.

Note de l'éditeur : cet article a été rédigé par Alex Fink, PDG et fondateur d'Otherweb. Alex est un cadre technique et le fondateur et PDG d'Otherweb, une société d'intérêt public qui utilise l'IA pour aider les gens à lire des actualités et des commentaires, à écouter des podcasts et à effectuer des recherches sur le Web sans paywalls, clickbait, publicités ou tout autre « indésirable ». contenu. Otherweb est disponible sous forme d'application iOS ou Android, de site Web, de newsletter ou d'extension de navigateur autonome. Avant Otherweb, Alex était fondateur et PDG de Panopteo et co-fondateur et président de Swarmer.

Que pensez-vous de cette technologie ? Écrivez-nous ci-dessous dans les commentaires ou portez la discussion sur notre Twitter ou Facebook.

Recommandations des rédacteurs :

  • Les deepfakes d’IA font leurs débuts politiques avec l’appel automatisé de Biden
  • L'algorithme de recherche de Google considère le deepfake porn comme un contenu utile
  • Qu’est-ce que le deepfake porno ?
  • Bruce Willis a-t-il vendu ses droits à l'image à une société deepfake ?

Suivez-nous sur Flipboard, Google News ou Apple News