Vedere è dubitare: ripristinare la fiducia nell’era dell’intelligenza artificiale
Pubblicato: 2024-06-16Il vecchio mantra recita: "Ci crederò quando lo vedrò" , mentre la tecnologia di oggi spinge tutti a porsi una domanda molto diversa. Posso credere a quello che vedo?
Immagini alterate e deepfake sono più facili che mai da realizzare. In alcuni casi, la posta in gioco è bassa. Papa Francesco con il cappotto imbottito? Questo è solo un innocuo trucco dell'intelligenza artificiale.
La foto ovviamente manipolata di Kate Middleton ha portato a un’ondata di voci e a perpetuata disinformazione, ma il danno è stato relativamente minimo e ha colpito pochi al di fuori della famiglia reale britannica.
La posta in gioco era sostanzialmente più alta in India, dove gli elettori sono stati alimentati forzatamente con i deepfake approvati dai candidati politici: più di 50 milioni di loro prima delle recenti elezioni, secondo WIRED .
Quest’anno, quasi la metà della popolazione mondiale si recherà alle urne per votare alle elezioni, e i media visivi giocheranno un ruolo enorme nel loro processo decisionale.
La sfida di distinguere le immagini autentiche da quelle false è di grande importanza.
Foto elettorali, discorsi, interviste e pubblicità politiche falsificate o contraffatte minacciano di minare lo stesso processo democratico erodendo il discernimento pubblico della verità.
Il pubblico dipende dall’accesso alle informazioni fattuali quando sceglie la leadership politica.
Tuttavia, si sta preparando una tempesta perfetta: un rapido progresso della tecnologia combinato con la diffusione virale della disinformazione e una crescente sfiducia nelle istituzioni. È un mix pericoloso che mette a repentaglio la partecipazione civica informata.
Man mano che la consapevolezza del grande pubblico riguardo alle immagini manipolate dall’intelligenza artificiale continua a crescere, crescono anche le preoccupazioni che sia sempre più difficile distinguere i fatti dalla finzione. Separare i due richiede una competenza tecnica di cui pochi sono armati.
Una visione profonda un pixel
Per 15 anni ho lavorato sulle fotocamere digitali, dallo sviluppo del firmware alla progettazione del software che verrà utilizzato per visualizzarle. Non esiste un’immagine “inalterata”.
Che si tratti di un sensore nella fotocamera, di un software di post-elaborazione o di un motore di intelligenza artificiale, qualcosa sta cambiando l'immagine da qualche parte.
Gli esseri umani non riescono a coprire le proprie tracce: lasciano sempre delle prove quando postelaborano manualmente le immagini.
Ingrandisci abbastanza da vicino la copertina di una rivista ed è facile capire dove e come un'immagine è stata "migliorata". I motori di intelligenza artificiale sono ancora abbastanza nascenti da rendere rilevabili le loro modifiche, ma non sarà così per molto tempo.
Siamo molto vicini al punto in cui le immagini “reali” e “false” saranno indistinguibili perché le alterazioni post-elaborazione e l'elaborazione delle immagini sulla fotocamera sembreranno troppo simili.
Non importa quanto un esperto ingrandisca, non sarà in grado di trovare alcun segno che un'immagine sia stata alterata dopo aver lasciato la fotocamera.
A quel punto, l’unico modo per distinguere tra immagini reali e false sarà quello di tracciare l’immagine attraverso l’intera catena di custodia, fino alla telecamera che l’ha catturata. Analizzare l'immagine stessa non aiuterà più.
Verifica dell'autenticità
Le soluzioni tecniche potrebbero aiutare a gestire la proliferazione dei deepfake e dei media sintetizzati dall’intelligenza artificiale, e alcune grandi aziende tecnologiche hanno già adottato misure per implementarle.
OpenAI ha promesso di includere i metadati della Coalition for Content Provenance and Authenticity (C2PA), uno standard tecnico aperto utilizzato anche dai produttori di fotocamere, nelle immagini prodotte da DALL·E 3.
Meta sta anche lavorando per etichettare le immagini generate dall'intelligenza artificiale utilizzando lo standard C2PA.
Le fotocamere digitali possono anche essere programmate per includere questo codice nei metadati di ogni immagine, rendendolo verificabile.
Ad esempio, un checksum dell'immagine può essere crittografato utilizzando una chiave privata di cui dispone solo il produttore della fotocamera, che può essere verificata da chiunque nel pubblico (o tramite siti di terze parti come Content Credentials Verify, che secondo quanto riferito TikTok intende utilizzare) .
Ogni produttore di fotocamere digitali dovrebbe sottoporre il proprio codice a un audit per verificare che non esegua alcuna alterazione considerata inaccettabile.
Ogni persona che esegue una modifica post-elaborazione dovrebbe aggiungere ulteriori metadati all'immagine che mostrino le modifiche esatte. L'immagine originale dovrebbe essere inclusa nel file.
Qualsiasi immagine che non rispetti questi standard può essere considerata falsa. Ciò include immagini stampate su carta e screenshot.
Col tempo, la società imparerà che la maggior parte delle immagini sono come dipinti: a volte raffigurano eventi reali, ma la maggior parte delle volte non lo fanno, a meno che non ci siano ulteriori prove che ne confermino l'autenticità.
Mettere in discussione ciò in cui crediamo
Non sarebbe facile, ma la tecnologia si muove così velocemente che sono necessari ulteriori passaggi per dimostrare l’autenticità. Coloro che sono interessati a scoprire la verità, come giornalisti e giudici, dovrebbero mostrare particolare cautela nell’esaminare le prove.
Un secolo fa, la testimonianza oculare regnava sovrana nei tribunali. Allora, innovazioni come registrazioni audio, impronte digitali e prove fotografiche promettevano credibilità, sebbene le analisi delle impronte digitali richiedessero ancora la convalida di una catena di custodia.
La National Academy of Sciences ha ora messo in discussione tali standard: le impronte digitali e la balistica affrontano rinnovati dubbi sull’accuratezza.
Con l’avanzare dell’intelligenza artificiale, anche foto e video stanno perdendo la loro affidabilità. Il percorso da seguire richiede la collaborazione tra innovatori tecnologici, cercatori di verità e pubblico.
Sono essenziali l’implementazione di strutture di autenticazione standardizzate, l’enfasi sulla trasparenza e il ripensamento dei presupposti di autenticità delle immagini.
Con vigilanza e responsabilità collettiva, possiamo lavorare per preservare la fiducia nel fatto che vedere è credere.
Nota del redattore: questo articolo è stato scritto da Alex Fink, CEO e fondatore di Otherweb. Alex è un dirigente tecnologico nonché fondatore e amministratore delegato di Otherweb, una società di pubblica utilità che utilizza l'intelligenza artificiale per aiutare le persone a leggere notizie e commenti, ascoltare podcast ed eseguire ricerche sul Web senza paywall, clickbait, pubblicità o qualsiasi altra "spazzatura" contenuto. Otherweb è disponibile come app iOS o Android, sito Web, newsletter o estensione del browser autonoma. Prima di Otherweb, Alex è stato fondatore e CEO di Panopteo e co-fondatore e presidente di Swarmer.
Cosa ne pensi di questa tecnologia? Mandaci una riga qui sotto nei commenti o porta la discussione sul nostro Twitter o Facebook.
Raccomandazioni degli editori:
- I deepfake IA fanno il loro debutto politico con il robotcall di Biden
- L'algoritmo di ricerca di Google vede il porno deepfake come contenuto utile
- Cos'è il porno deepfake?
- Bruce Willis ha venduto i suoi diritti d'immagine a un'azienda deepfake?