A vedea înseamnă a se îndoi: restabilirea încrederii în era AI

Publicat: 2024-06-16

Vechea mantră spune că o voi crede când o voi vedea , iar tehnologia de astăzi îi pune pe toți să pună o întrebare foarte diferită. Pot să cred ce văd?

Imaginile modificate și deepfake-urile sunt mai ușor de realizat decât oricând. În unele cazuri, miza este mică. Papa Francisc într-o haină umflată? Sunt doar niște trucuri inofensive ale AI.

Fotografia manipulată în mod evident a lui Kate Middleton a dus la un val de zvonuri și a perpetuat dezinformarea, dar răul a fost relativ minim, afectând puțini dincolo de familia regală a Marii Britanii.

Mizele au fost substanțial mai mari în India, unde alegătorii au fost hrăniți forțat de deepfakes sancționați de la candidații politici – peste 50 de milioane dintre ei înainte de alegerile recente, potrivit WIRED .

Anul acesta, aproape jumătate din populația globală va merge la urne pentru a vota în alegeri, iar media vizuală va juca un rol nemaipomenit în luarea deciziilor.

Provocarea de a distinge imaginile autentice de cele false are o importanță deosebită.

Fotografiile de campanie falsificate sau falsificate, discursurile, interviurile și reclamele politice amenință să submineze procesul democratic însuși prin erodarea discernământului public al adevărului.

Publicul depinde de accesul la informații faptice atunci când alege conducerea politică.

Cu toate acestea, se pregătește o furtună perfectă - un avans rapid al tehnologiei combinat cu răspândirea virală a dezinformarii și creșterea neîncrederii în instituții. Este un amestec periculos care pune în pericol participarea civică informată.

Pe măsură ce gradul de conștientizare al publicului larg față de imaginile manipulate prin inteligență artificială continuă să crească, la fel și preocupările lor că este din ce în ce mai greu să discerne faptele de ficțiune. Separarea celor două necesită o competență tehnică cu care puțini sunt înarmați.

O vedere la adâncimea de pixeli

Prim-plan al camerei care surprinde scena orașului noaptea.
Imagine: Pexels

Timp de 15 ani, am lucrat la camere digitale — de la dezvoltarea firmware-ului lor până la proiectarea software-ului care va fi folosit pentru a le vizualiza. Nu există o imagine „nealterată”.

Fie că este vorba despre un senzor din cameră, software de post-procesare sau un motor AI, ceva schimbă imaginea undeva.

Oamenii sunt prost să-și acopere urmele – ei lasă întotdeauna dovezi în urmă atunci când postprocesează manual imaginile.

Măriți suficient de aproape coperta unei reviste și este ușor să spuneți unde și cum a fost „îmbunătățită” o imagine. Motoarele AI sunt încă suficient de incipiente încât editările lor să fie detectabile, dar acesta nu va fi cazul pentru mult timp.

Suntem foarte aproape de punctul în care imaginile „reale” și „false” vor fi imposibil de distins, deoarece modificările post-procesare și procesarea imaginii de pe cameră vor arăta prea asemănătoare.

Indiferent cât de mult apropie un expert, nu va putea găsi niciun semn că o imagine a fost modificată după ce a părăsit camera.

În acel moment, singura modalitate de a face diferența dintre imaginile reale și cele false va fi urmărirea imaginii prin întregul său lanț de custodie, înapoi la camera care a capturat-o. Analiza imaginii în sine nu va mai ajuta.

Verificarea autenticității

Editarea fotografiei peisaj pe ecranul computerului.
Imagine: Pixabay

Soluțiile tehnice ar putea ajuta la gestionarea proliferării deepfake-urilor și a media sintetizate prin inteligență artificială, iar câteva mari companii tehnologice au făcut deja pași pentru implementarea acestora.

OpenAI a promis că va include metadatele Coalition for Content Provenance and Authenticity (C2PA), un standard tehnic deschis folosit și de producătorii de camere, în imaginile produse de DALL·E 3.

Meta lucrează, de asemenea, la etichetarea imaginilor generate de AI folosind standardul C2PA.

Camerele digitale pot fi, de asemenea, programate pentru a include acest cod în metadatele fiecărei imagini, făcându-l verificabil.

De exemplu, o sumă de verificare a imaginii poate fi criptată folosind o cheie privată pe care o deține numai producătorul camerei, care poate fi verificată de oricine în public (sau prin site-uri terțe, cum ar fi Content Credentials Verify, pe care TikTok intenționează să o folosească) .

Fiecare producător de camere digitale ar trebui să-și prezinte codul unui audit pentru a verifica dacă nu efectuează modificări care ar fi considerate inacceptabile.

Fiecare persoană care efectuează o editare ulterioară procesării ar trebui să adauge metadate suplimentare imaginii care arată modificările exacte. Imaginea originală ar trebui inclusă în fișier.

Orice imagine care nu respectă aceste standarde poate fi considerată falsă. Aceasta include imagini tipărite pe hârtie și capturi de ecran.

De-a lungul timpului, societatea va învăța că majoritatea imaginilor sunt ca picturile - uneori, ele descriu evenimente reale, dar de cele mai multe ori nu o fac decât dacă există dovezi suplimentare care să le confirme autenticitatea.

A pune la îndoială ceea ce credem

Pope deepfakes purtând o jachetă puf albă și șapcă albă.
Imagine: AI generat

Nu ar fi ușor, dar tehnologia se mișcă atât de repede încât sunt necesari pași suplimentari pentru a dovedi autenticitatea. Cei interesați să afle adevărul, precum jurnaliștii și judecătorii, ar trebui să dea dovadă de precauție suplimentară atunci când examinează probele.

Cu un secol în urmă, mărturia martorilor oculari domnea supremă în instanțe. Apoi, inovații precum înregistrările audio, amprentele digitale și dovezile fotografice promiteau credibilitate, deși analizele de amprentă necesită încă validarea unui lanț de custodie.

Academia Națională de Științe a contestat acum aceste standarde – amprentele digitale și balistica se confruntă cu îndoieli reînnoite cu privire la acuratețe.

Pe măsură ce AI avansează, fotografiile și videoclipurile își pierd și ele fiabilitatea. Calea de urmat necesită colaborare între inovatorii tehnologici, cei care caută adevărul și public.

Implementarea cadrelor de autentificare standardizate, accentuarea transparenței și regândirea ipotezelor de autenticitate a imaginii sunt toate esențiale.

Cu vigilență și responsabilitate colectivă, putem lucra pentru a păstra încrederea că a vedea înseamnă a crede.

Bărbat într-o cămașă neagră așteaptă cu nerăbdare.

Nota editorului: Acest articol a fost scris de Alex Fink, CEO și fondator al Otherweb. Alex este director tehnic și fondator și CEO al Otherweb, o corporație de beneficii publice care folosește inteligența artificială pentru a-i ajuta pe oameni să citească știri și comentarii, să asculte podcasturi și să caute pe web fără pereți de plată, clickbait, reclame sau orice alt „junk” conţinut. Otherweb este disponibil ca o aplicație iOS sau Android, un site web, un buletin informativ sau o extensie de browser independentă. Înainte de Otherweb, Alex a fost fondator și CEO al Panopteo și co-fondator și președinte al Swarmer.

Ce părere aveți despre această tehnologie? Trimiteți-ne un rând mai jos în comentarii sau transmiteți discuția pe Twitter sau Facebook.

Recomandările editorilor:

  • Deepfake-urile AI își fac debutul politic cu robocall Biden
  • Algoritmul de căutare Google consideră porno-ul deepfake drept conținut util
  • Ce este deepfake porno?
  • Bruce Willis și-a vândut drepturile de imagine unei companii deepfake?

Urmărește-ne pe Flipboard, Google News sau Apple News