Widzieć znaczy wątpić: przywracanie zaufania w epoce sztucznej inteligencji

Opublikowany: 2024-06-16

Stara mantra głosi: „Uwierzę, kiedy to zobaczę” , a dzisiejsza technologia sprawia, że ​​każdy zadaje zupełnie inne pytanie. Czy mogę uwierzyć w to, co widzę?

Zmienione obrazy i deepfakes są łatwiejsze niż kiedykolwiek wcześniej. W niektórych przypadkach stawka jest niska. Papież Franciszek w bufiastym płaszczu? To tylko nieszkodliwy trik AI.

Wyraźnie zmanipulowane zdjęcie Kate Middleton wywołało falę plotek i utrwaliło dezinformację, ale szkody były stosunkowo minimalne i dotknęły nieliczne osoby poza brytyjską rodziną królewską.

Stawka była znacznie wyższa w Indiach, gdzie wyborcy byli na siłę karmieni usankcjonowanymi fałszywymi fałszywymi hasłami od kandydatów politycznych – według WIRED ponad 50 milionów z nich przed ostatnimi wyborami.

W tym roku prawie połowa światowej populacji uda się do urn, aby głosować w wyborach, a media wizualne będą odgrywać ogromną rolę w podejmowaniu decyzji.

Wyzwanie polegające na odróżnieniu obrazów autentycznych od fałszywych ma ogromne znaczenie.

Sfałszowane lub sfałszowane zdjęcia z kampanii, przemówienia, wywiady i reklamy polityczne grożą podważeniem samego procesu demokratycznego poprzez podważenie publicznego rozeznania prawdy.

Wybór przywództwa politycznego zależy od dostępu społeczeństwa do informacji opartych na faktach.

Nadchodzi jednak idealna burza — szybki postęp technologii w połączeniu z wirusowym rozprzestrzenianiem się dezinformacji i rosnącą nieufnością do instytucji. To niebezpieczna mieszanka, która zagraża świadomemu zaangażowaniu obywatelskiemu.

Wraz ze wzrostem świadomości ogółu społeczeństwa na temat obrazów manipulowanych przez sztuczną inteligencję rosną także obawy, że coraz trudniej jest odróżnić fakty od fikcji. Oddzielenie tych dwóch elementów wymaga kompetencji technicznych, w które niewielu jest uzbrojonych.

Widok z głębią pikseli

Zbliżenie kamery rejestrującej scenę miasta nocą.
Zdjęcie: Pexels

Przez 15 lat pracowałem nad aparatami cyfrowymi — od opracowania ich oprogramowania sprzętowego po zaprojektowanie oprogramowania, które będzie używane do ich przeglądania. Nie ma czegoś takiego jak „niezmieniony” obraz.

Niezależnie od tego, czy jest to czujnik w aparacie, oprogramowanie do przetwarzania końcowego, czy silnik AI, coś gdzieś zmienia obraz.

Ludzie słabo zacierają ślady — zawsze zostawiają ślady podczas ręcznego przetwarzania zdjęć.

Wystarczy odpowiednio przybliżyć okładkę magazynu, aby łatwo stwierdzić, gdzie i w jaki sposób obraz został „ulepszony”. Silniki AI są wciąż na tyle młode, że wprowadzane w nich zmiany są wykrywalne, ale nie będzie tak długo.

Jesteśmy bardzo blisko punktu, w którym „prawdziwy” i „fałszywy” obraz będzie nie do odróżnienia, ponieważ zmiany po obróbce i przetwarzanie obrazu w aparacie będą wyglądać zbyt podobnie.

Niezależnie od tego, jak daleko specjalista się przybliży, nie będzie w stanie znaleźć żadnych oznak zmiany obrazu po opuszczeniu aparatu.

W tym momencie jedynym sposobem na odróżnienie prawdziwych od fałszywych obrazów będzie prześledzenie obrazu przez cały łańcuch dostaw, aż do aparatu, który go uchwycił. Analiza samego obrazu już nie pomoże.

Weryfikacja autentyczności

Edycja zdjęcia krajobrazu na ekranie komputera.
Obraz: Pixabay

Rozwiązania techniczne mogą pomóc w zarządzaniu rozprzestrzenianiem się deepfakes i mediów syntetyzowanych przez sztuczną inteligencję, a kilka dużych firm technologicznych podjęło już kroki w celu ich wdrożenia.

OpenAI zobowiązało się do włączenia metadanych Coalition for Content Provenance and Authenticity (C2PA), otwartego standardu technicznego używanego również przez producentów aparatów, do obrazów tworzonych przez DALL·E 3.

Meta pracuje również nad etykietowaniem obrazów wygenerowanych przez sztuczną inteligencję przy użyciu standardu C2PA.

Aparaty cyfrowe można także zaprogramować tak, aby zawierały ten kod w metadanych każdego obrazu, co umożliwi jego weryfikację.

Na przykład sumę kontrolną obrazu można zaszyfrować przy użyciu klucza prywatnego, który posiada tylko producent aparatu, który może zweryfikować każda osoba publiczna (lub za pośrednictwem witryn stron trzecich, takich jak Content Credentials Verify, z których według TikTok zamierza korzystać) .

Każdy producent aparatu cyfrowego musiałby poddać swój kod audytowi, aby sprawdzić, czy nie wprowadza żadnych zmian, które zostałyby uznane za niedopuszczalne.

Każda osoba przeprowadzająca edycję po przetwarzaniu musiałaby dodać do obrazu dodatkowe metadane pokazujące dokładne zmiany. Oryginalny obraz powinien zostać dołączony do pliku.

Każdy obraz, który nie spełnia tych standardów, można uznać za fałszywy. Obejmuje to obrazy wydrukowane na papierze i zrzuty ekranu.

Z biegiem czasu społeczeństwo nauczy się, że większość obrazów jest jak obrazy — czasami przedstawiają prawdziwe wydarzenia, ale w większości przypadków tak nie jest, chyba że istnieją dodatkowe dowody potwierdzające ich autentyczność.

Kwestionowanie tego, w co wierzymy

Pope deepfakes ma na sobie białą puchową kurtkę i białą jarmułkę.
Obraz: wygenerowano sztuczną inteligencję

Nie byłoby to łatwe, ale technologia rozwija się tak szybko, że potrzebne są dodatkowe kroki, aby udowodnić autentyczność. Osoby zainteresowane dotarciem do prawdy, takie jak dziennikarze i sędziowie, powinny zachować szczególną ostrożność podczas badania dowodów.

Sto lat temu w sądach królowały zeznania naocznych świadków. Następnie innowacje, takie jak nagrania dźwiękowe, odciski palców i dowody fotograficzne, zapewniły wiarygodność, chociaż analizy odcisków palców nadal wymagały potwierdzenia łańcucha dostaw.

Narodowa Akademia Nauk zakwestionowała teraz te standardy – odciski palców i balistyka znów budzą wątpliwości co do dokładności.

Wraz z rozwojem sztucznej inteligencji zdjęcia i filmy również tracą na niezawodności. Droga naprzód wymaga współpracy między innowatorami technologicznymi, poszukiwaczami prawdy i społeczeństwem.

Niezbędne jest wdrożenie standardowych ram uwierzytelniania, położenie nacisku na przejrzystość i ponowne przemyślenie założeń dotyczących autentyczności obrazu.

Dzięki czujności i zbiorowej odpowiedzialności możemy pracować nad zachowaniem pewności, że zobaczenie oznacza wiarę.

Mężczyzna w czarnej koszuli nie może się doczekać.

Nota wydawcy: Ten artykuł został napisany przez Alexa Finka, dyrektora generalnego i założyciela Otherweb. Alex jest dyrektorem technicznym oraz założycielem i dyrektorem generalnym Otherweb, korporacji pożytku publicznego, która wykorzystuje sztuczną inteligencję do pomagania ludziom w czytaniu wiadomości i komentarzy, słuchaniu podcastów i przeszukiwaniu sieci bez płatnych zapór, przynęt na kliknięcia, reklam i innych „śmieci”. treść. Otherweb jest dostępny jako aplikacja na iOS lub Androida, witryna internetowa, biuletyn lub samodzielne rozszerzenie przeglądarki. Przed dołączeniem do Otherweb Alex był założycielem i dyrektorem generalnym Panopteo oraz współzałożycielem i prezesem Swarmer.

Jakie są Twoje przemyślenia na temat tej technologii? Napisz do nas poniżej w komentarzach lub przenieś dyskusję na nasz Twitter lub Facebook.

Zalecenia redaktorów:

  • Deepfakes AI debiutują politycznie dzięki Biden robocall
  • Algorytm wyszukiwania Google uznaje fałszywe porno za przydatne treści
  • Co to jest fałszywe porno?
  • Czy Bruce Willis sprzedał swoje prawa do wizerunku firmie deepfake?

Śledź nas na Flipboard, Google News lub Apple News