Melihat adalah keraguan: Memulihkan kepercayaan di era AI

Diterbitkan: 2024-06-16

Mantra lama berbunyi, Saya akan percaya ketika saya melihatnya , dan teknologi saat ini membuat setiap orang mengajukan pertanyaan yang sangat berbeda. Dapatkah saya mempercayai apa yang saya lihat?

Gambar yang diubah dan deepfake lebih mudah dilakukan dibandingkan sebelumnya. Dalam beberapa kasus, taruhannya rendah. Paus Fransiskus dengan mantel bengkak? Itu hanya tipuan AI yang tidak berbahaya.

Foto Kate Middleton yang jelas-jelas dimanipulasi menimbulkan gelombang rumor dan misinformasi yang terus berlanjut, namun dampak buruknya relatif kecil, hanya berdampak pada sedikit orang di luar keluarga kerajaan Inggris.

Taruhannya jauh lebih tinggi di India, di mana para pemilih dicekok paksa dan diberi sanksi deepfake dari kandidat politik – lebih dari 50 juta di antaranya menjelang pemilu baru-baru ini, menurut WIRED .

Tahun ini, hampir separuh populasi dunia akan datang ke tempat pemungutan suara untuk memberikan suaranya dalam pemilu, dan media visual akan memainkan peran yang sangat besar dalam pengambilan keputusan.

Tantangan untuk membedakan gambar asli dari gambar palsu sangatlah penting.

Foto kampanye, pidato, wawancara, dan iklan politik yang direkayasa atau dipalsukan mengancam akan melemahkan proses demokrasi itu sendiri dengan mengikis pemahaman publik terhadap kebenaran.

Masyarakat bergantung pada akses terhadap informasi faktual ketika memilih kepemimpinan politik.

Namun, badai besar sedang terjadi – kemajuan teknologi yang pesat dikombinasikan dengan penyebaran informasi yang salah dan meningkatnya ketidakpercayaan terhadap institusi. Ini adalah kombinasi berbahaya yang membahayakan partisipasi masyarakat yang terinformasi.

Seiring dengan meningkatnya kesadaran masyarakat umum terhadap gambar yang dimanipulasi oleh AI, kekhawatiran mereka akan semakin sulitnya membedakan fakta dan fiksi. Memisahkan keduanya memerlukan kompetensi teknis yang hanya dimiliki sedikit orang.

Tampilan sedalam piksel

Close-up kamera menangkap pemandangan kota di malam hari.
Gambar: Pexels

Selama 15 tahun, saya mengerjakan kamera digital — mulai dari mengembangkan firmware hingga merancang perangkat lunak yang akan digunakan untuk melihatnya. Tidak ada gambaran yang “tidak berubah”.

Baik itu sensor di kamera, perangkat lunak pasca-pemrosesan, atau mesin AI, ada sesuatu yang mengubah gambar.

Manusia buruk dalam menutupi jejaknya — mereka selalu meninggalkan bukti saat melakukan pasca-pemrosesan gambar secara manual.

Memperbesar sampul majalah cukup dekat, dan mudah untuk mengetahui di mana dan bagaimana suatu gambar telah “diperbaiki.” Mesin AI masih cukup baru sehingga hasil editnya dapat dideteksi, tetapi hal itu tidak akan bertahan lama.

Kita sudah hampir mencapai titik di mana gambar “asli” dan “palsu” tidak dapat dibedakan karena perubahan pasca-pemrosesan dan pemrosesan gambar pada kamera akan terlihat terlalu mirip.

Tidak peduli seberapa jauh seorang ahli memperbesar, mereka tidak akan dapat menemukan tanda-tanda apa pun bahwa suatu gambar telah diubah setelah meninggalkan kamera.

Pada saat itu, satu-satunya cara untuk membedakan antara gambar asli dan palsu adalah dengan menelusuri gambar tersebut melalui rantai pengawasan penuh, kembali ke kamera yang menangkapnya. Menganalisis gambar itu sendiri tidak akan membantu lagi.

Memverifikasi keaslian

Mengedit foto lanskap di layar komputer.
Gambar: Pixabay

Solusi teknis dapat membantu mengelola penyebaran deepfake dan media yang disintesis oleh AI, dan beberapa perusahaan teknologi besar telah mengambil langkah untuk menerapkannya.

OpenAI telah berjanji untuk menyertakan metadata Koalisi untuk Asal dan Keaslian Konten (C2PA), sebuah standar teknis terbuka yang juga digunakan oleh produsen kamera, dalam gambar yang dihasilkan oleh DALL·E 3.

Meta juga berupaya memberi label pada gambar yang dihasilkan AI menggunakan standar C2PA.

Kamera digital juga dapat diprogram untuk memasukkan kode ini ke dalam setiap metadata gambar, sehingga dapat diverifikasi.

Misalnya, checksum gambar dapat dienkripsi menggunakan kunci pribadi yang hanya dimiliki oleh produsen kamera, yang dapat diverifikasi oleh siapa pun di depan umum (atau melalui situs pihak ketiga seperti Verifikasi Kredensial Konten, yang kabarnya ingin digunakan oleh TikTok) .

Setiap produsen kamera digital perlu menyerahkan kodenya ke audit untuk memverifikasi bahwa mereka tidak melakukan perubahan apa pun yang dianggap tidak dapat diterima.

Setiap orang yang melakukan pengeditan pasca-pemrosesan perlu menambahkan metadata tambahan ke gambar yang menunjukkan perubahan yang tepat. Gambar asli perlu disertakan dalam file.

Gambar apa pun yang tidak memenuhi standar ini dapat dianggap palsu. Ini termasuk gambar yang dicetak di atas kertas dan tangkapan layar.

Seiring berjalannya waktu, masyarakat akan menyadari bahwa sebagian besar gambar itu seperti lukisan — terkadang, gambar tersebut menggambarkan peristiwa nyata, namun sering kali, hal tersebut tidak terjadi kecuali ada bukti tambahan yang menguatkan keasliannya.

Mempertanyakan apa yang kita yakini

Paus deepfake mengenakan jaket puffer putih dan kopiah putih.
Gambar: AI dihasilkan

Ini tidak akan mudah, namun teknologi berkembang begitu cepat sehingga diperlukan langkah ekstra untuk membuktikan keasliannya. Mereka yang tertarik untuk menemukan kebenaran, seperti jurnalis dan hakim, perlu ekstra hati-hati saat memeriksa bukti.

Satu abad yang lalu, kesaksian saksi mata menjadi yang utama di pengadilan. Kemudian, inovasi seperti rekaman audio, sidik jari, dan bukti foto menjanjikan kredibilitas, meskipun analisis sidik jari masih memerlukan validasi lacak balak.

National Academy of Sciences kini menantang standar tersebut – sidik jari dan balistik menghadapi keraguan baru mengenai keakuratannya.

Seiring kemajuan AI, foto dan video juga kehilangan keandalannya. Jalan ke depan memerlukan kolaborasi antara inovator teknologi, pencari kebenaran, dan masyarakat.

Menerapkan kerangka autentikasi terstandar, menekankan transparansi, dan memikirkan kembali asumsi keaslian gambar adalah hal yang penting.

Dengan kewaspadaan dan akuntabilitas kolektif, kita dapat berupaya menjaga keyakinan bahwa melihat berarti mempercayai.

Pria berkemeja hitam melihat ke depan.

Catatan Editor: Artikel ini ditulis oleh Alex Fink, CEO dan Pendiri Otherweb. Alex adalah Eksekutif Teknologi serta Pendiri dan CEO Otherweb, sebuah Perusahaan Kepentingan Publik yang menggunakan AI untuk membantu orang membaca berita dan komentar, mendengarkan podcast, dan menelusuri web tanpa paywall, clickbait, iklan, atau 'sampah' lainnya. isi. Otherweb tersedia sebagai aplikasi iOS atau Android, situs web, buletin, atau ekstensi browser mandiri. Sebelum Otherweb, Alex adalah Pendiri dan CEO Panopteo serta Salah Satu Pendiri dan Ketua Swarmer.

Apa pendapat Anda tentang teknologi ini? Kirimi kami baris di bawah di komentar, atau bawa diskusi ke Twitter atau Facebook kami.

Rekomendasi Editor:

  • Deepfake AI memulai debut politiknya dengan robocall Biden
  • Algoritme pencarian Google melihat pornografi deepfake sebagai konten yang bermanfaat
  • Apa itu pornografi deepfake?
  • Apakah Bruce Willis menjual hak citranya ke perusahaan deepfake?

Ikuti kami di Flipboard, Google Berita, atau Apple News