Görmek şüphe etmektir: Yapay zeka çağında güveni yeniden tesis etmek

Yayınlanan: 2024-06-16

Eski mantra şöyle diyor : Gördüğümde inanırım ve günümüz teknolojisi herkesin çok farklı bir soru sormasına neden oluyor. Gördüğüme inanabilir miyim?

Değiştirilmiş görsellerin ve derin sahtekarlıkların üstesinden gelmek her zamankinden daha kolay. Bazı durumlarda riskler düşüktür. Papa Francis kabarık paltoyla mı? Bu sadece zararsız bir yapay zeka hilesi.

Kate Middleton'un açıkça manipüle edilmiş fotoğrafı bir söylenti dalgasına ve sürekli yanlış bilgilendirmeye yol açtı, ancak zarar nispeten minimum düzeydeydi ve Britanya kraliyet ailesi dışında çok az kişiyi etkiledi.

WIRED'e göre, seçmenlerin siyasi adaylardan zorla beslenen derin sahtekarlıklarla beslendiği Hindistan'da riskler önemli ölçüde daha yüksekti; bunların 50 milyondan fazlası son seçimlere öncülük ediyordu.

Bu yıl dünya nüfusunun neredeyse yarısı seçimlerde oy kullanmak için sandık başına gidecek ve görsel medya karar alma süreçlerinde çok büyük bir rol oynayacak.

Gerçek görselleri sahte olanlardan ayırmanın zorluğu büyük önem taşıyor.

Üzerinde oynanmış veya sahte kampanya fotoğrafları, konuşmalar, röportajlar ve siyasi reklamlar, halkın hakikate dair algısını aşındırarak demokratik sürecin kendisini baltalama tehdidinde bulunuyor.

Halk, siyasi liderliği seçerken gerçek bilgilere erişime güvenir.

Ancak mükemmel bir fırtına yaklaşıyor: Teknolojideki hızlı ilerleme, viral yanlış bilgi yayılımı ve kurumlara yönelik artan güvensizlikle birleşiyor. Bu, bilinçli sivil katılımı tehlikeye atan tehlikeli bir karışımdır.

Halkın yapay zeka tarafından manipüle edilmiş görüntülere ilişkin farkındalığı artmaya devam ettikçe, gerçeği kurgudan ayırmanın giderek zorlaştığı yönündeki endişeleri de artıyor. İkisini ayırmak çok az kişinin sahip olduğu bir teknik yeterlilik gerektirir.

Piksel derinliğinde görünüm

Gece şehir manzarasını yakalayan kameranın yakın çekimi.
Resim: Pexels

15 yıl boyunca dijital kameralar üzerinde çalıştım; donanım yazılımlarını geliştirmekten, onları görüntülemek için kullanılacak yazılımı tasarlamaya kadar. “Değiştirilmemiş” görüntü diye bir şey yoktur.

İster kameradaki bir sensör, ister son işleme yazılımı veya bir yapay zeka motoru olsun, bir yerlerde bir şeyler görüntüyü değiştiriyor.

İnsanlar izlerini gizleme konusunda kötüdür; görüntüleri manuel olarak yeniden işlerken her zaman arkalarında kanıt bırakırlar.

Bir dergi kapağını yeterince yakınlaştırdığınızda görselin nerede ve nasıl "geliştirildiğini" anlamak kolaydır. Yapay zeka motorları, düzenlemelerinin tespit edilebilmesine yetecek kadar henüz gelişme aşamasında ancak bu durum uzun sürmeyecek.

İşlem sonrası değişiklikler ve kamera üzerindeki görüntü işleme çok benzer görüneceği için "gerçek" ve "sahte" görüntülerin ayırt edilemeyeceği noktaya çok yaklaştık.

Bir uzman ne kadar yakınlaştırırsa yakınlaştırsın, bir görüntünün kameradan çıktıktan sonra değiştirildiğine dair herhangi bir işaret bulamayacaktır.

Bu noktada, gerçek ve sahte görüntüler arasındaki farkı anlamanın tek yolu, görüntüyü tüm gözetim zinciri boyunca, onu yakalayan kameraya kadar takip etmek olacaktır. Görüntünün kendisini analiz etmek artık yardımcı olmayacaktır.

Orijinalliğin doğrulanması

Manzara fotoğrafını bilgisayar ekranında düzenleme.
Resim: Pixabay

Teknik çözümler, deepfake'lerin ve yapay zeka tarafından sentezlenen medyanın yayılmasının yönetilmesine yardımcı olabilir ve birkaç büyük teknoloji şirketi, bunları uygulamaya yönelik adımları zaten attı.

OpenAI, DALL·E 3 tarafından üretilen görüntülere kamera üreticileri tarafından da kullanılan açık bir teknik standart olan Coalition for Content Provenance and Authenticity (C2PA) meta verilerini dahil etme sözü verdi.

Meta ayrıca yapay zeka tarafından oluşturulan görüntüleri C2PA standardını kullanarak etiketlemek için de çalışıyor.

Dijital kameralar ayrıca bu kodu her görüntünün meta verilerine dahil edecek şekilde programlanabilir ve bu da onu doğrulanabilir hale getirir.

Örneğin, görüntünün bir sağlama toplamı, yalnızca kamera üreticisinin sahip olduğu ve kamuya açık herhangi bir kişi tarafından (veya TikTok'un kullanmayı planladığı Content Credentials Verify gibi üçüncü taraf siteler aracılığıyla) doğrulanabilen özel bir anahtar kullanılarak şifrelenebilir. .

Her dijital kamera üreticisinin, kabul edilemez sayılabilecek herhangi bir değişiklik yapmadığını doğrulamak için kodunu bir denetime göndermesi gerekir.

İşlem sonrası düzenleme yapan her kişinin, tam değişiklikleri gösteren resme ek meta veriler eklemesi gerekir. Orijinal görüntünün dosyaya dahil edilmesi gerekir.

Bu standartlara uymayan herhangi bir görselin sahte olduğu varsayılabilir. Buna kağıda basılmış görseller ve ekran görüntüleri de dahildir.

Zamanla toplum, çoğu görselin tablolara benzediğini öğrenecek; bazen gerçek olayları tasvir ediyorlar, ancak çoğu zaman orijinalliklerini doğrulayacak ek kanıtlar olmadığı sürece bunu yapmıyorlar.

Neye inandığımızı sorgulamak

Papa deepfake'i beyaz şişme ceket ve beyaz takke giyiyor.
Resim: Yapay zeka oluşturuldu

Kolay olmayacak ama teknoloji o kadar hızlı ilerliyor ki orijinalliği kanıtlamak için ekstra adımlara ihtiyaç duyuluyor. Gazeteciler ve hakimler gibi gerçeği bulmakla ilgilenenlerin delilleri incelerken daha dikkatli olmaları gerekir.

Bir asır önce, görgü tanıklarının ifadeleri mahkemelerde en üst düzeyde hüküm sürüyordu. Daha sonra, ses kayıtları, parmak izleri ve fotoğrafik kanıtlar gibi yenilikler güvenilirlik vaat ediyordu, ancak parmak izi analizleri hâlâ bir gözetim zincirinin doğrulanmasını gerektiriyordu.

Ulusal Bilimler Akademisi artık bu standartlara meydan okuyor; parmak izleri ve balistik, doğruluk konusunda yenilenen şüphelerle karşı karşıya.

Yapay zeka geliştikçe fotoğraflar ve videolar da güvenilirliklerini kaybediyor. İleriye giden yol, teknoloji yenilikçileri, hakikati arayanlar ve halk arasında işbirliğini gerektirir.

Standartlaştırılmış kimlik doğrulama çerçevelerinin uygulanması, şeffaflığın vurgulanması ve görüntü orijinalliği varsayımlarının yeniden düşünülmesi çok önemlidir.

Dikkat ve kolektif sorumlulukla, görmenin inanmak olduğu güvenini korumak için çalışabiliriz.

Siyah gömlekli adam ileriye bakıyor.

Editörün Notu: Bu makale Otherweb CEO'su ve Kurucusu Alex Fink tarafından yazılmıştır. Alex, Teknoloji Yöneticisi ve insanların haberleri ve yorumları okumasına, podcast'leri dinlemesine ve ödeme duvarları, tıklama tuzağı, reklamlar veya başka herhangi bir "çöp" olmadan web'de arama yapmasına yardımcı olmak için yapay zekayı kullanan bir Kamu Yararı Şirketi olan Otherweb'in Kurucusu ve CEO'sudur. içerik. Otherweb, iOS veya Android uygulaması, web sitesi, haber bülteni veya bağımsız bir tarayıcı uzantısı olarak mevcuttur. Alex, Otherweb'den önce Panopteo'nun Kurucusu ve CEO'su, Swarmer'ın Kurucu Ortağı ve Başkanıydı.

Bu teknoloji hakkındaki düşünceleriniz neler? Yorumlara bize bir satır bırakın veya tartışmayı Twitter veya Facebook'umuza taşıyın.

Editörlerin Önerileri:

  • AI deepfake'leri Biden'ın otomatik çağrısıyla siyasi çıkışını yapıyor
  • Google'ın arama algoritması deepfake pornoyu faydalı içerik olarak görüyor
  • Deepfake porno nedir?
  • Bruce Willis imaj haklarını deepfake bir şirkete mi sattı?

Bizi Flipboard, Google Haberler veya Apple News'te takip edin