ChatGPT, Seçim Hakkında Sorulduğunda Kullanıcıları Oylama Sayfasına Gönderecek

Yayınlanan: 2024-01-16

OpenAI, ChatGPT'nin ABD ve İngiltere de dahil olmak üzere bu yıl dünya genelinde yapılacak seçimlerde yıkıcı bir etkiye dönüşmemesini sağlamaya yönelik planlarını açıkladı.

Şirketin ABD'li kullanıcılara meşru oy verme bilgilerinin sunulmasını sağlamak için attığı adımlardan biri, onları CanIVote.Org adlı "yetkili" bir oylama sitesine yönlendirmektir. Erken ve devamsız oylama.

Girişim ayrıca , işletmeler tarafından kullanılan en popüler yapay zeka araçları olmaya devam eden platformlarındaki siyasi içerik ve kötüye kullanımın önlenmesiyle ilgili bir dizi başka önemli açıklama ve değişikliği de duyurdu.

ChatGPT, Kullanıcıları Oylama Bilgilerini İçeren Sayfaya Yönlendirecek

OpenAI bu hafta bir blog yazısında şunları söyledi: "Amerika Birleşik Devletleri'nde, kamu görevlilerine yönelik ülkenin partizan olmayan en eski profesyonel örgütü olan Ulusal Dışişleri Bakanları Birliği (NASS) ile çalışıyoruz."

ChatGPT, 2024 ABD seçimlerine yaklaşımının bir parçası olarak, oylamayla ilgili belirli sorular sorulduğunda kullanıcıları doğrudan CanIVote.org'a gönderecek.

CanIVote.org, tüm uygun ABD seçmenlerinin seçmen kayıt durumlarını, en yakın oy kullanma merkezlerinin yerini ve oy vermek için geçerli kimlik bilgilerinin ne olduğunu öğrenebilecekleri bir web sayfasıdır.

Ayrıca sitede, eyalet bazlı seçim yetkililerine bağlantılar aracılığıyla devamsızlık ve erken oylamaya ilişkin bilgiler de mevcut.

Surfshark logosu Web'e özel olarak göz atmak ister misiniz? Yoksa başka bir ülkedeymişsiniz gibi mi görünüyorsunuz?
Bu özel tech.co teklifiyle Surfshark'ta %86'lık devasa bir indirim kazanın. Anlaşma düğmesine bakın

OpenAI, eğer bu tür bir eylem ABD'de başarılı olursa, seçim döngüleri sırasında bu yaklaşımı diğer bölgelerde de tekrarlayacaklarını söylüyor.

ChatGPT'nin Seçim Yılı Sırasında Attığı Diğer Adımlar

Seçmenleri meşru oylama bilgileri kaynaklarına yönlendirmenin yanı sıra, OpenAI'nin ChatGPT'nin seçim yılı boyunca kötüye kullanılmamasını sağlamak için atacağını söylediği birkaç adım daha var.

Örneğin, bir siyasi figürü veya kurumu taklit eden bir GPT (özel bir sohbet robotu) oluşturup sonra onlar adına konuşuyormuş gibi yapamazsınız. İnsanları katılımdan caydırmaya çalışan “uygulamalar” da menüden çıkarılıyor.

Open AI, "Yanıltıcı " derin sahtekarlıklar ", ölçekli etki operasyonları veya adayların kimliğine bürünen sohbet robotları gibi ilgili suiistimalleri önceden tahmin etmek ve önlemek için çalışıyoruz" diyor.

Şirket şunu ekliyor: "Yeni sistemleri piyasaya sürmeden önce, onları yeniden bir araya getiriyoruz, geri bildirim için kullanıcılarla ve harici ortaklarla iletişime geçiyoruz ve zarar potansiyelini azaltmak için güvenlik önlemleri oluşturuyoruz" diye ekliyor.

Görüntü oluşturma açısından, bu yılın başlarında ChatGPT, DALL-E kullanılarak oluşturulan tüm görüntülere bir kriptografik işaretleyici eklenmesini içeren İçerik Kanıtlanması ve Orijinallik Koalisyonu'nun dijital kimlik bilgilerini uyguluyor.

OpenAI ayrıca şirketin denemekte olduğu yeni bir kaynak sınıflandırıcısından bazı "umut verici" sonuçlar gördüğünü de söylüyor. Teknoloji, bir görüntünün bir şekilde değiştirilmiş olsa bile DALL-E ile oluşturulup oluşturulmadığını tespit etmek için tasarlanmıştır.

ChatGPT Seçimlere İyi mi Kötü mü Etkileyecek?

ChatGPT, Amerika Birleşik Devletleri'ndeki işletmeler tarafından yaygın olarak kullanılıyor ve seçim yaklaştıkça chatbot'un siyasi ve hukuki sorulara ikna edici bir şekilde yanıt vermesi bekleniyor.

Her ne kadar ChatGPT'nin - ve diğer yapay zeka araçlarının - dezenformasyonu yaymak için kullanılma ihtimali uzun uzadıya konuşulsa da, ChatGPT'nin özellikle seçimler üzerinde özellikle olumsuz bir etkisi olup olmayacağı net olmaktan uzak.

Tabii ki, ChatGPT'nin istemeden yanlış siyasi bilgi sağlama riski var; ancak OpenAI yaklaşımıyla bu olasılığı doğrudan ele alıyor gibi görünüyor.

Gerçekten de, seçmenleri meşru oy verme bilgilerinin bulunduğu bir siteye yönlendirme planları ve ChatGPT'nin demokratik süreçleri yanlış sunmamasını sağlama planları, en azından görünüşte, OpenAI'nin kendi üzerinde kullandığımız diğer kanalların çoğundan daha sıkı düzenlemeler uyguladığını gösteriyor. Dezenformasyonun sıklıkla iltihaplandığı bilgi kaynağına ulaşmak.

Dezenformasyon ve diğer ikna edici siyasi içerikler halihazırda sosyal medya sitelerinde, arama motorlarında ve hatta bazı geleneksel medya kanallarında hızla akıyor .

Dahası, OpenAI, sosyal medya siteleri gibi insan tarafından üretilen sonsuz bir içerik akışı üreten milyonlarca kullanıcıyı yönetmiyor ve buna eşdeğer İlk Değişiklik hususları da yok. ChatGPT'nin çıktısı aynı şekilde "kontrolsüz" değildir ve korunmamaktadır.

Teorik olarak OpenAI, eğer gerçekten isterse "siyasetsizlik" kuralını bile uygulayabilir. Bu tür geniş fırça ilkesi, figürleri veya kurumları taklit etmek için yapılamayan GPT'lere zaten uygulanıyor.

Yapay zekanın ülke içindeki demokratik seçimlere yönelik oluşturduğu tehdidin (ki bu son derece gerçektir) 2024'te gerçekleşecek seçimlere yönelik "yaklaşımlarını" duyurmak için aynı düzeyde kamu baskısı altında olmayan üretken yapay zeka araçlarından gelme olasılığı daha yüksektir. veya kötü amaçlı bir yapay zeka aracı geliştiren ve bu nedenle herhangi bir koruma uygulamayan birinden gelebilir.

Elbette ulus devlet aktörleri halihazırda dezenformasyon yaymak için yapay zeka araçlarını kullanıyor ve eğer son birkaç yıldaki seçimlere müdahale devam ederse, yapay zekanın demokratik süreçleri bozmak için kullanıldığını görmemizin en olası yolu muhtemelen bu olacaktır.

Bunun bizi şaşırtmaya devam eden, hem yanılabilir hem de manipülasyona açık olduğunu kanıtlamaya devam eden bir yapay zeka sistemi olduğunu hatırlamak da önemlidir. OpenAI, ChatGPT'de herhangi bir değişiklik yaptığında, onu mantıksal sınırlarına kadar zorlamayı bekleyen bir insan ordusu var. Çok sayıda seçim, bunu yapmak için ek bir siyasi motivasyon yaratıyor.

Ne olursa olsun, ChatGPT ve diğer yapay zeka araçlarının seçmenler tarafından kullanılma şekli, yıl boyunca manşetlere hakim olacak bir hikaye olacak.