Yapay Zeka (AI) Tehlikeli mi?

Yayınlanan: 2023-05-31

22 Mayıs 2023 Pazartesi günü “Bloomberg Feed” adlı doğrulanmış bir Twitter hesabı, Pentagon'da patlama olduğunu iddia eden bir tweet'i görsel eşliğinde paylaştı. Bunun yapay zeka (AI) ile ne ilgisi olduğunu merak ediyorsanız, görüntü AI tarafından oluşturulmuştu, tweet hızla viral oldu ve borsada kısa bir düşüşe yol açtı. İşler çok daha kötü olabilirdi - yapay zekanın tehlikelerinin kesin bir hatırlatıcısı.

Yapay Zeka Tehlikeleri

Endişelenmemiz gereken sadece sahte haberler değil. Gizlilik ve güvenlikle ilgili olanlardan önyargı ve telif hakkı sorunlarına kadar AI ile ilişkili birçok acil veya potansiyel risk vardır. Bu yapay zeka tehlikelerinden bazılarını inceleyeceğiz, şimdi ve gelecekte bunları azaltmak için neler yapıldığını göreceğiz ve yapay zekanın risklerinin faydalarından ağır basıp basmadığını soracağız.

İçindekiler

    Sahte Haberler

    Deepfake'ler ilk ortaya çıktığında, bunların kötü niyetle kullanılabileceğine dair endişeler ortaya çıkmıştı. Aynı şey, DALL-E 2, Midjourney veya DreamStudio gibi yeni yapay zeka görüntü üreteçleri dalgası için de söylenebilir. 28 Mart 2023'te, Papa Francis'in beyaz bir Balenciaga şişme ceket giymiş, kaykay ve poker oynamak da dahil olmak üzere çeşitli maceralar yaşadığını gösteren yapay zeka tarafından oluşturulmuş sahte görüntüler viral oldu. Görüntüleri yakından incelemedikçe, bu görüntüleri gerçeklerinden ayırt etmek zordu.

    Papa örneği şüphesiz biraz eğlenceli olsa da, Pentagon ile ilgili görüntü (ve beraberindeki tweet) hiç de eğlenceli değildi. Yapay zeka tarafından oluşturulan sahte görüntüler, yanlış kişiler tarafından kullanılırsa itibara zarar verme, evlilikleri veya kariyerleri sona erdirme, siyasi huzursuzluk yaratma ve hatta savaşlar başlatma gücüne sahiptir - kısacası, yapay zeka tarafından oluşturulan bu görüntülerin kötüye kullanılması durumunda son derece tehlikeli olma potansiyeli vardır.

    Artık herkesin ücretsiz olarak kullanabileceği yapay zeka görüntü üreteçleri ve popüler yazılımına bir yapay zeka görüntü oluşturucu ekleyen Photoshop ile görüntüleri manipüle etme ve sahte haberler yaratma fırsatı her zamankinden daha fazla.

    Gizlilik, Güvenlik ve Hacking

    Bazı ülkeler OpenAI'nin ChatGPT'sini zaten yasaklamışken, yapay zekanın riskleri söz konusu olduğunda gizlilik ve güvenlik de büyük kaygılardır. İtalya, Avrupa Genel Veri Koruma Yönetmeliği'ne (GDPR) uymadığına inanarak gizlilik endişeleri nedeniyle modeli yasaklarken, Çin, Kuzey Kore ve Rusya hükümetleri yanlış bilgi yayacağı korkusuyla modeli yasakladı.

    Öyleyse yapay zeka söz konusu olduğunda neden mahremiyet konusunda bu kadar endişeliyiz? AI uygulamaları ve sistemleri, öğrenmek ve tahminlerde bulunmak için büyük miktarda veri toplar. Ancak bu veriler nasıl saklanıyor ve işleniyor? Gerçek bir veri ihlali, bilgisayar korsanlığı ve bilgilerin yanlış ellere geçme riski vardır.

    Risk altında olan sadece kişisel verilerimiz de değil. AI korsanlığı gerçek bir risktir - henüz gerçekleşmedi, ancak kötü niyetli kişiler AI sistemlerini hackleyebilirse, bunun ciddi sonuçları olabilir. Örneğin, bilgisayar korsanları sürücüsüz araçları kontrol edebilir, yüksek düzeyde güvenli konumlara girmek için yapay zeka güvenlik sistemlerini hackleyebilir ve hatta yapay zeka güvenliğine sahip silah sistemlerini hackleyebilir.

    ABD Savunma Bakanlığı Savunma İleri Araştırma Projeleri Ajansı'ndaki (DARPA) uzmanlar bu risklerin farkındalar ve DARPA'nın Aldatmaya Karşı Yapay Zeka Sağlamlığını Garanti Etme (GARD) projesi üzerinde çalışıyorlar ve sorunu sıfırdan ele alıyorlar. Projenin amacı, bilgisayar korsanlığına ve kurcalamaya karşı direncin algoritmalara ve yapay zekaya yerleştirilmesini sağlamaktır.

    Telif hakkı ihlali

    AI'nın tehlikelerinden bir diğeri de telif hakkı ihlalidir. Bu, bahsettiğimiz diğer bazı tehlikeler kadar ciddi gelmeyebilir, ancak GPT-4 gibi yapay zeka modellerinin geliştirilmesi, herkesi artan ihlal riskine sokar.

    ChatGPT'den sizin için bir şey oluşturmasını her istediğinizde - bu ister seyahatle ilgili bir blog gönderisi, ister işletmeniz için yeni bir isim olsun - ona, daha sonra gelecekteki sorguları yanıtlamak için kullandığı bilgileri veriyorsunuz. Size geri beslediği bilgiler başka birinin telif hakkını ihlal ediyor olabilir, bu nedenle bir intihal detektörü kullanmak ve AI tarafından oluşturulan herhangi bir içeriği yayınlamadan önce düzenlemek çok önemlidir.

    Toplumsal ve Veri Önyargısı

    AI insan değil, bu yüzden önyargılı olamaz, değil mi? Yanlış. Yapay zeka modellerini ve sohbet robotlarını eğitmek için insanlar ve veriler kullanılır; bu, önyargılı verilerin veya kişiliklerin önyargılı bir yapay zeka ile sonuçlanacağı anlamına gelir. AI'da iki tür önyargı vardır: toplumsal önyargı ve veri önyargısı.

    Gündelik toplumda birçok önyargı mevcutken, bu önyargılar yapay zekanın bir parçası olduğunda ne olur? Modeli eğitmekten sorumlu programcılar, daha sonra yapay zeka sistemlerine giren önyargılı beklentilere sahip olabilir.

    Veya bir yapay zekayı eğitmek ve geliştirmek için kullanılan veriler yanlış, önyargılı veya kötü niyetle toplanmış olabilir. Bu, toplumsal önyargı kadar tehlikeli olabilen veri yanlılığına yol açar. Örneğin, bir yüz tanıma sistemi ağırlıklı olarak beyaz insanların yüzleri kullanılarak eğitilirse, azınlık gruplarından gelenleri tanımakta zorlanarak baskıyı sürdürebilir.

    Robotlar İşimizi Elimizden Aldı

    ChatGPT ve Google Bard gibi sohbet robotlarının geliştirilmesi, yapay zekayı çevreleyen yepyeni bir endişeye yol açtı: Robotların işlerimizi elimizden alma riski. Teknoloji endüstrisindeki yazarların yerini yapay zekanın aldığını, yazılım geliştiricilerin işlerini botlara kaptıracaklarından endişe ettiklerini ve insan yazarları işe almak yerine blog içeriği ve sosyal medya içeriği oluşturmak için ChatGPT kullanan şirketleri şimdiden görüyoruz.

    Dünya Ekonomik Forumu'nun İşlerin Geleceği Raporu 2020'ye göre, yapay zekanın 2025 yılına kadar dünya çapında 85 milyon işin yerini alması bekleniyor. Yapay zeka, yazarların yerini almasa bile, şimdiden birçok kişi tarafından bir araç olarak kullanılıyor. Yapay zeka tarafından değiştirilme riski taşıyan işlerde çalışanların hayatta kalmak için uyum sağlamaları gerekebilir - örneğin, yazarların yapay zeka komut mühendisleri haline gelmesi, içerik oluşturma için bu modellerle değiştirilmek yerine ChatGPT gibi araçlarla çalışmalarını sağlayabilir.

    Gelecekteki Potansiyel Yapay Zeka Riskleri

    Bunların hepsi acil veya yaklaşan riskler, ancak gelecekte görebileceğimiz yapay zekanın daha az olası ancak yine de olası tehlikelerinden bazıları ne olacak? Bunlar, örneğin bir savaş sırasında öldürmek üzere eğitilmiş otonom silahlar gibi, insanlara zarar vermeye programlanmış AI gibi şeyleri içerir.

    O zaman, yapay zekanın programlanmış hedefine tek bir düşünceyle odaklanıp, insanlar bunun olmasını engellemeye çalışsa bile, her ne pahasına olursa olsun bu hedefi gerçekleştirmeye çalışırken yıkıcı davranışlar geliştirme riski vardır.

    Skynet bize bir yapay zeka duyarlı hale geldiğinde ne olacağını öğretti. Bununla birlikte, Google mühendisi Blake Lemoine, herkesi Google'ın yapay zekalı sohbet robotu oluşturucusu LaMDA'nın Haziran 2022'de duyarlı olduğuna ikna etmeye çalışmış olsa da, neyse ki bugüne kadar bunun doğru olduğunu gösteren hiçbir kanıt yok.

    AI düzenlemesinin zorlukları

    15 Mayıs 202 Pazartesi günü, OpenAI CEO'su Sam Altman, yapay zeka konusundaki ilk kongre duruşmasına katıldı ve "Bu teknoloji ters giderse, oldukça ters gidebilir" uyarısında bulundu. OpenAI CO, düzenlemeden yana olduğunu açıkça belirtti ve kendi fikirlerinin çoğunu duruşmaya getirdi. Sorun şu ki, yapay zeka o kadar hızlı gelişiyor ki düzenlemeye nereden başlayacağınızı bilmek zor.

    Kongre, sosyal medya çağının başında yapılan aynı hataları yapmaktan kaçınmak istiyor ve Senato Çoğunluk Lideri Chuck Schumer ile birlikte uzmanlardan oluşan bir ekip, şirketlerin modelleri eğitmek için hangi veri kaynaklarını kullandıklarını ve kimleri kullandıklarını açıklamalarını gerektirecek düzenlemeler üzerinde şimdiden çalışıyor. onları eğitti. Yine de yapay zekanın tam olarak nasıl düzenleneceğinin netleşmesi biraz zaman alabilir ve hiç şüphesiz yapay zeka şirketlerinden tepki gelecektir.

    Yapay Genel Zeka Tehdidi

    Ayrıca, bir insanın (veya hayvanın) gerçekleştirebileceği herhangi bir görevi yerine getirebilecek yapay bir genel zekanın (AGI) yaratılması riski de vardır. Bilimkurgu filmlerinde sıklıkla bahsedilir, muhtemelen böyle bir yaratıma onlarca yıl uzaktayız, ancak bir AGI yaratırsak ve yarattığımızda, bu insanlık için bir tehdit oluşturabilir.

    Stephen Hawking, Bill Gates ve hatta "Yapay zeka varoluşsal riskler oluşturabilir ve hükümetlerin bundan nasıl emin olacaklarını bilmesi gerekiyor" diyen eski Google CEO'su Eric Schmidt de dahil olmak üzere birçok tanınmış kişi, yapay zekanın insanlar için varoluşsal bir tehdit oluşturduğu inancını zaten onaylıyor. teknoloji kötü insanlar tarafından kötüye kullanılmaz.”

    Peki yapay zeka tehlikeli mi ve riskleri faydalarından ağır basıyor mu? Jüri hala bu konuda kararsız, ancak şu anda etrafımızdaki bazı risklerin kanıtlarını şimdiden görüyoruz. Diğer tehlikelerin yakın zamanda gerçekleşme olasılığı daha düşüktür. Yine de bir şey açık: Yapay zekanın tehlikeleri hafife alınmamalı. Gelecekteki riskleri en aza indirmek ve umarız hafifletmek için AI'nın en başından itibaren uygun şekilde düzenlenmesini sağlamamız son derece önemlidir.