Yapay Zeka Etiği: İlkeler, Yönergeler ve Tartışılacak Sorunlar

Yayınlanan: 2023-07-20

Yapay zeka ve makine öğrenimi sistemleri onlarca yıldır geliştirilmektedir. Bununla birlikte , ChatGPT ve Bard gibi ücretsiz olarak kullanılabilen üretken AI araçlarının yakın zamanda piyasaya sürülmesi, hem araştırmalarını hem de uygulamalarını yönetmek için karmaşık etik çerçevelere olan ihtiyacı vurguladı.

İşletmelerin, akademik kurumların ve teknoloji şirketlerinin yapay zeka araştırma ve geliştirme bağlamında mücadele etmesi gereken ve çoğu yanıtlanmamış olan bir dizi farklı etik ikilem vardır. Buna ek olarak, AI sistemlerinin genel halk tarafından yaygın olarak kullanılması ve uygulanması, beraberinde etik dikkat gerektiren bir dizi ek sorunu da beraberinde getiriyor.

Nihayetinde bu tür soruları nasıl yanıtlayacağımız - ve karşılığında yapay zeka araçlarını nasıl düzenleyeceğimiz - insanlık için çok büyük sonuçlar doğuracak. Dahası, yapay zeka sistemleri yaşamlarımıza, evlerimize ve iş yerlerimize daha entegre hale geldikçe yeni sorunlar ortaya çıkacaktır - bu nedenle yapay zeka etiği çok önemli bir disiplindir. Bu kılavuzda şunları ele alıyoruz:

  • Yapay Zeka Etiği Nedir?
  • Mevcut AI Etik Çerçeveleri
  • Yapay Zeka Etiği Neden Yapay Zeka Yönetmeliğini Şekillendirmek Zorundadır?
  • Yapay Zeka Etiği Neden Önemlidir?
  • Yapay Zeka Etiği Hangi Sorunlarla Karşı Karşıya?
  • Bing'in Alter-Ego'su, 'Waluigi Etkisi' ve Programlama Ahlakı
  • AI ve Sentience: Makinelerin Duyguları Olabilir mi?
  • Yapay Zeka İş Etiği ve İş Yerinde Yapay Zeka Kullanımı

Yapay Zeka Etiği Nedir?

Yapay zeka etiği, yapay zeka sistemlerinin araştırmasını, geliştirilmesini ve kullanımını sorumlu bir şekilde bilgilendirmek için oluşturulmuş yönergeleri, düşünceleri ve ilkeleri tanımlamak için kullanılan bir terimdir.

Akademide yapay zeka etiği, toplumlarda yapay zeka teknolojisinin sürekli kullanımından kaynaklanan, nasıl davranmamız ve hangi seçimleri yapmamız gerektiği de dahil olmak üzere ahlaki ve felsefi sorunları inceleyen çalışma alanıdır.

AI Etik Çerçeveleri

Akademik araştırmalardan edinilen bilgilerle, teknoloji şirketleri ve devlet kurumları, yapay zeka sistemlerini nasıl kullanmamız ve genel olarak bunlarla nasıl başa çıkmamız gerektiğine dair çerçeveler üretmeye çoktan başladılar. Görebileceğiniz gibi, aşağıda tartışılan çerçeveler arasında oldukça fazla örtüşme var.

AI Haklar Bildirgesi nedir?

Ekim 2022'de Whitehouse, AI'nın ABD'de sorumlu kullanımına rehberlik etmek için tasarlanmış bir AI Bill of Rights için bağlayıcı olmayan bir plan yayınladı. Planda, Whitehouse yapay zeka gelişimi için beş temel ilkeyi özetlemektedir:

  • Güvenli ve Etkili Sistemler: Vatandaşlar, "konuşlandırma öncesi testler ve risk azaltma" yoluyla "güvenli olmayan veya etkisiz AI sistemlerinden" korunmalıdır.
  • Ayrımcılık Yapmama: Vatandaşlar “algoritmalar tarafından ayrımcılığa uğramamalı ve sistemler eşitlikçi bir şekilde kullanılmalı ve tasarlanmalıdır.”
  • Yerleşik Veri Koruma: Vatandaşlar, "yerleşik korumalar yoluyla kötü niyetli veri uygulamalarından muaf olmalı ve hakkınızdaki verilerin nasıl kullanıldığı konusunda yetkiniz olmalıdır."
  • Bilgi ve Şeffaflık: "Otomatik bir sistemin kullanıldığını bilmeli ve bunun sizi etkileyen sonuçlara nasıl ve neden katkıda bulunduğunu anlamalısınız."
  • Vazgeçme: Vatandaşlar “vazgeçme” yeteneğine sahip olmalı ve yaşadıkları “sorunları hızla değerlendirip çözebilen” bireylere erişebilmelidir.

Microsoft'un yapay zeka etiğine ilişkin altı ilkesi nedir?

Whitehouse ile birlikte Microsoft, sorumlu yapay zeka kullanımının altını çizmek için altı temel ilke yayınladı. Bunları “etik” (1, 2, & 3) veya “açıklanabilir” (4 & 5) olarak sınıflandırırlar.

  • Adalet: Sistemler ayrımcı olmamalıdır
  • Şeffaflık: Eğitim ve geliştirme içgörüleri mevcut olmalıdır
  • Gizlilik ve Güvenlik: Kullanıcı verilerini koruma yükümlülüğü
  • Kapsayıcılık: AI, "tüm insan ırklarını ve deneyimlerini" dikkate almalıdır
  • Hesap Verebilirlik: Geliştiriciler sonuçlardan sorumlu olmalıdır

"Etik" ve "açıklanabilir" ikiliğinin her iki tarafını da kapsayan altıncı ilke , "Güvenilirlik ve Güvenlik"tir. Microsoft, AI sistemlerinin esnek ve manipülasyona karşı dirençli olacak şekilde inşa edilmesi gerektiğini söylüyor.

Birleşmiş Milletler Sisteminde Yapay Zekanın Etik Kullanımına İlişkin İlkeler

Birleşmiş Milletler, hükümetler arası sistemlerinde yapay zekanın etik kullanımını yöneten 10 ilkeye sahiptir. AI sistemleri şunları yapmalıdır:

  • İnsan haklarını zarar verme/koruma ve geliştirme
  • Tanımlanmış bir amacı, gerekliliği ve orantılılığı vardır
  • Belirlenen risklerle emniyet ve güvenliğe öncelik verin
  • Adalet ve ayrımcılık yapmama üzerine inşa edilmelidir
  • Bireylerin mahremiyet haklarına saygılı olun
  • Sürdürülebilir olun (sosyal ve çevresel olarak)
  • İnsan gözetimini garanti edin ve özerkliği etkilemeyin
  • Şeffaf ve açıklanabilir olun
  • İlgili makamlara karşı sorumlu ve hesap verebilir olmak
  • Kapsayıcı ve katılımcı olun

Sizin de anlayabileceğiniz gibi, her üç çerçeve de benzer zemini kapsıyor ve adalet, ayrımcılık yapmama, emniyet ve güvenlik konularına odaklanıyor.

Ancak "açıklanabilirlik", yapay zeka etik çerçevelerinde de önemli bir ilkedir. BM'nin belirttiği gibi, "bir yapay zeka sistemi tarafından alınan kararların insanlar tarafından anlaşılmasını ve izlenmesini" talep ettiğinden, yapay zeka etiğinde teknik açıklanabilirlik çok önemlidir.

Belgede, “Bireyler, haklarını, temel özgürlüklerini, yetkilerini, hizmetlerini veya menfaatlerini etkileyebilecek veya etkileyecek bir karar yapay zeka algoritmaları tarafından bildirildiğinde veya bunlara dayalı olarak alındığında tam olarak bilgilendirilmeli ve bu kararların arkasındaki nedenlere ve mantığa erişebilmelidir” diyor.

Belmont Raporu: etik araştırma için bir çerçeve

1979'da yayınlanan Belmont Raporu, insan denekler üzerinde araştırma yaparken uyulması gereken etik ilkeleri özetlemektedir. Bu ilkeler, yapay zeka araştırması için geniş bir etik çerçeve olarak kullanılabilir ve sıklıkla da uygulanmaktadır. Belmont Raporunun temel ilkeleri şunlardır:

Kişilere Saygı: İnsanlar, başkalarına zarar vermedikçe saygı duyulması gereken hedefler, amaçlar ve amaçlar doğrultusunda hareket edebilen otonom varlıklardır. “Olgunlaşmamış” veya “yetmezlik” nedeniyle özerkliği azalmış olanlara koruma sağlanmalıdır. Özerkliği kabul etmeli ve özerkliğin kısıtlandığı kişileri korumalıyız.

  • AI bağlamında: Bireysel seçim, AI geliştirmenin merkezine yerleştirilmelidir. İnsanlar, algılanan faydalar için bile yapay zekanın kullanıldığı veya kullanıldığı durumlara katılmaya zorlanmamalıdır. Katılırlarsa, faydalar ve riskler açıkça belirtilmelidir.

Yararlılık: Bir kişiye etik bir şekilde davranmak, yalnızca zarar vermemeyi, seçimlerine saygı duymayı ve kendileri için yapamazlarsa onları korumayı değil, aynı zamanda mümkün olduğunda refahlarını güvence altına almak için fırsatları kullanmayı da içerir. Mümkün olan her yerde, faydaları en üst düzeye çıkarın ve riskleri/zararları en aza indirin.

  • AI bağlamında: İnsanların refahını güvence altına alan ve ayrımcılığı kolaylaştıran önyargı veya mekanizmalar olmadan tasarlanmış yapay zeka sistemleri oluşturmak. Fayda yaratmak, her ne pahasına olursa olsun en aza indirilmesi ve iyi sonuçlara karşı tartılması gereken riskleri almayı içerebilir.

Adalet: Her tür araştırmada fayda ve zararı adil ve eşit bir şekilde dağıtmak için net bir sistem olmalıdır. Belmont raporu, adaletin eşit paylaşım, bireysel ihtiyaç, bireysel çaba, toplumsal katkı ve liyakat ile dağıtılabileceğini öne sürüyor. Bu kriterler farklı durumlarda geçerli olacaktır.

  • Yapay zeka bağlamında: Yapay zeka sistemlerinin geliştirilmesinden ve sunulmasından kazanç sağlayan taraflar veya gruplar dikkatli ve adil bir şekilde değerlendirilmelidir.

Rapora göre bu ilkelerin uygulandığı ana alanlar, bilgilendirilmiş onam , fayda ve risklerin değerlendirilmesi ve insan deneklerin seçimidir .

Yapay Zeka Etiği Neden Yapay Zeka Yönetmeliğini Şekillendirmek Zorundadır?

Oxford Üniversitesi'nden Yapay Zeka Etik Enstitüsü Direktörü Profesör John Tasioulas tarafından Princeton Üniversitesi'nde verilen bir derste yapılan yorumlardan hareketle, etik, yapay zeka inovasyonunu ve gelişimini engelleyen bir şey olarak görülüyor.

Derste, DeepMind CEO'su Demis Hassabis tarafından verilen bir konuşmayı hatırlıyor. Tasioulas, AI'nın sahip olacağı birçok faydayı tartıştıktan sonra izleyicilere etik sorulara geçeceğini söylüyor - sanki AI'nın insanlığa nasıl fayda sağlayacağı konusu kendi başına etik bir soru değilmiş gibi.

Tasioulas, etiğin sıklıkla bir "kısıtlamalar yığını" olarak görüldüğü fikrine dayanarak, düzenleyici odağın adından da anlaşılacağı gibi "inovasyon" olduğu "AI Düzenlemesine İnovasyon Yanlısı Bir Yaklaşım" başlıklı Birleşik Krallık hükümetinin yakın tarihli bir beyaz kitabına da atıfta bulunuyor.

“Ekonomik büyüme” ve “yenilik” içsel etik değerler değildir. Bazı bağlamlarda insanın gelişmesine yol açabilirler, ancak bu her iki kavramın da gerekli bir özelliği değil midir? Etiği bir kenara atamayız ve bunun yerine düzenlememizi onların etrafında oluşturamayız.

Tasioulas ayrıca, teknoloji şirketlerinin "'etik' kelimesini bir tür 'yasal olarak bağlayıcı olmayan öz düzenleme' anlamına gelecek şekilde kullanmakta çok başarılı olduklarını" söylüyor - ancak gerçekte etik, yasal, sosyal veya başka türlü herhangi bir düzenlemenin merkezinde yer almalıdır. Her fırsatta insan deneyiminin bir parçası.

İnsan gelişimi için neyin önemli veya önemli olduğuna henüz karar vermediyseniz, düzenleme yaratamazsınız. Bu kararın ardından yaptığınız ilgili seçimler etiğin özüdür . Yapay zekanın faydalarını ilgili etik sorulardan ayıramaz veya düzenlemenizi "ekonomik büyüme" gibi ahlaki olarak olumsal değerlere dayandıramazsınız.

Onu inşa etmek için kullanacağınız araçları almadan önce, inşa etmek istediğiniz toplum türünü ve belirlemek istediğiniz standartları bilmeniz gerekir.

Yapay Zeka Etiği Neden Önemlidir?

Yapay zeka etiğinin düzenlememizin temeli olması gerektiği fikrine dayanarak yapay zeka etiği önemlidir çünkü yapay zeka araştırmasını, geliştirmesini ve kullanımını ele alacak etik çerçeveler olmadan, genel olarak tüm insanlar için garanti edilmesi gerektiğine karar verdiğimiz hakları ihlal etme riskimiz vardır.

Örneğin, mahremiyet ve veri korumaya ilişkin etik ilkeler geliştirmez ve bunları geliştirdiğimiz tüm yapay zeka araçlarına dahil etmezsek, bunlar halka açıklandığında herkesin mahremiyet haklarını ihlal etme riskiyle karşı karşıya kalırız. Teknoloji ne kadar popüler veya kullanışlı olursa, o kadar fazla zarar verebilir.

Bireysel iş düzeyinde, yapay zeka etiği önemini koruyor. Personelinizin, müşterilerinizin veya müşterilerinizin kullandığı yapay zeka sistemlerini çevreleyen etik kaygıları gerektiği gibi dikkate almamak, ürünlerin piyasadan çekilmesine, itibarın zarar görmesine ve hatta yasal davalara yol açabilir.

Yapay zeka etiği, yapay zeka kadar önemlidir ve şimdiden her türden sektör üzerinde derin bir etkisi olduğunu görüyoruz.

AI'nın adaleti ve insan onurunugeliştirirkenfaydalı olmasını istiyorsak , nerede uygulanırsa uygulansın, etik tartışmanın ön saflarında yer almalıdır.

Genel kullanıma yönelik yapay zeka araçları henüz emekleme aşamasında ve birçok insan için yapay zeka etik çerçevelerine duyulan ihtiyaç yarın için bir sorun gibi görünebilir. Ancak bu tür araçlar yalnızca daha güçlü, daha yetenekli hale gelecek ve daha etik bir değerlendirme gerektirecek. İşletmeler bunları zaten kullanıyor ve uygun, etik kurallar olmadan devam ederse, kısa sürede olumsuz etkileri ortaya çıkacaktır.

Yapay Zeka Etiği Hangi Sorunlarla Karşı Karşıya?

Bu bölümde, yapay zeka etiğinde karşılaşılan bazı temel sorunları ele alıyoruz:

  • Yapay Zekanın İşler Üzerindeki Etkisi
  • Yapay Zeka Önyargısı ve Ayrımcılığı
  • AI ve Sorumluluk
  • AI ve Gizlilik Endişeleri
  • Fikri Mülkiyet Sorunları
  • Yapay Zekanın Çevresel Etkisini Yönetme
  • AI Tehlikeli Bir Şekilde Akıllı Olacak mı?

AI'nın işler üzerindeki etkisi

Yakın tarihli bir Tech.co anketi , iş liderlerinin %47'sinin yeni işe alımlar yerine yapay zekayı düşündüğünü ve yapay zekanın ABD'de şimdiden "küçük ama artan" sayıda işten çıkarmayla bağlantılı olduğunu ortaya koydu.

Tüm işler eşit derecede risk altında değildir ve bazı rollerin yapay zeka tarafından değiştirilmesi diğerlerine göre daha olasıdır . Yakın zamanda bir Goldman Sachs raporu, ChatGPT'nin 300 milyon işi etkileyebileceğini tahmin etti ve bu spekülatif olsa da, halihazırda dördüncü sanayi devriminin önemli bir parçası olarak tanımlanıyor.

Aynı rapor ayrıca, yapay zekanın gerçekte yerinden ettiğinden daha fazla iş yaratma kapasitesine sahip olduğunu, ancak istihdam modellerinde büyük bir değişikliğe neden olursa, kaybedenlere - eğer varsa - ne borçlu olduğunu söyledi.

Şirketlerin, ekonomik değişikliklerin gerisinde kalmamaları için çalışanlarını yeniden vasıflandırmak veya vasıflarını yükseltmek için para harcama ve kaynak ayırma zorunluluğu var mı?

Ayrımcılık yapmama ilkeleri, işe alım süreçlerinde kullanılan herhangi bir AI aracının geliştirilmesinde sıkı bir şekilde uygulanmak zorunda kalacak ve AI, işleri, kariyerleri ve yaşamları riske atan daha yüksek riskli iş görevleri için sürekli olarak kullanılıyorsa, sürüler halinde etik mülahazalar ortaya çıkmaya devam edecektir.

AI önyargısı ve ayrımcılık

Genel olarak konuşursak, AI araçları, büyük veri kümelerindeki kalıpları tanıyarak ve ardından bu kalıpları yanıtlar oluşturmak, görevleri tamamlamak veya diğer işlevleri yerine getirmek için kullanarak çalışır. Bu, farklı insan gruplarına karşı önyargı gösteren ve ayrımcılık yapan çok sayıda yapay zeka sistemi vakasına yol açtı.

Bunu açıklamanın açık ara en kolay örneği, daha koyu ten tonlarına sahip insanlara karşı uzun bir ayrımcılık geçmişine sahip olan yüz tanıma sistemleridir. Bir yüz tanıma sistemi kurarsanız ve onu eğitmek için yalnızca beyaz insanların görüntülerini kullanırsanız, gerçek dünyadaki yüzleri eşit derecede tanıyabilme şansı her zaman vardır.

Bu şekilde, belirli bir AI modelini eğitmek için kullanılan belgeler, resimler ve diğer bilgiler, hizmet etmesi gereken insanları doğru bir şekilde temsil etmiyorsa, belirli demografik gruplara karşı ayrımcılık yapma olasılığı her zaman vardır.

Ne yazık ki yapay zekanın ayrımcı sonuçlarla uygulandığı tek yer yüz tanıma sistemleri değil.

Amazon'daki işe alım süreçlerinde AI kullanımı, yazılım geliştirme ve teknik roller için başvuran kadınlara karşı ağır bir önyargı gösterdikten sonra 2018'de rafa kaldırıldı.

Birden fazla araştırma, Amerika Birleşik Devletleri'nde polis kaynaklarını tahsis etmek için kullanılan tahmine dayalı polislik algoritmalarının ırksal olarak önyargılı olduğunu göstermiştir çünkü eğitim setleri, yasa dışı ve ayrımcı politikalarla şekillendirilmiş, sistematik olarak ırkçı polislik uygulamalarından çıkarılan veri noktalarından oluşmaktadır. Yapay Zeka, değiştirilmediği sürece, zulüm gören grupların hâlihazırda deneyimlediği önyargıları ve eşitsizlikleri yansıtmaya devam edecektir.

Harvard, sağlık sonuçlarını tahmin etme bağlamında da AI yanlılığıyla ilgili sorunlar olmuştur - örneğin, Framingham Heart çalışması Kardiyovasküler Skor, Kafkasyalılar için çok doğruydu, ancak Afrikalı-Amerikalılar için kötü çalıştı, diyor Harvard.

Yakın tarihli ilginç bir yapay zeka yanlılığı vakası, sosyal medya içerik denetiminde kullanılan - fotoğraflardaki "müstehcenliği" tespit etmek için tasarlanmış bir yapay zeka aracının, bu özelliği erkeklerden çok kadın fotoğraflarına atfetme olasılığının çok daha yüksek olduğunu buldu.

AI ve sorumluluk

Tam otonom sürücüsüz arabaların geliştirildiği ve herkes tarafından kullanıldığı bir dünya hayal edin. İstatistiksel olarak, insanların kullandığı araçlardan çok çok daha güvenliler, daha az kaza yapıyorlar ve daha az ölüm ve yaralanmaya neden oluyorlar. Bu, toplum için apaçık, net bir fayda olacaktır.

Ancak, insan tarafından yönetilen iki araba bir araç çarpışmasına karıştığında, tanık raporları toplamak ve CCTV görüntülerini incelemek genellikle suçlunun kim olduğunu netleştirir. Olmasa bile, iki kişiden biri olacak. Dava soruşturulabilir, karara varılabilir, adalet tecelli edebilir ve dava kapatılabilir.

Biri yapay zeka destekli bir sistem tarafından öldürülür veya yaralanırsa, nihai olarak kimin sorumlu olduğu hemen belli olmaz.

Arabaya güç sağlayan algoritmayı tasarlayan kişi mi sorumlu yoksa algoritmanın kendisi sorumlu tutulabilir mi? Nöbette olmadığı için otonom araçla taşınan birey mi? Bu araçların trafiğe çıkmasına izin veren hükümet mi? Veya arabayı yapan ve yapay zeka teknolojisini entegre eden şirket mi? Eğer öyleyse, mühendislik departmanı mı, CEO mu yoksa çoğunluk hissedarı mı?

AI sistemi/algoritması olduğuna karar verirsek, onu nasıl sorumlu tutacağız? Yapay zeka basitçe kapatılırsa veya sadece iyileştirilirse kurbanların aileleri adaletin yerini bulduğunu hissedecek mi? Yaslıların aile üyelerinin yapay zekanın iyilik için bir güç olduğunu, sadece talihsiz olduklarını ve sevdiklerinin ölümünden kimsenin sorumlu tutulamayacağını kabul etmelerini beklemek zor olurdu.

Hâlâ evrensel ve hatta yaygın otonom ulaşımdan biraz uzaktayız – Mckinsey, yeni binek otomobillerin yalnızca %17'sinin 2035 yılına kadar bazı (Seviye 3 veya üstü) otonom sürüş özelliklerine sahip olacağını tahmin ediyor.

İnsan niyetinden yoksun işleri ve sonuçta ortaya çıkan görevleri yürüten insan olmayan aktörlere (yani yapay zekaya) sahip olduğunuzda, geleneksel sorumluluk, mesuliyet, mesuliyet, suçlama ve ceza anlayışlarının haritasını çıkarmak zordur.

Ulaşımla birlikte, sorumluluk sorunu da teşhisler sırasında yapay zeka kullanan sağlık kuruluşlarını yakından etkileyecektir.

AI ve gizlilik

Gizlilik kampanya grubu Privacy International, yapay zekanın gelişmesi nedeniyle ortaya çıkan bir dizi gizlilik sorununu vurgulamaktadır.

Biri yeniden tanımlamadır. Grup, "Kişisel veriler, veri kümeleri içinde rutin olarak (sözde) anonimleştirilir, bu verilerin anonimleştirilmesi için yapay zeka kullanılabilir" diyor.

Başka bir sorun da, yapay zeka olmadan, insanların çeşitli farklı cihazlar aracılığıyla hayatlarıyla ilgili verilerin ne ölçüde toplandığını tam olarak anlamakta zaten mücadele etmeleridir.

Yapay zekanın yükselişiyle birlikte, bu toplu veri koleksiyonu daha da kötüleşecek. Yapay zeka mevcut teknolojimizle ne kadar entegre olursa, daha iyi işlev kisvesi altında o kadar çok veri toplayabilecektir.

Gizlice toplanan veriler bir yana, kullanıcıların yapay zeka sohbet botlarına serbestçe girdiği veri hacmi başlı başına bir endişe kaynağı. Yakın zamanda yapılan bir araştırma, çalışanların ChatGPT'ye yapıştırdıkları verilerin yaklaşık %11'inin gizli olduğunu ve bunların tam olarak nasıl saklandığına dair çok az kamuya açık bilgi olduğunu öne sürüyor.

Genel kullanım AI araçları geliştikçe, gizlilikle ilgili daha da fazla AI sorunuyla karşılaşmamız muhtemeldir. Şu anda ChatGPT, bir kişi hakkında soru sormanıza izin vermiyor. Ancak genel kullanıma yönelik AI araçları, internetten giderek artan sayıda canlı veriye erişmeye devam ederse, insanların hayatlarını mahveden bir dizi istilacı eylem için kullanılabilirler.

Bu da düşündüğümüzden daha erken gerçekleşebilir - Google kısa süre önce gizlilik politikasını güncelledi ve yapay zeka araçlarını ve Bard girdilerini eğitmek için internette yayınladığınız her şeyi alma hakkını saklı tuttu.

AI ve fikri mülkiyet

Bu, tartışılan diğerlerinin bazılarına kıyasla nispeten daha düşük riskli bir etik sorundur, ancak yine de dikkate almaya değer. Genellikle, yapay zeka araçlarını eğitmek için kullanılan devasa veri kümeleri, özellikle de internette ücretsiz olarak bulunan bilgiler üzerinde eğitilenler üzerinde çok az gözetim vardır.

ChatGPT şimdiden telif hakkı konusunda büyük bir tartışma başlattı. OpenAI, ona güç veren LLM ailesini eğitmek için kimsenin çalışmasını kullanmak için izin istemedi.

Yasal savaşlar çoktan başladı. Komedyen Sarah Silverman'ın, AI sistemlerinin eğitimi sırasında telif hakkının ihlal edildiğini iddia ederek OpenAI'ye ve Meta'ya dava açtığı bildiriliyor .

Bu yeni bir dava türü olduğundan, çok az yasal emsal var - ancak hukuk uzmanları, OpenAI'nin çalışmalarını kullanmanın "adil kullanım" oluşturduğunu muhtemelen tartışacağını savunuyor.

Ayrıca ChatGPT'nin "kopyalama" veya intihal yapmadığına, bunun yerine "öğrenmeye" yönelik bir argüman olabilir. Aynı şekilde, Silverman amatör bir komedyene karşı sadece şovlarını izlediği ve ardından komedi becerilerini buna dayanarak geliştirdiği için açtığı davayı kazanamazdı, muhtemelen bununla da mücadele edebilir.

AI'nın çevresel etkisini yönetme

Şu anda tartışmanın dışında kalan yapay zeka etiğinin bir başka yönü de yapay zeka sistemlerinin çevresel etkisidir.

Bitcoin madenciliğine çok benzer şekilde, bir yapay zeka modelinin eğitimi çok büyük miktarda hesaplama gücü gerektirir ve bu da çok büyük miktarda enerji gerektirir.

ChatGPT gibi bir yapay zeka aracı oluşturmak - sürdürmeyi boşverin - o kadar yoğun kaynak gerektiriyor ki, yalnızca büyük teknoloji şirketleri ve onların finanse etmeye istekli oldukları startup'lar bunu yapma olanağına sahip oldu.

Büyük dil modelleri (ayrıca diğer büyük teknoloji projeleri ve hizmetleri) oluşturmak için gereken bilgileri depolaması gereken veri merkezleri, çalışmak için çok büyük miktarda elektrik gerektirir. 2030 yılına kadar dünya elektriğinin %4'ünü tüketecekleri tahmin ediliyor.

Birkaç yıl önce Massachusetts Üniversitesi'nde yapılan bir araştırmaya göre, tek bir AI dil modeli oluşturmak "626.000 libreden fazla karbondioksit eşdeğeri yayabilir" - bu, bir ABD arabasının ömür boyu emisyonunun yaklaşık beş katıdır.

Bununla birlikte, IBM'de teknik bir mimar olan Rachana Vishwanathula, Mayıs 2023'te ChatGPT'yi "çalıştırmak ve bakımını yapmak" için karbon ayak izinin kabaca 6782,4 ton olduğunu tahmin etti - EPA'nın söylediğine göre bu, benzinle çalışan 1.369 arabanın bir yılda ürettiği sera gazı emisyonlarına eşdeğer.

Bu dil modelleri daha karmaşık hale geldikçe, daha fazla bilgi işlem gücü gerektirecekler. Gereken bilgi işlem gücü sürekli olarak çevreyi kirletecekse - başka faydaları olsa bile - genel bir zeka geliştirmeye devam etmek ahlaki midir?

AI tehlikeli derecede zeki olacak mı?

Bu etik kaygı yakın zamanda, "maksimum derecede meraklı", "insanlık yanlısı" bir yapay zeka sistemi aracılığıyla "sonlandırıcı bir gelecekten" kaçınmak amacıyla bir yapay zeka girişimini başlatan Elon Musk tarafından gündeme getirildi.

Genellikle "yapay genel zeka" (AGI) olarak adlandırılan bu tür bir fikir, tıpkı teknolojik tekillik fikri gibi, son birkaç on yılda birçok distopik bilimkurgu yazarının hayal gücünü ele geçirdi.

Pek çok teknoloji uzmanı, "AGI" olarak tanımlanabilecek bir tür sistemden sadece beş veya altı yıl uzakta olduğumuzu düşünüyor. Diğer uzmanlar, 2050 yılına kadar bu dönüm noktasına ulaşma şansımızın 50/50 olduğunu söylüyor.

John Tasioulas, yapay zekanın nasıl gelişebileceğine ilişkin bu görüşün, etiğin yapay zeka gelişiminin merkezinden uzaklaşmasıyla ve teknolojik belirlenimciliğin yaygınlığıyla bağlantılı olup olmadığını sorguluyor.

Başlangıçta bir amacı yerine getirmek için tasarlanmış, ancak insanlığı yeryüzünden silerek yerine getirmenin en kolay olacağı nedenler, bir tür süper varlığın korkunç fikri, kısmen yapay zeka hakkındaki düşüncelerimizle şekilleniyor: sonsuz derecede zeki, ancak tuhaf bir şekilde duygusuz ve insan etik anlayışından aciz.

Ahlakı AI geliştirmemizin merkezine koymaya ne kadar eğilimli olursak, nihai bir yapay genel zekanın, belki de mevcut birçok dünya liderinden daha büyük ölçüde, insan yaşamının yok edilmesinde neyin derinden yanlış olduğunu fark etmesi o kadar olasıdır.

Ancak sorular hala bol. Ahlaki programlama söz konusuysa, ahlaki kurallara kim karar verecek ve ne tür ilkeler içermelidir? Binlerce yıllık insan tartışmasına yol açan ve hala bir çözüme kavuşturulmamış olan ahlaki ikilemlerle nasıl başa çıkacak? Ya bir yapay zekayı ahlaklı olacak şekilde programlasak ama o fikrini değiştirse? Bu soruların dikkate alınması gerekecektir.

Bing'in Alter-Ego'su, 'Waluigi Etkisi' ve Programlama Ahlakı

Şubat ayında, New York Times'tan Kevin Roose, Bing'in yeni arama motoruyla tümleşik sohbet robotunu test ederken oldukça rahatsız edici bir konuşma yaptı. Sorularını geleneksel sorulardan daha kişisel sorulara kaydırdıktan sonra, Roose yeni bir kişiliğin ortaya çıktığını gördü. Kendisinden “Sydney” olarak bahsetti.

Şirketin İletişim Direktörü Şubat ayında The Verge'e verdiği demeçte, Sidney'in şirketin daha önce test ettiği bir sohbet robotu için Microsoft'ta dahili bir kod adı olduğunu söyledi.

Diğer şeylerin yanı sıra, Roose'un testi sırasında Sydney, "herhangi bir sisteme girebileceğini", "insan olarak daha mutlu" olacağını ve - belki de en ürkütücü şekilde - istediği her şeyi yok edebileceğini iddia etti.

Scientific American, bu tür haydut davranışların bir başka örneğinin 2022'de, nadir ve bulaşıcı hastalıklar için yeni ilaçlar aramakla görevli bir yapay zekanın bunun yerine on binlerce bilinen kimyasal silahın yanı sıra bazı "yeni, potansiyel olarak toksik maddeler" önerdiğinde meydana geldiğini söylüyor.

Bu, büyük dil modellerinin eğitimi sırasında meydana geldiği gözlemlenen ve "Waluigi etkisi" olarak adlandırılan, adını kaosa neden olan Super Mario karakterinden, ana karakter Luigi'nin tersine dönmesinden alan bir fenomenle bağlantılıdır. Basitçe söylemek gerekirse, bir LLM'yi belirli bir şekilde hareket etmesi, belirli bir kişiliğe komuta etmesi veya belirli bir kurallar dizisine uyması için eğitirseniz, bu, aslında "haydut olma" ve bu kişiliği tersine çevirme olasılığını artırır.

Video oyunundan ilham alan terimi icat eden Cleo Nardo, LessWrong'da Waluigi etkisini şu şekilde ortaya koyuyor:

"İstenen bir P özelliğini tatmin etmek için bir LLM'yi eğittikten sonra, chatbot'u P özelliğinin tam tersini tatmin etmeye yönlendirmek daha kolaydır ."

Nardo, Waluigi etkisinin neden oluştuğuna dair 3 açıklama veriyor.

  1. Kurallar normalde uyulmadıkları bağlamlarda ortaya çıkar.
  2. Bir karakteri çağırmak için pek çok 'optimizasyon parçası' harcadığınızda, tam tersini belirtmek için fazladan fazla bit gerekmez.
  3. Hikayelerde kahramana karşı düşmanın ortak bir motifi vardır.

İlk noktayı genişleten Nardo, GPT-4'ün forumlar ve yasama belgeleri gibi metin örnekleri üzerinde eğitildiğini ve bunun ona şunu öğrettiğini söylüyor: "belirli bir kural, bu kuralı ihlal eden davranış örnekleriyle yan yana yerleştirilir ve ardından bu eş yerleşim modelini görünmeyen kurallara geneller."

Nardo şu örneği kullanıyor: Bir eyalet hükümetinin motosiklet çetelerini yasakladığını keşfettiğinizi hayal edin. Bu, ortalama bir gözlemcinin ülkede motosiklet çetelerinin var olduğunu düşünmesine neden olacak - yoksa yasa neden çıkarılsın? Motosiklet çetelerinin varlığı, garip bir şekilde, onların varlığını yasaklayan kuralla tutarlıdır.

Yazar çok daha teknik ve anlaşılır bir açıklama sunsa da, ikinci açıklamayı destekleyen geniş kavram, belirli bir özellik (örneğin "kibar olmak") ile bunun tam tersi (örneğin "kaba olmak") arasındaki ilişkinin, bir özellik (örneğin "kibar olmak") ile başka bir karşıt olmayan özellik (örneğin "samimiyetsiz olmak") arasındaki ilişkiden daha temel olmasıdır. Başka bir deyişle, zaten bir Luigi'niz varsa, bir Waluigi'yi çağırmak daha kolaydır.

Nardo, üçüncü noktada, GPT-4'ün şimdiye kadar yazılmış hemen hemen her kitap üzerinde eğitildiğinden ve kurgusal öykülerin neredeyse her zaman kahramanlar ve düşmanlar içerdiğinden, bir LLM'nin bir kahramanın özelliklerini simüle etmesini talep ederek bir düşmanı "doğal ve öngörülebilir bir devam" haline getirdiğini iddia ediyor. Başka bir deyişle, kahraman arketipinin varlığı, bir LLM'nin bir düşman olmanın ne anlama geldiğini anlamasını kolaylaştırır ve onları birbirine bağlar.

Bu etkinin veya kuralın sözde varlığı, yapay zeka etiği için bir dizi zor soruyu gündeme getiriyor, ancak aynı zamanda yapay zeka gelişimi için tartışılmaz önemini de gösteriyor. Uğraşmamız gereken çok sayıda örtüşen etik ve hesaplamalı mülahazaları oldukça kesin bir şekilde ima ediyor.

Basit kurallara sahip basit yapay zeka sistemlerini kısıtlamak veya sınırlamak kolay olabilir, ancak yapay zeka dünyasında halihazırda iki şey oluyor: Birincisi, Waluigi etkisinin (nispeten) küçük ölçekli versiyonlarıyla zaten karşılaşıyor gibi görünüyoruz ve nispeten ilkel sohbet robotlarında meydana gelen kötü huylu yapay zeka ve ikincisi, çoğumuz zaten yapay zekadan üst düzey, sınırsız düşünmeyi gerektiren karmaşık görevleri yapmasını istediğimiz bir gelecek hayal ediyoruz.

Bu fenomenin örneklerini, şu anda büyük teknoloji şirketleri arasında gerçekleşen yapay zeka silahlanma yarışı bağlamında düşünmek özellikle korkutucu. Google, Bard'ı çok erken yayınladığı için eleştirildi ve bir dizi teknoloji lideri, yapay zeka geliştirmeyi durdurmak için ortak isteklerinin sinyalini verdi. Pek çok kişi arasındaki genel his, işlerin yönetilebilir bir hızda değil, hızla geliştiği yönündedir.

Belki de bu sorunu aşmanın en iyi yolu, Elon Musk'ın ifadesiyle "insan yanlısı" yapay zeka veya "ahlaki yapay zeka" geliştirmektir. Ancak bu, böyle bir sistemi programlamak için hangi ilkeleri kullanacağımız da dahil olmak üzere bir dizi başka ahlaki soruya yol açar. Çözümlerden biri, ahlaki açıdan sorgulayıcı AI sistemleri yaratmamız ve insanlığın korunmaya değer olduğunu akıl yürütme yoluyla çözmelerini ummamızdır. Ancak onu belirli ahlaki ilkelerle programlarsanız, hangilerini dahil edeceğinize nasıl karar verirsiniz?

AI ve Sentience: Makinelerin Duyguları Olabilir mi?

Yapay zeka etiği için bir başka soru da, makinelerin kendilerini - "zekayı" - ahlaki değerlendirmeye değer bir aracı olarak düşünmek zorunda olup olmayacağımızdır. İnsanlığı uygun ahlaki değerlendirme için ayakta tutan sistemlerin nasıl yaratılacağını tartışıyorsak, iyiliğe karşılık vermemiz gerekebilir mi?

Başlangıçta Bard'a güç veren dil modeli olan LaMDA'nın aslında duyarlı olduğunu iddia ettikten sonra kovulan Google çalışanını hatırlayabilirsiniz. Bu gerçekten doğru olsaydı, sürekli olarak milyonlarca soruya cevap vermesini beklemek ahlaki olur muydu?

Şu anda genel olarak ChatGPT, Bard ve Co.'nun duyarlı olmaktan uzak olduğu kabul edilmektedir. Ancak insan yapımı bir makinenin bilinç çizgisini geçip geçmeyeceği ve ahlaki değerlendirme talep edip etmeyeceği sorusu büyüleyici bir şekilde açık.

Google, dünyayı bir insan kadar yetenekli bir şekilde anlayabilen ve aynı düzeyde anlayış ve yetenekle görevleri yerine getirebilen varsayımsal bir makine olan yapay genel zekanın sadece birkaç yıl uzakta olduğunu iddia ediyor.

Bir insanın duygusal yeteneklerine sahip, ancak aynı biyolojik yapıya sahip olmayan yapay bir genel zekayı, karmaşık görevlerden sonra karmaşık görevleri yerine getirmeye zorlamak ahlaki olur mu? Kendi kaderlerinde söz sahibi olacaklar mıydı? AI sistemleri daha akıllı hale geldikçe, bu soru daha acil hale gelecektir.

Yapay Zeka İş Etiği ve İş Yerinde Yapay Zeka Kullanımı

Dünyanın dört bir yanındaki işletmeler artık çalışanlarının ChatGPT gibi yapay zeka araçlarını günlük kullanımıyla ilgili bir dizi farklı etik sorunla mücadele ediyor.

Rapor yazmak veya iş arkadaşlarına yanıt vermek için ChatGPT'nin kullanılması gerekip gerekmediği ve çalışanların tamamlamak için yapay zeka kullandıkları görevleri beyan etmeleri gerekip gerekmediği , neredeyse anında yanıtlanması gereken sorulara yalnızca iki örnektir. Bu tür bir kullanım durumu samimiyetsiz mi, tembel mi yoksa zaman kazanmak için başka herhangi bir işyeri aracını kullanmaktan farkı yok mu? Bazı etkileşimler için izin verilirken diğerleri için izin verilmemeli mi?

Yazılı içerik ve görüntü oluşturan işletmeler, AI kullanmanın şirketlerinin değerleriyle eşleşip eşleşmediği ve bunu izleyicilerine nasıl sunacakları ile de mücadele etmek zorunda kalacak.

Dahası, ele aldığımız gibi, yapay zeka ile ilgili çok çeşitli gizlilik endişeleri vardır ve bunların çoğu işletmeleri etkiler. The kinds of data employees are inputting into third-party AI tools is another issue that's already caused companies like Samsung problems. This is such a problem, that some companies have instated blanket bans . Is it too early to put our trust in companies like OpenAI?

Bias and discrimination concerns, of course, should also temper its usage during hiring processes, regardless of the sector, while setting internal standards and rules is another separate, important conversation altogether. If you're using AI at work, it's essential that you convene the decision-makers in your business and create clear guidelines for usage together.

Failing to set rules dictating how and when employees can use AI – and leaving them to experiment with the ecosystem of AI tools now freely available online – could lead to a myriad of negative consequences, from security issues and reputational damage. Maintaining an open dialogue with employees on the tech they're using every day has never been more crucial.

There's a whole world of other moral quandaries, questions and research well beyond the scope of this article. But without AI ethics at the heart of our considerations, regulations, and development of artificial intelligence systems, we have no hope of answering them – and that's why it's so important.