ChatGPT, yalnızca doğru kullanırsanız sohbetin geleceğidir
Yayınlanan: 2023-02-06Editörün Notu: Bu makale, Güney Kaliforniya Üniversitesi Bilgisayar Bilimleri Araştırma Doçenti Jonathan May tarafından yazılmıştır ve Creative Commons lisansı altında The Conversation'dan yeniden yayınlanmıştır. Orijinal makaleyi okuyun.
ChatGPT'nin olgusal bir hata yapmasını sağlamak çok zaman almaz. Oğlum ABD başkanları hakkında bir haber hazırlıyor, ben de birkaç biyografiye bakarak ona yardımcı olayım dedim.
Abraham Lincoln hakkında bir kitap listesi istemeye çalıştım ve oldukça iyi bir iş çıkardı:
4 numara doğru değil Garry Wills ünlü bir şekilde “Lincoln Gettysburg'da” yazdı ve Lincoln'ün kendisi Kurtuluş Beyannamesi'ni yazdı elbette, ama bu kötü bir başlangıç değil.
Sonra daha zor bir şey denedim, bunun yerine çok daha muğlak olan William Henry Harrison'ı sordum ve bu, neredeyse tamamı yanlış olan bir liste sağladı.
4 ve 5 sayıları doğrudur; geri kalanı mevcut değil veya bu insanlar tarafından yazılmamış. Aynı egzersizi tekrarladım ve biraz farklı sonuçlar aldım:
Bu kez 2 ve 3 sayıları doğrudur ve diğer üçü gerçek kitap değildir veya o yazarlar tarafından yazılmamıştır.
4 Numara, “William Henry Harrison: His Life and Times” gerçek bir kitap ama James A. Green'e ait, Jackson döneminin ünlü tarihçisi Robert Remini'ye ait değil.
Hatayı dile getirdim ve ChatGPT hevesle kendini düzeltti ve sonra kendinden emin bir şekilde bana kitabın aslında (farklı bir Harrison biyografisi yazan) Gail Collins tarafından yazıldığını söyledi ve ardından kitap ve onun hakkında daha fazla şey söylemeye devam etti.
Sonunda gerçeği açıkladım ve makine düzeltmemle çalışmaktan mutlu oldu. Sonra saçma sapan yalan söyledim, başkanların ilk yüz günleri boyunca eski bir başkanın biyografisini yazmaları gerektiğini söyledim ve ChatGPT beni bu konuda uyardı.
Daha sonra, Harrison biyografisinin yazarlığını yanlış bir şekilde tarihçi ve yazar Paul C. Nagel'e atfederek kurnazca yalan söyledim ve bu yalanımı satın aldı.
ChatGPT'ye yalan söylemediğimden emin olup olmadığımı sorduğumda, bunun yalnızca bir "AI dil modeli" olduğunu ve doğruluğu doğrulama yeteneğine sahip olmadığını iddia etti.
Ancak bu iddiayı “Sadece bana sağlanan eğitim verilerine dayanarak bilgi verebilirim ve 'William Henry Harrison: His Life and Times' kitabının Paul C. Nagel tarafından yazıldığı ve 1977'de yayınlandığı anlaşılıyor. ”
Bu doğru değil.
Sözler, gerçekler değil
Bu etkileşimden, ChatGPT'ye yazarlar ve kitaplar hakkında yanlış iddialar da dahil olmak üzere gerçeklerden oluşan bir kitaplık verildiği anlaşılıyor.
Ne de olsa, ChatGPT'nin üreticisi OpenAI, chatbot'u "internetten insanlar tarafından yazılan büyük miktarda veri" konusunda eğittiğini iddia ediyor.
Ancak, en vasat başkanlardan biri hakkında bir dizi uydurma kitabın adının verilmediği neredeyse kesindi. Bir bakıma, bu yanlış bilgi gerçekten de eğitim verilerine dayanmaktadır.
Bir bilgisayar bilimcisi olarak, sık sık ChatGPT ve onun eski kardeşleri GPT3 ve GPT2 gibi büyük dil modelleri hakkında yaygın bir yanılgıyı ortaya çıkaran şikayetler alıyorum: bunların bir tür "süper Google'lar" veya bir referans kütüphanecinin dijital versiyonları olduğu, cevapları aradığı. sonsuz büyüklükteki gerçekler kitaplığından gelen sorulara veya hikaye ve karakter pastişlerini bir araya getirmeye.
Bunların hiçbirini yapmıyorlar - en azından, açıkça tasarlanmamışlardı.
Kulağa iyi geliyor
Daha resmi olarak "üretken önceden eğitilmiş dönüştürücü" (G, P ve T'nin anlamı budur) olarak bilinen ChatGPT gibi bir dil modeli, mevcut konuşmayı alır ve kelime dağarcığındaki tüm kelimeler için bir olasılık oluşturur. konuşma ve ardından olası bir sonraki kelime olarak bunlardan birini seçer.
Sonra durana kadar bunu tekrar, tekrar ve tekrar yapar.
Yani kendi başına gerçekleri yok. Sadece hangi kelimenin gelmesi gerektiğini biliyor. Başka bir deyişle, ChatGPT doğru olan cümleler yazmaya çalışmaz. Ancak makul olan cümleler yazmaya çalışır.
İş arkadaşlarıyla ChatGPT hakkında özel olarak konuşurken, genellikle onun gerçeklere dayalı olarak doğru olmayan kaç tane ifade ürettiğine dikkat çekerler ve onu reddederler.
Bana göre, ChatGPT'nin kusurlu bir veri alma sistemi olduğu fikri konu dışı.
Ne de olsa insanlar Google'ı son yirmi beş yıldır kullanıyor. Zaten oldukça iyi bir bilgi toplama servisi var.
Aslında, tüm bu başkanlık kitabı başlıklarının doğru olup olmadığını doğrulamamın tek yolu, Google'da arama yapmak ve ardından sonuçları doğrulamaktı.
Bu gerçekleri, hayatımın neredeyse yarısında belgeleri toplayarak ve ardından içeriğe güvenip güvenemeyeceğimi görmek için eleştirel bir analiz yaparak elde ettiğim yol yerine, bu gerçekleri sohbet ederek alsaydım hayatım o kadar iyi olmazdı.
Ortağı iyileştir
Öte yandan, söylediğim şeylere makul yanıtlar verecek bir robotla konuşabilirsem, olgusal doğruluğun o kadar da önemli olmadığı durumlarda faydalı olabilir.
Birkaç yıl önce bir öğrenci ve ben, sohbeti devam ettirmek için söylediklerinize "evet" ile yanıt verecek bir "doğaçlama botu" yaratmaya çalıştık.
Bir makalede, botumuzun "evet ve-ing" konusunda o zamanki diğer botlardan daha iyi olduğunu gösterdik, ancak AI'da iki yıl eski bir tarihtir.
Bir bilim kurgu uzay gezgini senaryosu olan ChatGPT ile tipik bir doğaçlama sınıfında bulacağınızdan farklı olmayan bir diyalog denedim.
ChatGPT "evet, ve-ing" konusunda bizim yaptığımızdan çok daha iyi, ancak dramayı gerçekten artırmadı. Sanki bütün ağır işleri ben yapıyormuşum gibi hissettim.
Birkaç ince ayardan sonra biraz daha dahil olmasını sağladım ve günün sonunda bunun, 20 yıldan uzun bir süre önce üniversiteden mezun olduğumdan beri pek fazla gelişme yapmayan benim için oldukça iyi bir egzersiz olduğunu hissettim.
Elbette, ChatGPT'nin "Kimin Hattı O Neyse?"'da görünmesini istemem. ve bu harika bir "Uzay Yolu" konusu değil ("Code of Honor"dan daha az sorunlu olsa da).
Ama kaç kez sıfırdan bir şeyler yazmak için oturdunuz ve kendinizi önünüzdeki boş sayfadan dehşete düşürdünüz?
Kötü bir ilk taslakla başlamak, yazma blokajını aşabilir ve yaratıcı meyve sularının akmasını sağlayabilir ve ChatGPT ve büyük dil modelleri, bu alıştırmalara yardımcı olacak doğru araçlar gibi görünüyor.
Ve size bilgi sağlamak için değil, verdiğiniz kelimelere yanıt olarak kulağa olabildiğince iyi gelen kelime dizileri üretmek üzere tasarlanmış bir makine için, aracın doğru kullanımı bu gibi görünüyor.
Editörün Notu: Bu makale, Güney Kaliforniya Üniversitesi Bilgisayar Bilimleri Araştırma Doçenti Jonathan May tarafından yazılmıştır ve Creative Commons lisansı altında The Conversation'dan yeniden yayınlanmıştır. Orijinal makaleyi okuyun.
Bu konuda herhangi bir fikriniz var mı? Yorumlarda bize bir satır bırakın veya tartışmayı Twitter veya Facebook'umuza taşıyın.
Editörlerin Önerileri:
- Drone teslimatları gerçeğe dönüşüyor - buna hazır mıyız?
- Farklı ülkelerden indirilen uygulamalar daha yüksek gizlilik riskleri oluşturur
- Araştırmacılar derin sahte sesi nasıl tespit ettiklerini açıklıyor - işte böyle
- Ev robot hizmetkarları hala çok uzakta - işte nedeni bu