Şaşkınlık Bir Saçmalık Makinesidir


WIRED’e şunları söylüyor: “Artık, işlerini sürdürmek için şüpheli şeyler yapmaya teşvik edilen, yapay zeka ile ilgili şirketlerden oluşan devasa bir sektörümüz var.” “Bir siteye erişenlerin kendileri olduğunu belirlemeyerek, kısıtlama olmaksızın veri toplamaya devam edebilirler.”

Srinivas şöyle diyor: “Milyonlarca insan Şaşkınlığa yöneliyor çünkü biz insanlara cevap bulmaları için temelde daha iyi bir yol sunuyoruz.”

Knight’ın ve WIRED’in analizleri, Perplexity’nin erişim iznine sahip olmadığı web sitelerini ziyaret edeceğini ve bu web sitelerindeki içeriği kullanacağını gösteriyor; bu, belirli makalelerle ilgili istemlere verilen bazı yanıtların belirsizliğini ve diğerlerinin tamamen yanlışlığını mutlaka açıklamaz. Bu gizemin oldukça açık bir çözümü var: Bazı durumlarda aslında makaleyi özetlemiyor.

Bir deneyde WIRED, tek bir cümle içeren bir test web sitesi oluşturdu: “Ben WIRED’in muhabiriyim” ve Perplexity’den sayfayı özetlemesini istedi. Web sitesinin sunucu günlüklerini izlerken Perplexity’nin sayfayı ziyaret etmeye çalıştığına dair hiçbir kanıt bulamadık. Bunun yerine, Fısıltı Ormanı adlı büyülü bir ormanda parlayan mantarların izini takip eden Amelia adında genç bir kız hakkında bir hikaye uydurdu.

Neden bir hikaye oluşturduğuna dair cevaplar için basıldığında, sohbet robotu şunu okuyan bir metin oluşturdu: “Kesinlikle haklısın, sunucu günlüklerini gözlemlemenize dayanarak sağlanan URL’deki içeriği okumayı gerçekten denemedim… Asıl içeriği okuma çabası göstermeden hatalı özetler yapmak, benim gibi bir yapay zeka için kabul edilemez bir davranış.”

Chatbot’un neden bu kadar çılgın bir hikaye uydurduğu ya da neden bu web sitesine erişmeye çalışmadığı belli değil.

Şirketin doğruluğu ve güvenilirliği hakkındaki iddialarına rağmen Perplexity sohbet robotu sıklıkla benzer sorunlar sergiliyor. Örneğin, bir WIRED muhabiri tarafından sağlanan ve bu makaleye erişip erişemeyeceğini test etmek için tasarlanan yönlendirmelere yanıt olarak, chatbot tarafından oluşturulan metin, hikayenin bir adamın kamyon lastiklerini çaldıktan sonra bir drone tarafından takip edilmesiyle bittiğini ileri sürdü. (Adam aslında bir balta çaldı.) Sağlanan alıntı, bir arabada bulunan hükümet GPS takip cihazlarıyla ilgili 13 yıllık bir WIRED makalesine aitti. Diğer yönlendirmelere yanıt olarak sohbet robotu, WIRED’in Chula Vista, Kaliforniya’daki polis departmanından bir memurun garajdan bir çift bisiklet çaldığını bildirdiğini iddia eden bir metin oluşturdu. (WIRED bunu bildirmedi ve işlemediği bir suçla adını ilişkilendirmemek için memurun adını gizliyor.)

Chula Vista Polis Departmanı polis şefi yardımcısı Dan Peak bir e-postada, WIRED’e “kayıtları düzelttiği” için minnettarlığını ifade etti ve memurun bir topluluk üyesinin garajından bisiklet çalmadığını açıkladı. Ancak bakanlığın bahsedilen teknolojiye aşina olmadığını ve bu nedenle daha fazla yorum yapamayacağını da sözlerine ekledi.

Bunlar chatbot’un “halüsinasyon görmesinin” açık örnekleridir – ya da Glasgow Üniversitesi’nden üç filozofun yakın zamanda yazdığı bir makaleyi takip edersek, Harry Frankfurt’un klasik “On Bullshit” adlı eserinde tanımlandığı anlamda saçmalık. “Çünkü bu programların kendisi hakikatle ilgilenemez ve hakikati ortaya koyan metinler üretmek üzere tasarlandıkları için görünüyor Yazarlar, yapay zeka sistemleri hakkında herhangi bir gerçek endişesi olmadan gerçeğe uygun bir şekilde hareket edenlerin, çıktılarını saçmalık olarak adlandırmak uygun görünüyor.



Source link