Yapay Zeka ve Makine Öğrenimi, Yeni Nesil Teknolojiler ve Güvenli Geliştirme
Uzmanlar, Yapay Zeka Neslinin Kurumsal Kullanıma Hazır Olmayan ‘Yaratıcı’ Hatalarına Çözümler
Rashmi Ramesh (raşmiramesh_) •
13 Kasım 2024
Teknoloji endüstrisi, yapay zeka modellerinin “halüsinasyon” diyebileceğinizden daha hızlı yalan söyleme eğilimini ortadan kaldırmak için ürünleri piyasaya sürüyor. Ancak pek çok uzman, üretken yapay zekayı ölçeklenebilir, yüksek hassasiyetli kurumsal kullanıma hazır hale getirmedikleri konusunda uyarıyor.
Ayrıca bakınız: Küresel veri ağıyla savunma görevlerini hızlandırma
Halüsinasyonlar muhtemelen yapay zeka neslinin en büyük sorunudur; büyük dil modellerinin daha iyisini bilmedikleri için ortaya koyduğu bazen gülünç derecede yanlış, bazen viral ve bazen de tehlikeli veya yanıltıcı tepkilerdir. SlashNext’in saha CTO’su Stephen Kowski, “Zorluk, bu modellerin verileri gerçekten anlamadan kelime dizilerini tahmin etmesi ve hataları kaçınılmaz hale getirmesidir” dedi.
Teknoloji şirketlerinin çözümü, halüsinasyonların kullanıcılara ulaşmasını engellemenin yollarını aramak ve teknolojiyi teknolojinin üzerine katmanlamak oldu. Google’ın Vertex AI’si, Microsoft’un düzeltme yeteneği ve Voyage AI gibi çözümler, LLM çıktılarının doğruluğunu artırmak için çeşitli yaklaşımlar kullanır.
Microsoft, Information Security Media Group’a verdiği demeçte, düzeltme yeteneğinin, belirli kaynaklara verilen yanıtları LLM’lerin erişebileceği güvenilir bilgilerle “temellendirerek” çıktının güvenilirliğini artırarak halüsinasyonları engellemeyi amaçladığını söyledi. Bir sözcü, “Örneğin, daha doğru ve alakalı yanıtlar sağlamaya yardımcı olmak için Copilot’un modelini Bing arama verileriyle ve kullanıcıların bilgileri aramasına ve doğrulamasına olanak tanıyan alıntılarla temellendiriyoruz” dedi.
Ancak Santa Clara Üniversitesi’nde yapay zeka ve analitik alanında doçent olan Ram Bala, beklentinin yüksek hassasiyetli sonuçlar olması durumunda yaklaşımların yetersiz kaldığını söyledi.
“Şu şekilde düşünün: Yüksek Lisanslar her zaman hayaldir. Bazen bu hayaller gerçektir. Bu nasıl yardımcı olur? İzin mektubu yazmak gibi yaratıcı çıktılar istediğinizde inanılmaz derecede faydalıdır, ancak kurumsal uygulamaların bu yaratıcılığa her zaman ihtiyacı yoktur, ISMG’ye söyledi.
Tüm kullanım durumları için koruma önlemlerinin uygulanması genellikle maliyet açısından engelleyicidir. Kowski, birçok şirketin dağıtım hızına ve kapsamına doğruluktan daha fazla öncelik vermeyi tercih ettiğini söyledi.
Uzmanlar, halüsinasyonları durdurmaya yönelik katmanlı bir yaklaşımın, yanlış bir tepkinin zarar verebileceği veya uygunsuz olabileceği yaygın tüketici kullanım durumlarında halüsinasyonları engelleyebileceğini söyledi; çünkü geliştiriciler, örneğin modellerin kullanıcılara peyniri durdurmak için pizzaya yapıştırıcı sürmelerini tavsiye etmesini tekrar durdurmak için yeterli veriye sahipler kaymaktan (bkz: İhlal Özeti: Google AI Hataları Viral Oluyor). Bala, “ChatGPT hakkında iki yıl önce duyduğumuz kadar çok şikayet duymamamızın nedenlerinden biri de bu” dedi.
Ancak halüsinasyon karşıtı çözümlerin yapay zeka modellerinde katmanlandırılması yaklaşımı, incelikli, kuruma özel talepler için yetersizdir. “Şirketlerin çözmesi gereken birçok karmaşık sorunu ve takip etmesi gereken çok sayıda incelikli kural ve politikası var. Bu, büyük teknoloji şirketlerinin çoğunun yatırım yapmaya hazır olmayabileceği daha derin bir özel yaklaşım gerektiriyor” dedi.
Uzmanlar ayrıca teknolojideki hiçbir ilerlemenin halüsinasyonları tamamen ortadan kaldıramayacağını savunuyor. Darktrace’in stratejik siber yapay zekadan sorumlu başkan yardımcısı Nicole Carignan, bunun nedeni halüsinasyonların sistemdeki hatalar değil, yapay zeka modellerinin çalışmak üzere nasıl eğitildiğinin yan ürünleri olmasıdır, dedi.
Halüsinasyonlar, gen AI modellerinin, özellikle de LLM’lerin, eğitim verilerindeki anlamsal kalıplara dayalı çıktılar oluşturmak için olasılıksal modelleme kullanması nedeniyle ortaya çıkar. Doğrulanmış bilgileri yerleşik kaynaklardan alan geleneksel veri erişiminin aksine modeller, önceki verilere dayanarak neyin doğru olabileceğini tahmin ederek içerik üretir. Kowski, bazı araştırmaların LLM’lerin tüm hesaplanabilir fonksiyonları öğrenmesinin matematiksel olarak imkansız olabileceği sonucuna vardığını söyledi.
Alternatif Yaklaşımlar
Büyük teknoloji büyük ölçüde geniş ölçekli, genelleştirilmiş çözümlere odaklanırken, bazı yeni girişimler halüsinasyonlarla mücadelede daha hedefe yönelik bir yaklaşım benimsiyor. Bala, bu küçük oyuncular arasında ortaya çıkan iki temel stratejiyi açıkladı: işletmelerin özel kurallar ve istemler oluşturmasına izin vermek ve seçilmiş bilgi tabanlarıyla alana özgü uygulamalar geliştirmek. Bazı startup’lar, şirketlerin LLM’ler içerisinde kendi kurallarını kodlamalarına ve yapay zekayı belirli ihtiyaçları karşılayacak şekilde uyarlamalarına olanak tanıyor. Diğer girişimler, erişimle artırılmış nesille eşleştirilen bilgi grafikleri oluşturmak için alan uzmanlığını kullanıyor ve yapay zeka yanıtlarını doğrulanmış bilgilere daha da sağlamlaştırıyor. RAG, LLM’lerin sorgulara yanıt verirken eğitim veri kaynakları dışındaki belgelere referans vermesine olanak tanır. Bu yöntemler henüz gelişme aşamasında olsa da Bala, önümüzdeki yıl hızlı ilerlemeler beklediğini söyledi.
Uzmanlar, yapay zeka neslinin olasılıksal yaklaşımından daha yapılandırılmış olan denetimli makine öğreniminin, yüksek doğruluk gerektiren uygulamalar için daha güvenilir sonuçlar verme eğiliminde olduğunu söyledi.
Carignan, halüsinasyonları azaltırken yapay zekanın faydalarından yararlanmak için çok yönlü bir yaklaşım öneriyor. Titiz test ve doğrulama gibi sağlam veri bilimi ilkeleri, katmanlı makine öğrenimi yaklaşımlarıyla bir araya gelerek hataların azaltılmasına yardımcı olabilir. Ancak teknolojinin tek başına yeterli olmadığını söyledi. Yapay zekanın güvenliğini sağlamak ve çalışanların yapay zekanın sınırlamaları konusunda eğitilmesini sağlamak için güvenlik ekiplerinin tüm süreç boyunca yer alması gerekir.