geçmişin üzerinde ChatGPT, hikayelerden kodlara kadar her şeyi yazarak gerçekçi görünen metinler oluşturma becerisiyle sekiz ay boyunca milyonlarca insanı etkiledi. Ancak OpenAI tarafından geliştirilen chatbot, yapabilecekleri konusunda hala nispeten sınırlı.
Büyük dil modeli (LLM), görünüşte ilgili metin oluşturmak için kullanıcılardan “istemler” alır. Bu yanıtlar, kısmen Eylül 2021’de internetten alınan verilerden oluşturulmuştur ve web’den yeni veriler çekmez. İşlevsellik ekleyen ancak yalnızca OpenAI modelinin güncellenmiş sürümü olan GPT-4’e erişim için ödeme yapan kişiler tarafından kullanılabilen eklentileri girin.
OpenAI, Mart ayında ChatGPT için eklentiler başlattığından beri, geliştiriciler, sohbet robotunun çok daha fazlasını yapmasına izin veren eklentiler oluşturmak ve yayınlamak için yarıştı. Mevcut eklentiler, uçuşları aramanıza ve geziler planlamanıza olanak tanır ve ChatGPT’nin web sitelerindeki, belgelerdeki ve videolardaki metinlere erişmesini ve bunları analiz etmesini sağlar. Diğer eklentiler daha niş olup, size Tesla kullanım kılavuzuyla sohbet etme veya İngiliz siyasi konuşmalarında arama yapma olanağı vaat ediyor. Şu anda ChatGPT’nin eklenti mağazasında listelenen 100’den fazla eklenti sayfası bulunmaktadır.
Ancak bu uzantıların patlamasıyla birlikte güvenlik araştırmacıları, eklentilerin çalışma biçiminde bazı sorunlar olduğunu ve bu sorunların insanların verilerini riske atabileceğini veya kötü niyetli bilgisayar korsanları tarafından potansiyel olarak suistimal edilebileceğini söylüyor.
Electronic Arts’ta kırmızı ekip direktörü ve güvenlik araştırmacısı olan Johann Rehberger, boş zamanlarında ChatGPT’nin eklentileriyle ilgili sorunları belgeliyor. Araştırmacı, ChatGPT eklentilerinin birinin sohbet geçmişini çalmak, kişisel bilgileri elde etmek ve birinin makinesinde kodun uzaktan çalıştırılmasına izin vermek için nasıl kullanılabileceğini belgeledi. Çoğunlukla, verileri çevrimiçi hesaplar arasında paylaşmanıza izin veren bir web standardı olan OAuth’u kullanan eklentilere odaklanıyor. Rehberger, sorunları dile getirmek için yaklaşık yarım düzine eklenti geliştiricisiyle özel olarak iletişim kurduğunu ve birkaç kez OpenAI ile iletişime geçtiğini söylüyor.
Rehberger, “ChatGPT eklentiye güvenemez” diyor. “Eklentiden geri dönen şeye temelde güvenemez çünkü herhangi bir şey olabilir.” Kötü amaçlı bir web sitesi veya belge, bir eklenti kullanarak büyük dil modeline (LLM) karşı hızlı enjeksiyon saldırısı gerçekleştirmeye çalışabilir. Veya kötü amaçlı yükler ekleyebilir, diyor Rehberger.
Araştırmacı, verilerin potansiyel olarak çapraz eklenti isteği sahteciliği yoluyla da çalınabileceğini söylüyor. Bir web sitesi, ChatGPT’nin başka bir eklentiyi açmasını ve ekstra eylemler gerçekleştirmesini sağlayan bir hızlı ekleme içerebilir ve bunu bir kavram kanıtı aracılığıyla gösterebilir. Araştırmacılar, bir eklentinin diğerini çalıştırması için çağırdığı buna “zincirleme” diyor. Rehberger, ChatGPT eklentilerinde “gerçek güvenlik sınırları yoktur” diyor. “Güvenliğin ve güvenin ne olduğu, asıl sorumlulukların ne olduğu çok iyi tanımlanmamış. [are] her paydaşın.”
ChatGPT’nin eklentileri, Mart ayında piyasaya sürüldüklerinden beri beta sürümündedir; bu, esasen erken bir deneysel sürümdür. ChatGPT’de eklentiler kullanırken, sistem, insanların bir eklentiyi kullanmadan önce ona güvenmeleri gerektiği ve eklentinin çalışması için ChatGPT’nin konuşmanızı ve diğer verileri eklentiye göndermesi gerekebileceği konusunda uyarır.
OpenAI sözcüsü Niko Felix, şirketin ChatGPT’yi sisteminin kötüye kullanılmasına yol açabilecek “istismarlara” karşı iyileştirmek için çalıştığını söylüyor. Şu anda eklentileri mağazasına dahil edilmeden önce inceliyor. Şirket, Haziran ayındaki bir blog gönderisinde, “bir aracın çıktısından elde edilen güvenilmeyen verilerin, modele istenmeyen eylemleri gerçekleştirme talimatı verebileceğini” gösteren bir araştırma gördüğünü söyledi. Ve geliştiricileri, ChatGPT tarafından e-posta göndermek gibi “gerçek dünya etkisi” olan eylemler yapılmadan önce insanları onay düğmelerini tıklatmaya teşvik ediyor.