Yapay zekanın en büyük destekçilerinden biri olan Google, kendi personelini chatbot’lar konusunda uyardı – Yazılım


Alphabet, programı dünya çapında pazarlarken aynı zamanda kendi Bard’ı da dahil olmak üzere sohbet robotlarını nasıl kullandıkları konusunda çalışanları uyarıyor, konuya aşina dört kişi söyledi Reuters.

Google’ın ebeveyni, çalışanlarına gizli materyallerini AI sohbet botlarına girmemelerini tavsiye etti, dedi ve şirket, bilgilerin korunmasına ilişkin uzun süredir devam eden politikayı gerekçe göstererek onayladı.

Aralarında Bard ve ChatGPT’nin de bulunduğu sohbet robotları, kullanıcılarla sohbet etmek ve sayısız istemi yanıtlamak için sözde üretken yapay zekayı kullanan, insana benzeyen programlardır.

İnsan incelemeciler sohbetleri okuyabilir ve araştırmacılar, benzer yapay zekanın eğitim sırasında emdiği verileri yeniden üreterek bir sızıntı riski oluşturabileceğini keşfetti.

Bazı kaynaklara göre Alphabet, mühendislerini sohbet robotlarının oluşturabileceği bilgisayar kodunun doğrudan kullanımından kaçınmaları konusunda da uyardı.

Yorum istendiğinde şirket, Bard’ın istenmeyen kod önerilerinde bulunabileceğini, ancak yine de programcılara yardımcı olduğunu söyledi.

Google ayrıca teknolojisinin sınırlamaları konusunda şeffaf olmayı hedeflediğini söyledi.

Endişeler, Google’ın ChatGPT ile rekabet halinde başlattığı yazılımdan kaynaklanan ticari zararlardan nasıl kaçınmak istediğini gösteriyor.

Google’ın ChatGPT’nin destekçileri OpenAI ve Microsoft’a karşı yarışında söz konusu olan, milyarlarca dolarlık yatırım ve yeni AI programlarından elde edilen henüz anlatılmamış reklam ve bulut geliridir.

Google’ın uyarısı, şirketler için bir güvenlik standardı haline gelen şeyi, yani personeli halka açık sohbet programlarını kullanma konusunda uyarmayı da yansıtıyor.

Şirketler, aralarında Samsung, Amazon.com ve Deutsche Bank’ın da bulunduğu dünya çapında giderek artan sayıda işletmenin AI sohbet robotlarına korkuluklar kurduğunu söyledi. Reuters.

Yorum taleplerine geri dönmeyen Apple’ın da geri döndüğü bildiriliyor.

Ağ sitesi Fishbowl tarafından ABD merkezli önde gelen şirketler de dahil olmak üzere yaklaşık 12.000 katılımcıyla yapılan bir ankete göre, Ocak ayı itibarıyla profesyonellerin yaklaşık yüzde 43’ü ChatGPT veya diğer AI araçlarını patronlarına söylemeden kullanıyordu.

Insider’ın bildirdiğine göre Google, Şubat ayına kadar Bard’ı piyasaya sürülmeden önce test eden personele dahili bilgi vermemesini söyledi.

Şimdi Google, yaratıcılık için bir sıçrama tahtası olarak Bard’ı 180’den fazla ülkede ve 40 dilde kullanıma sunuyor ve uyarıları kod önerilerine kadar uzanıyor.

Google söyledi Reuters İrlanda Veri Koruma Komisyonu ile ayrıntılı görüşmeler yaptı ve düzenleyicilerin sorularını yanıtlıyor. Politika şirketin, sohbet robotunun mahremiyet üzerindeki etkisi hakkında daha fazla bilgi gelene kadar bu hafta Bard’ın AB lansmanını ertelediğini bildirdi.

Hassas bilgilerle ilgili endişeler

Bu tür bir teknoloji, görevleri büyük ölçüde hızlandırma sözü veren e-postaları, belgeleri ve hatta yazılımın taslağını oluşturabilir. Ancak bu içeriğe yanlış bilgiler, hassas veriler ve hatta bir “Harry Potter” romanından telif hakkıyla korunan bölümler dahil olabilir.

1 Haziran’da güncellenen bir Google gizlilik bildiriminde ayrıca “Gizli veya hassas bilgileri Bard görüşmelerinize dahil etmeyin” ifadesi yer alıyor.

Bazı şirketler bu tür endişeleri gidermek için yazılımlar geliştirmiştir.

Örneğin, web sitelerini siber saldırılara karşı koruyan ve başka bulut hizmetleri sunan Cloudflare, işletmelere bazı verilerin dışa akışını etiketleme ve kısıtlama yeteneği pazarlıyor.

Google ve Microsoft ayrıca ticari müşterilere daha yüksek bir fiyat etiketiyle gelen ancak verileri genel AI modellerine çekmekten kaçınan konuşma araçları sunuyor.

Bard ve ChatGPT’deki varsayılan ayar, kullanıcıların silmeyi seçebilecekleri konuşma geçmişini kaydetmektir.

Microsoft’un tüketici pazarlama sorumlusu Yusuf Mehdi, şirketlerin çalışanlarının iş için halka açık sohbet robotlarını kullanmasını istememesinin “mantıklı” olduğunu söyledi.

Mehdi, Microsoft’un ücretsiz Bing sohbet robotunun kendi kurumsal yazılımıyla nasıl karşılaştırıldığını açıklayarak, “Şirketler gerektiği gibi muhafazakar bir bakış açısı benimsiyor” dedi.

“Orada politikalarımız çok daha katı.”

Microsoft, personelin kendi programı da dahil olmak üzere kamuya açık AI programlarına gizli bilgileri girmesine ilişkin genel bir yasağın olup olmadığı konusunda yorum yapmayı reddetti, ancak oradaki farklı bir yönetici Reuters’e kullanımını kişisel olarak kısıtladığını söyledi.

Cloudflare CEO’su Matthew Prince, gizli konuları sohbet botlarına yazmanın “bir grup doktora öğrencisini tüm özel kayıtlarınızda serbest bırakmak” gibi olduğunu söyledi.



Source link