Zoom, makine öğrenimi modellerini eğitmek için müşteri verilerini kullanmayı planladığı için son zamanlarda bazı eleştiriler aldı. Ancak gerçek şu ki, video konferans şirketi benzer planlara sahip ne ilk ne de son olacak.
İşletmeler, özellikle de yapay zeka araçlarını dahili kullanım için entegre etmekle meşgul olanlar, bu potansiyel planları, mümkün olan yerlerde yeni süreçler, gözetim ve teknoloji kontrolleriyle proaktif bir şekilde ele alınması gereken, ortaya çıkan zorluklar olarak görmelidir.
Terk Edilen Yapay Zeka Planları
Zoom bu yılın başlarında hizmet şartlarını değiştirerek, yapay zeka ve makine öğrenimi modellerini eğitmek için en azından müşteri içeriğinin bir kısmını kullanma hakkını kendisine verdi. Ağustos ayı başlarında şirket, bazı müşterilerin ses, görüntü, sohbet ve diğer iletişimlerinin bu şekilde kullanılmasından endişe duymasının ardından bu değişiklikten vazgeçti.
Bu olay, şimdilik mutlu sona rağmen, hızla gelişen yapay zeka çağında şirketlerin teknoloji satıcılarının ve diğer üçüncü tarafların verilerini nasıl kullanabileceğine daha fazla dikkat etmesi gerektiğini hatırlatıyor.
Symmetry Systems veri güvenliği baş savunucusu Claude Mandy, bir teknoloji şirketinin yapay zeka eğitimi için toplayabileceği verilerin, şirketin hizmet kullanımı hakkında toplayabileceği verilerden çok da farklı olmadığını varsaymanın büyük bir hata olduğunu söylüyor. Mandy, “Teknoloji şirketleri, müşterilerinin hizmet kullanımına ilişkin verileri uzun süredir kullanıyor” diyor. “Ancak bu, hizmetler tarafından oluşturulan veya depolanan içerik veya verilerden ziyade genellikle kullanıma ilişkin meta verilerle sınırlıydı.” Temelde her ikisi de müşteri verilerini içerse de veriler arasında büyük bir fark vardır. hakkında müşteri ve veriler ile ilgili müşteri diyor.
Açık fark
Bu, büyük teknoloji şirketlerinin ve tüketicilerin dahil olduğu bir avuç davanın halihazırda ilgi odağı olan bir ayrımdır. Bunlardan biri Google’ı milyonlarca tüketiciden oluşan bir sınıfla karşı karşıya getiriyor. Temmuz ayında San Francisco’da açılan dava, Google’ı kişisel ve mesleki bilgiler, yaratıcı ve metinle yazılmış çalışmalar, fotoğraflar ve hatta e-postalar da dahil olmak üzere İnternet’teki kamuya açık verileri kazımak ve bunları Bard üretken yapay zeka teknolojisini eğitmek için kullanmakla suçluyor. Davada, “FTC’nin ifadesiyle, tüm teknoloji endüstrisi “aynısını yapmak için koşuyor”, yani bulabildikleri kadar çok veriyi süpürüyor.”
Başka bir toplu dava, Microsoft’u ChatGPT’yi ve Dall.E ve Vall.E gibi diğer AI araçlarını eğitmek için tamamen aynı şeyi yapmakla suçluyor. Temmuz ayında komedyen Sarah Silverman ve iki yazar, Meta ve Microsoft’u telif hakkıyla korunan materyallerini yapay zeka eğitimi amacıyla izinsiz kullanmakla suçladı.
Davalar tüketicileri ilgilendirse de kuruluşlar için çıkarılacak sonuç, teknoloji şirketlerinin mümkün olduğunca kendi verileriyle aynı şeyi yapmamalarını sağlamaları gerektiğidir.
“Kullanıcı deneyimini geliştirmek için müşteri verilerinin kullanılması ile [for] AI eğitimi. Bunlar elmalar ve portakallar,” diye uyarıyor Qrypt’in kurucu ortağı ve ABD istihbarat topluluğunun eski üyesi Denis Mandich. “Yapay zekanın, insanları ve şirketleri tehlikeye atacak şekilde bireysel öngörüde bulunma gibi ek bir riski var” diye belirtiyor.
Örnek olarak, üçüncü taraf bir iletişim platformunda video ve dosya aktarım hizmetlerini kullanan bir girişime işaret ediyor. Mandich, bu veriler üzerinde eğitilmiş ChatGPT gibi üretken bir yapay zeka aracının, bu girişimin rakibi için potansiyel olarak iyi bir bilgi kaynağı olabileceğini söylüyor. “Buradaki sorun içerikle ilgili, kullanıcıların video/ses kalitesi, GUI vb. deneyimiyle ilgili değil.”
Gözetim ve Durum Tespiti
Elbette asıl soru, kuruluşların hassas verilerinin yapay zeka modellerinin bir parçası haline gelmesi riskini azaltmak için tam olarak ne yapabilecekleridir.
DoControl’ün kurucu ortağı ve baş risk sorumlusu Omri Weinberg, başlangıç noktasının, özel dağıtım kapsamında olmayan tüm yapay zeka eğitimlerini ve üretken yapay zeka özelliklerini devre dışı bırakmak olacağını söylüyor. “Bu önlem adımı, verilerin dışarıya ifşa edilmesini önlemek açısından önemlidir [when] kullanım amacı ve potansiyel riskleri konusunda kapsamlı bir anlayışa sahip değiliz.”
Language I/O’nun kurucusu ve CEO’su Heather Shoemaker, teknoloji satıcılarının şirket verilerine ve bu verilerin nasıl kullanıldığına ilişkin hizmet şartlarında belirsizlik olmadığından da emin olun, diyor. “Etik veri kullanımı politika şeffaflığına ve bilgilendirilmiş rızaya bağlıdır” diye belirtiyor.
Ayrıca yapay zeka araçları, müşteri bilgilerini eğitim kullanımının ötesinde depolayabilir; bu da verilerin bir siber saldırı veya veri ihlali durumunda potansiyel olarak savunmasız olabileceği anlamına gelir.”
Mandich, şirketlerin teknoloji sağlayıcılarının mümkün olan her yerde uçtan uca şifreleme kullanması konusunda ısrarcı olduğunu savunuyor. “Veri madenciliği için ihtiyaç duymadıkları ve şirketinizin bilerek buna izin vermeyi kabul etmedikleri sürece üçüncü tarafların erişimini riske atmanın hiçbir nedeni yok” diyor. “Bu, EULA’da açıkça ayrıntılandırılmalı ve müşteri tarafından talep edilmelidir.” İdeal olanın, tüm şifreleme anahtarlarının sağlayıcı tarafından değil şirket tarafından verilmesi ve yönetilmesi olduğunu söylüyor.