Editörün notu: Aşağıda, BlackBerry Kıdemli Başkan Yardımcısı ve CISO’su Arvind Raman’ın konuk makalesi yer almaktadır.
Dünyanın dört bir yanındaki şirketler, çalışanlarının işyerinde OpenAI ChatGPT’yi nasıl kullandıklarını düzenlemek için önlemler alıyor. Tüm yeni teknolojilerde olduğu gibi, ChatGPT gibi üretken yapay zeka modelleri hem fayda hem de risk kaynağı olabilir.
Sektördeki en iyi uygulamaları araştırdıktan sonra, bazı kuruluşlar – en azından şimdilik – risklerin faydalardan ağır bastığına karar veriyor. Sonuç olarak, ChatGPT’nin yetkisiz kullanımını beyan etmeyi ve uygun destek ve yönlendirme sağlanana kadar şirket ağlarından ChatGPT’ye erişimi engellemeyi seçebilirler.
Gartner’a göre insan kaynakları uzmanlarının yaklaşık yarısı, çalışanlarının ChatGPT kullanımıyla ilgili kılavuzlar oluşturduklarını söyledi. Chatbot’u işyerinde kullandığını kabul edenlerin sayısı göz önüne alındığında bu hiç de şaşırtıcı değil.
Bir Fishbowl anketi, çalışan profesyonellerin %43’ünün işteki görevleri tamamlamak için ChatGPT gibi yapay zeka araçlarını kullandığını gösteriyor. Ankete katılanların üçte ikisinden fazlası patronlarına bunu yaptıklarını söylememişti.
ChatGPT, kullanıma sunulduğu ilk iki ayda 100 milyondan fazla kullanıcıyı bir araya getiren tarihin en hızlı büyüyen dijital platformudur. Karşılaştırma için, WhatsApp üç buçuk yıl sonra bu kadar çok kullanıcıya sahipti ve Facebook’un aynı dönüm noktasına ulaşması dört buçuk yıl sürdü.
ChatGPT aynı zamanda yapay zeka tarafından yönetilen, geniş çapta erişilebilir ilk doğal dil işleme sohbet robotudur. İnsan benzeri konuşmalarda etkileşim kurabilir ve e-postalar, kitaplar, şarkı sözleri ve uygulama kodu gibi içerikler oluşturabilir. Bazı çalışanlarınızın bugün ChatGPT kullanıyor olma ihtimali yüksektir.
Ancak ChatGPT veya benzeri yapay zeka destekli sohbet robotlarından yararlanmak kuruluşunuz için güvenli mi? Ve güvenlik, mahremiyet ve sorumluluk üzerindeki etkileri nelerdir?
riskleri göz önünde bulundurarak
Bu yapay zeka aracıyla ilişkili tüm potansiyel ödünleşimleri bilmek için henüz çok erken, ancak ChatGPT’yi ve sayıları giderek artan benzer araçları kullanmanın her kuruluşun göz önünde bulundurması gereken bazı riskleri vardır.
Hassas üçüncü taraf veya dahili şirket bilgileri ChatGPT’ye girilirse, bu bilgiler sohbet robotunun veri modelinin bir parçası olur ve ilgili sorular soran diğer kişilerle paylaşılarak veri sızıntısına neden olur. Gizli bilgilerin ChatGPT’ye (veya herhangi bir çevrimiçi kaynağa) yetkisiz olarak ifşa edilmesi, bir kuruluşun güvenlik politikalarını ihlal edebilir.
ChatGPT güvenliği tehlikeye girerse, bir kuruluşun sözleşmeye bağlı veya yasal olarak koruması gereken içerik sızdırılabilir ve kuruluşa atfedilebilir, bu da şirketin itibarını etkileyebilir.
ChatGPT, bilgileri kendi verilerine çeken üçüncü taraf bir sistemdir. AI bot güvenliğinden taviz verilmemiş olsa bile, herhangi bir gizli müşteri veya iş ortağı bilgisinin paylaşılması, genellikle sözleşmeden doğan veya yasal olarak bu bilgileri korumanız gerektiğinden, müşteriler ve iş ortaklarıyla yaptığınız sözleşmeleri ihlal edebilir.
ChatGPT’nin ürettiği kodun kime ait olduğu konusunda da zorluklar vardır. Hizmet şartları, ChatGPT çıktısının girdiyi sağlayan kişinin veya hizmetin mülkiyetinde olduğunu belirtir. Bu çıktı, diğer kaynakların girdilerinden toplanan yasal olarak korunan verileri içerdiğinde karmaşıklıklar ortaya çıkar.
ChatGPT’nin, lisanslı açık kaynak malzemeler de dahil olmak üzere, telif hakkıyla korunan mülkten esinlenen yazılı malzeme oluşturmak için kullanılması durumunda telif hakkı endişeleri vardır.
Örneğin, ChatGPT açık kaynak kitaplıkları konusunda eğitilmişse ve bir soruyu yanıtlarken bu kodu “tekrar oynatırsa” ve ardından bir geliştirici, bu kodu şirketin gönderdiği ürünlere koyarsa, şirketin “düşmanca olmayan” Açık Kaynak Yazılımını ihlal etmesine neden olabilir. (OSS) lisansları.
Hizmet şartları, ChatGPT’nin başka herhangi bir yapay zekanın geliştirilmesinde kullanılamayacağını belirtir. ChatGPT’nin bu şekilde kullanılması, şirketiniz bu alandaysa gelecekteki yapay zeka gelişimini tehlikeye atabilir.
AI sohbet robotlarının gizlilik hususları
ChatGPT şu anda kullanıcıları adlar veya e-posta adresleri gibi hassas veya kişisel bilgilerin sağlanması veya girilmesi konusunda uyarıyor. Ancak, bu aracı oluşturanların uluslararası gizlilik yasalarına nasıl uydukları veya kişisel verileri korumak ve bireylerin verileri üzerindeki haklarına saygı duymak için uygun kontrollerin yürürlükte olup olmadığı açık değildir.
Herhangi bir kişisel verinin üretken bir yapay zeka sistemine sağlanması, verilerin ek amaçlar için yeniden kullanılması olasılığını ortaya çıkararak potansiyel olarak kötüye kullanım ve itibarın zarar görmesiyle sonuçlanabilir.
Kişisel verilerin onaylanmayan amaçlarla kullanılması, bilgilerini kuruluşunuza sağlayan kişilerin güvenini zedeleyebilir ve kuruluşun çalışanlara, müşterilere ve ortaklara yönelik gizlilik taahhütlerini ihlal edebilir.
Kuruluşlar, ChatGPT’nin ve onu takip edecek birçok yapay zeka aracının kullanımının güvenli olup olmadığını değerlendirmelidir. Önde gelen teknolojileri benimsemek kesinlikle işi etkinleştirebilir, ancak yeni platformlar her zaman potansiyel siber güvenlik, yasal ve gizlilik riski açısından değerlendirilmelidir.