İşletmenizin verilerini ChatGPT ile paylaşmak: Ne kadar riskli?


[ This article was originally published here ]

Bu yazının içeriği tamamen yazarın sorumluluğundadır. AT&T, yazar tarafından bu makalede sağlanan görüşlerin, konumların veya bilgilerin hiçbirini benimsemez veya desteklemez.

Bir doğal dil işleme modeli olan ChatGPT ve diğer benzer makine öğrenimi tabanlı dil modelleri, büyük miktarda metin verisi üzerinde eğitilir. Tüm bu verileri işleyen ChatGPT, gerçek bir insandan geliyormuş gibi görünen yazılı yanıtlar üretebilir.

ChatGPT’yi alır. Bu bilgiler hassas iş verilerinizi içeriyorsa, bu bilgileri ChatGPT ile paylaşmak potansiyel olarak riskli olabilir ve siber güvenlik endişelerine yol açabilir.

Örneğin, ChatGPT’ye şirketin finansal bilgilerini, şirkete ait yazılım kodunu veya şirket içi sunumlar için kullanılan materyalleri verirseniz, pratikte herkesin bu hassas bilgileri yalnızca ChatGPT’ye sorarak elde edebileceğini fark etmeseniz ne olur? ChatGPT ile etkileşim kurmak için akıllı telefonunuzu kullanıyorsanız, ChatGPT sorgu geçmişinize erişmek için gereken tek şey bu olabilir.

Bu çıkarımların ışığında, ChatGPT’nin kullanıcılarının girdi verilerini depolayıp saklamadığını ve nasıl sakladığını ve ayrıca hassas iş verilerini ChatGPT ile paylaşırken karşılaşabileceğiniz potansiyel riskleri tartışalım.

ChatGPT, kullanıcıların giriş verilerini depolar mı?

Cevap karmaşık. ChatGPT, özellikle bu verileri başkalarının sorgulaması için kullanılabilir hale getirmek için sorgulardan modellere otomatik olarak veri eklemese de, herhangi bir istem, büyük dil modelinin arkasındaki kuruluş olan OpenAI tarafından görünür hale gelir.

ChatGPT’yi yönlendiren büyük dil öğrenme modellerine karşı henüz üyelik çıkarımı saldırıları gerçekleştirilmemiş olsa da, kaydedilmiş istemleri ve gömülü öğrenmeleri içeren veritabanları bir siber güvenlik ihlali nedeniyle potansiyel olarak tehlikeye girebilir. ChatGPT’yi geliştiren ana şirket olan OpenAI, dil öğrenme modellerinin kişisel verilere ve hassas bilgilere genel erişimini sınırlamak için diğer şirketlerle birlikte çalışıyor.

Ancak teknoloji henüz başlangıç ​​aşamasındadır – ChatGPT daha yeni geçen yılın Kasım ayında halka sunuldu. ChatGPT, genel kullanıma sunulmasından sadece iki ay sonra, rekor kıran hızlara ulaşmıştı. Bu kadar hızlı büyüme ve genişleme ile, düzenlemelere ayak uydurmak yavaş olmuştur. Kullanıcı tabanı o kadar geniştir ki, model genelinde çok sayıda güvenlik açıkları ve güvenlik açıkları vardır.

İş verilerini ChatGPT ile paylaşmanın riskleri

Haziran 2021’de Apple, Stanford Üniversitesi, Google, Harvard Üniversitesi ve diğerlerinden ChatGPT’ye benzer bir dil öğrenme modeli olan GPT-2’nin eğitim belgelerinden hassas bilgileri doğru bir şekilde hatırlayabildiğini ortaya çıkaran araştırmacılar.

Rapor, GPT-2’nin belirli kişisel tanımlayıcılarla bilgileri çağırabildiğini, tam metin dizilerini yeniden oluşturabildiğini ve istendiğinde diğer hassas bilgileri sağlayabildiğini buldu. Bu “eğitim verisi çıkarma saldırıları”, bilgisayar korsanları makine öğrenimi araştırmacı verilerine erişebileceğinden ve korunan fikri mülkiyetlerini çalabileceğinden, makine öğrenimi modelleri üzerinde çalışan araştırmacıların güvenliğine yönelik büyüyen bir tehdit oluşturabilir.

Cyberhaven adlı bir veri güvenliği şirketi, yakın zamanda önlediği ChatGPT siber güvenlik açıklarıyla ilgili raporlar yayınladı. Raporlara göre Cyberhaven, güvenlik firmasının müşteri şirketlerinde ChatGPT platformuna güvenli olmayan veri girişi taleplerini belirledi ve önledi.

Güvenlik platformundan alınan istatistikler, ortalama bir şirketin hassas verileri ChatGPT’ye haftada yüzlerce kez yayınladığını gösteriyor. Bu talepler, çalışanların müşteri veya hasta bilgilerini, kaynak kodlarını, gizli verileri ve düzenlenmiş bilgileri içeren verileri girmeye çalışmasıyla ciddi siber güvenlik endişeleri ortaya çıkardı.

Örneğin tıbbi klinikler, hasta verilerinin her zaman korunmasına yardımcı olmak için özel hasta iletişim yazılımları kullanır. Göre , bu, tıbbi kliniklerin hastalarının hassas bilgilerinin güvende kalmasını sağlarken en iyi kararları verebilmeleri için eyleme geçirilebilir veriler ve analitikler elde edebilmelerini sağlamak için önemlidir. Ancak ChatGPT kullanmak, bu tür bilgilerin güvenliği için tehdit oluşturabilir.

Rahatsız edici bir örnekte, bir doktor, hastanın adını ve tıbbi durumuyla ilgili belirli ayrıntıları ChatGPT’ye yazarak LLM’yi o hastanın sigorta şirketine yönlendirdi. Başka bir endişe verici örnekte, bir işletme yöneticisi, firmasının 2023 strateji belgesinin tamamını ChatGPT platformuna kopyalayarak LLM’nin strateji belgesinden bir PowerPoint sunumu hazırlamasına neden oldu.

Veri teşhiri

Verilerinizi önceden korumak için alabileceğiniz önleyici tedbirler vardır ve bazı şirketler şimdiden ChatGPT kullanımından kaynaklanan veri sızıntılarını önlemek için düzenleyici tedbirler uygulamaya başlamıştır.

Örneğin JP Morgan, araca kimin, hangi amaçlarla ve ne sıklıkta eriştiğini belirlemenin imkansız olduğunu öne sürerek tüm çalışanları için ChatGPT kullanımı. ChatGPT’ye erişimi tamamen kısıtlamak kapsamlı bir çözümdür, ancak yazılım gelişmeye devam ettikçe şirketlerin yeni teknolojiyi içeren başka stratejiler bulması gerekecektir.

Bunun yerine olası riskler ve tehlikeler hakkında şirket çapında farkındalığı artırmak, çalışanların ChatGPT ile etkileşimleri konusunda daha duyarlı olmalarına yardımcı olabilir. Örneğin, Amazon çalışanları ChatGPT ile hangi bilgileri paylaştıklarına dikkat etmelidir.

Çalışanlar, belgeleri doğrudan ChatGPT’ye kopyalayıp yapıştırmamaları konusunda uyarıldı ve adlar, adresler, kredi kartı bilgileri ve şirketteki belirli pozisyonlar gibi kişisel olarak tanımlanabilir bilgileri kaldırmaları talimatı verildi.

Ancak siz ve iş arkadaşlarınızın ChatGPT ile paylaştığı bilgileri sınırlandırmak yalnızca ilk adımdır. Bir sonraki adım, verilerinizin nerede ve nasıl paylaşılacağı konusunda daha fazla kontrole sahip olmanızı sağlayan sağlam güvenlik sağlayan güvenli iletişim yazılımına yatırım yapmaktır. Örneğin, güvenli bir uygulama içi sohbet oluşturmak, verilerinizin meraklı gözlerden uzak durmasını sağlar. Uygulamanıza sohbet ekleyerek, kullanıcıların içerik açısından zengin, sorunsuz ve en önemlisi güvenli sohbet deneyimleri yaşamasını sağlarsınız.

Kullanıcılar için ChatGPT. Kulağa doğal, kulağa hoş gelen dil yanıtları oluşturmanın yanı sıra kod oluşturabilir, soruları yanıtlayabilir, araştırma süreçlerini hızlandırabilir ve işletmelerle ilgili belirli bilgiler sağlayabilir.

Yine aynı amaçlara ulaşmak için daha güvenli ve hedefe yönelik bir yazılım veya platform seçmek, işletme sahipleri için siber güvenlik ihlallerini önlemenin iyi bir yoludur. Bir marka, mevcut sosyal medya metriklerini aramak için ChatGPT’yi kullanmak yerine, erişim, dönüşüm ve etkileşim oranları ile hedef kitle verilerini içeren yerleşik bir sosyal medya izleme aracına güvenebilir.

Çözüm

ChatGPT ve diğer benzer doğal dil öğrenme modelleri, şirketlere üretkenlik, yazma ve diğer görevler sağlar. Bu yeni AI teknolojisini benimsemek için herhangi bir eğitim gerekmediğinden, herhangi bir çalışan ChatGPT’ye erişebilir. Bu, olası bir siber güvenlik ihlali riskinin arttığı anlamına gelir.

Şirketler içinde yaygın eğitim ve halkı bilinçlendirme kampanyaları, zararlı veri sızıntılarını önlemenin anahtarı olacaktır. Bu arada işletmeler, müşteriler ve hastalarla etkileşim kurmak, notlar ve e-postalar hazırlamak, sunumlar oluşturmak ve güvenlik olaylarına yanıt vermek gibi günlük görevler için alternatif uygulamalar ve yazılımlar benimsemek isteyebilir.

ChatGPT hala yeni ve gelişmekte olan bir platform olduğundan, risklerin geliştiriciler tarafından etkili bir şekilde hafifletilmesi biraz zaman alacaktır. Önleyici önlem almak, işletmenizin potansiyel veri ihlallerinden korunmasını sağlamanın en iyi yoludur.

reklam



Source link