Yapay Zeka Artık İş Arkadaşınız. Güvenebilir misin?


Ancak Elcock, “Bu teknolojinin çalışanları izlemek için kullanılması çok uzun sürmeyecek gibi görünüyor” diyor.

Otosansür

Üretken yapay zeka birçok potansiyel risk teşkil ediyor ancak işletmelerin ve bireysel çalışanların gizliliği ve güvenliği artırmak için atabileceği adımlar var. Veri firması Sama’nın pazarlama ve topluluktan sorumlu başkan yardımcısı Lisa Avvocato, öncelikle, gizli bilgileri ChatGPT veya Google’ın Gemini gibi kamuya açık bir araç istemine koymayın, diyor.

Bir bilgi istemi hazırlarken çok fazla paylaşımdan kaçınmak için genel olun. “‘Bütçem burada, hassas bir proje için harcama teklifi yazın’ değil, ‘Bütçe harcamaları için bir teklif şablonu yazın’ diye sorun” diyor. “İlk taslağınız olarak yapay zekayı kullanın, ardından eklemeniz gereken hassas bilgileri katmanlayın.”

Avvocato, bunu araştırma için kullanıyorsanız Google’ın Yapay Zeka Genel Bakışlarında görülenlere benzer sorunları, sağladığı özellikleri doğrulayarak önleyin diyor. “Kaynaklarına referanslar ve bağlantılar sağlamasını isteyin. Yapay zekadan kod yazmasını isterseniz, bunun iyi bir şey olduğunu varsaymak yerine yine de onu incelemeniz gerekir.”

Microsoft, Copilot’un doğru şekilde yapılandırılması gerektiğini ve “en az ayrıcalık”ın (kullanıcıların yalnızca ihtiyaç duydukları bilgilere erişmesi gerektiği kavramı) uygulanması gerektiğini kendisi belirtti. Prism Infosec’ten Robinson, bunun “çok önemli bir nokta” olduğunu söylüyor. “Kuruluşlar bu sistemlerin temelini oluşturmalı ve sadece teknolojiye güvenip her şeyin yolunda olacağını varsaymamalı.”

Ayarlarda kapatmadığınız veya kurumsal sürümü kullanmadığınız sürece ChatGPT’nin, modellerini eğitmek için paylaştığınız verileri kullandığını da belirtmekte fayda var.

Güvence Listesi

Üretken yapay zekayı ürünlerine entegre eden firmalar, güvenliği ve gizliliği korumak için ellerinden geleni yaptıklarını söylüyor. Microsoft, Geri Çağırma ürününde güvenlik ve gizlilik hususlarını ve bu özelliğin kontrol edilebilmesini özetlemeye isteklidir. Ayarlar > Gizlilik ve güvenlik > Geri çağırma ve anlık görüntüler.

Google, Workspace’teki üretken yapay zekanın “kullanıcılara verileri üzerinde seçim ve kontrol hakkı veren temel gizlilik korumalarımızı değiştirmediğini” söylüyor ve bilgilerin reklam amacıyla kullanılmamasını şart koşuyor.

OpenAI, ürünlerinde güvenliği ve gizliliği nasıl koruduğunu yineliyor; kurumsal sürümler ise ekstra kontrollerle sunuluyor. Bir OpenAI sözcüsü WIRED’e şöyle konuştu: “Yapay zeka modellerimizin özel bireyleri değil, dünyayı öğrenmesini istiyoruz ve insanların verilerini ve gizliliğini korumak için adımlar atıyoruz.”

OpenAI, kişisel bilgilere erişmeye, dışa aktarmaya ve silmeye yönelik self servis araçların yanı sıra modellerini geliştirmek için içeriğin kullanımını devre dışı bırakma olanağı da dahil olmak üzere verilerin nasıl kullanıldığını kontrol etmenin yollarını sunduğunu söylüyor. Şirkete göre ChatGPT Ekibi, ChatGPT Enterprise ve API’si veriler veya konuşmalar konusunda eğitimli değil ve modelleri varsayılan olarak kullanımdan öğrenmiyor.

Her iki durumda da yapay zekalı iş arkadaşınız burada kalacak gibi görünüyor. Woollven, bu sistemler daha karmaşık hale geldikçe ve işyerinde her yerde mevcut oldukça, risklerin daha da yoğunlaşacağını söylüyor. “Görüntüleri, sesleri ve videoları analiz edip oluşturabilen GPT-4o gibi çok modlu yapay zekanın ortaya çıkışını zaten görüyoruz. Dolayısıyla artık şirketlerin koruma konusunda endişelenmesi gereken yalnızca metin tabanlı veriler değil.”

Woollven, bunu akılda tutarak, insanların ve işletmelerin yapay zekaya diğer üçüncü taraf hizmetleri gibi davranma zihniyetine girmeleri gerektiğini söylüyor. “Kamuoyuna yayınlanmasını istemediğiniz hiçbir şeyi paylaşmayın.”



Source link