ChatGPT, işletmeler için yasal ve uyumlulukla ilgili bir baş ağrısı yaratıyor


Geçtiğimiz birkaç ay içinde, ChatGPT profesyonel dünyayı kasıp kavurdu. Hemen hemen her soruyu yanıtlama ve içerik oluşturma yeteneği, insanları idari görevleri tamamlamak, mektuplar ve denemeler gibi uzun biçimli içerikler yazmak, özgeçmiş oluşturmak ve çok daha fazlası için yapay zeka destekli sohbet robotunu kullanmaya yöneltti.

Korn Ferry’nin araştırmasına göre, profesyonellerin %46’sı iş yerindeki görevleri tamamlamak için ChatGPT kullanıyor. Başka bir ankette, çalışanların %45’inin ChatGPT’yi rollerinde daha iyi sonuçlar elde etmenin bir yolu olarak gördüğü ortaya çıktı.

Ancak yapay zeka (AI) yazılımının çalışanlar tarafından göz ardı edilen daha karanlık bir tarafı var gibi görünüyor. Birçok işveren, çalışanlarının hassas kurumsal bilgileri ChatGPT gibi yapay zeka sohbet robotlarıyla paylaşarak siber suçluların eline geçebileceğinden korkuyor. Çalışanlar otomatik olarak içerik oluşturmak için ChatGPT kullandığında da telif hakkıyla ilgili bir soru var.

Yapay zeka araçları önyargılı ve ayrımcı bile olabilir ve potansiyel çalışanları taramak veya müşterilerden gelen soruları yanıtlamak için bunlara güvenen şirketler için potansiyel olarak büyük sorunlara neden olabilir. Bu sorunlar, birçok uzmanın ChatGPT’nin işyerinde kullanımının güvenlik ve yasal sonuçlarını sorgulamasına yol açmıştır.

Artan veri güvenliği riskleri

Netskope EMEA ve Latin Amerika Bilgi Güvenliği Sorumlusu (CISO) Neil Thacker’a göre, üretken AI araçlarının işyerinde artan kullanımı, işletmeleri ciddi veri sızıntılarına karşı oldukça savunmasız hale getiriyor.

ChatGPT’nin yaratıcısı OpenAI’nin, modellerini eğitmek için sunucularında depolanan verileri ve sorguları kullandığına dikkat çekiyor. Ve siber suçlular OpenAI sistemlerini ihlal ederse, işletmeler için “zarar verici” olabilecek “gizli ve hassas verilere” erişim sağlayabilirler.

OpenAI, o zamandan beri veri gizliliğini iyileştirmek amacıyla “devre dışı bırakma” ve “geçmişi devre dışı bırakma” seçeneklerini uygulamaya koydu, ancak Thacker, kullanıcıların bunları yine de manuel olarak seçmesi gerekeceğini söylüyor.

Birleşik Krallık’ın Veri Koruma ve Dijital Bilgi Yasa Tasarısı ve Avrupa Birliği’nin önerilen Yapay Zeka Yasası gibi yasalar, ChatGPT gibi yazılımların düzenlenmesiyle ilgili olarak doğru yönde atılmış bir adım olsa da Thacker, “şu anda şirketlerin üretken yapay zeka kullanan şirketlerin yöntemleri hakkında çok az güvence olduğunu söylüyor. verileri işleyecek ve saklayacaktır”.

AI’yı yasaklamak çözüm değil

AI hizmetlerinin güvenlik ve uyumluluk risklerinden endişe duyan işverenler, bunların işyerinde kullanımını yasaklamaya karar verebilir. Ancak Thacker bunun ters tepebileceği konusunda uyarıyor.

“Yapay zeka hizmetlerinin işyerinden yasaklanması sorunu hafifletmeyecek çünkü bu, muhtemelen ‘gölge yapay zeka’ya, yani üçüncü taraf yapay zeka hizmetlerinin şirket kontrolü dışında onaylanmamış kullanımına neden olacaktır,” diyor.

AI, insan zekası ile birleştirildiğinde daha değerlidir

Ingrid Verschuren, Dow Jones

Sonuç olarak, çalışanların yapay zeka araçlarını güvenli ve sorumlu bir şekilde kullanmasını sağlamak güvenlik liderlerinin sorumluluğundadır. Bunu yapmak için, “üçüncü taraf sistemlere girildiğinde hassas bilgilerin nerede saklandığını, bu verilere kimin erişebileceğini, nasıl kullanacaklarını ve ne kadar süreyle saklanacağını bilmeleri” gerekiyor.

Thacker şunları ekliyor: “Şirketler, çalışanların Teams, Slack, Zoom vb. gibi güvenilir kurumsal platformlardan üretken yapay zeka entegrasyon hizmetlerini benimseyeceklerini fark etmelidir. Benzer şekilde çalışanlar, bu hizmetlere erişirken varsayılan ayarların hassas verilerin üçüncü taraflarla paylaşılmasına yol açabileceği konusunda bilgilendirilmelidir.”

AI araçlarını işyerinde güvenle kullanma

İş yerinde ChatGPT ve diğer yapay zeka araçlarını kullanan kişiler bilmeden telif hakkı ihlali yapabilir, bu da işverenlerinin maliyetli davalara ve para cezalarına maruz kalabileceği anlamına gelir.

Boyes Turner hukuk firmasının ortağı ve istihdam ve göçmenlik ekibi başkanı Barry Stanton şöyle açıklıyor: “ChatGPT, halihazırda internette saklanan ve tutulan bilgilerden üretilen belgeler oluşturduğundan, kullandığı bazı materyaller kaçınılmaz olarak telif hakkına tabi olabilir.

“İşletmeler için zorluk ve risk, bilgi kaynağını kontrol edemedikleri için çalışanların bir başkasının telif hakkını ihlal ettiğini bilememeleridir.”

Yapay zekayı güvenli ve etik bir şekilde denemek isteyen işletmeler için, güvenlik ve İK ekiplerinin “ne zaman, nasıl ve hangi koşullarda kullanılabileceğini belirten çok net politikalar” oluşturması ve uygulaması çok önemlidir.

Stanton, işletmelerin yapay zekayı yalnızca “yalnızca dahili amaçlar için” veya “sınırlı dış koşullarda” kullanmaya karar verebileceklerini söylüyor. Şunu ekliyor: “İşletme bu izinleri ana hatlarıyla belirttiğinde, BT güvenlik ekibinin, teknik olarak mümkün olduğu ölçüde, ChatGPT’nin diğer tüm kullanımlarını kilitlediğinden emin olması gerekir.”

Kopyacı sohbet robotlarının yükselişi

ChatGPT ve üretken AI’yı çevreleyen yutturmaca artmaya devam ederken, siber suçlular, şüphelenmeyen kullanıcılardan veri çalmak için tasarlanmış taklitçi sohbet robotları oluşturarak bundan yararlanıyor.

Palo Alto Networks Unit 42’de tehdit istihbaratı analisti olan Alex Hinchliffe şöyle diyor: “Bu taklitçi chatbot uygulamalarından bazıları kendi geniş dil modellerini kullanırken birçoğu Chat GPT genel API’sini kullandığını iddia ediyor. Bununla birlikte, bu taklitçi sohbet robotları, ChatGPT’nin soluk taklitleri veya hassas veya gizli verileri toplamak için yalnızca kötü niyetli cepheler olma eğilimindedir.

“Personel şirket verileri üzerinde bu programları denemeye başladığında, bu taklitçi uygulamalarla bağlantılı ciddi olay riski artar. Ayrıca, bu taklitçi sohbet robotlarından bazılarının yanlış cevaplar vermek veya yanıltıcı bilgileri teşvik etmek için manipüle edilmiş olması da muhtemeldir.”

Sahte AI uygulamalarından bir adım önde olmak için Hinchliffe, kullanıcıların ChatGPT ile ilgili şüpheli görünen e-postaları veya bağlantıları açmaktan kaçınmaları ve ChatGPT’ye her zaman OpenAI’nin resmi web sitesi aracılığıyla erişmeleri gerektiğini söylüyor.

Hinchliffe, CISO’ların, çalışanların uygulamalara yalnızca meşru web siteleri aracılığıyla erişmesine izin vererek sahte yapay zeka hizmetlerinin getirdiği riski de azaltabileceğini öneriyor. Ayrıca çalışanları, yapay zeka sohbet botlarıyla gizli bilgilerin paylaşılmasının sonuçları konusunda eğitmelidirler.

Hinchliffe, özellikle ChatGPT’nin veri gizliliği üzerindeki etkileri konusunda endişe duyan CISO’ların bir bulut erişim hizmeti aracısı (CASB) gibi yazılımları uygulamayı düşünmeleri gerektiğini söylüyor.

“Temel yetenekler, verileri riske atabilecek yeni ve gelişmekte olan üretken AI uygulamalarının çalışan kullanımı dahil olmak üzere tüm hizmet olarak yazılım (SaaS) kullanım etkinliğinin eksiksiz izlenmesi için kapsamlı uygulama kullanım görünürlüğüne sahip olmaktır” diye ekliyor.

“Granüler SaaS uygulama kontrolleri, üretken yapay zeka gibi yüksek riskli uygulamalara erişimi sınırlandırırken veya bloke ederken çalışanların iş açısından kritik uygulamalara erişmesine izin vermek anlamına gelir. Son olarak, verileri sınıflandırmak ve şirket sırlarının üretici yapay zeka uygulamalarına yanlışlıkla sızdırılmasını tespit etmek ve durdurmak için makine öğrenimini kullanan gelişmiş veri güvenliğini düşünün.”

Veri güvenilirliği etkileri

Siber güvenlik ve telif hakkı etkilerine ek olarak, ChatGPT’nin bir diğer önemli kusuru da algoritmalarına güç veren verilerin güvenilirliğidir. Dow Jones’un veri stratejisi başkanı Ingrid Verschuren, “küçük kusurların bile çıktıları güvenilmez hale getireceği” konusunda uyarıyor.

Computer Weekly’ye şunları söylüyor: “Profesyoneller iş yerinde yapay zekadan ve sohbet robotlarından yararlanmaya çalışırken, denetlenebilirlik ve uyumlulukla ilgili artan endişeler duyuyoruz. Bu nedenle, ortaya çıkan bu teknolojilerin uygulanması ve uygulanması, özellikle modelleri eğitmek ve beslemek için kullanılan verilerin kaynağı ve kalitesi söz konusu olduğunda, dikkatli bir şekilde ele alınmasını gerektirir.”

Üretken yapay zeka uygulamaları, internetten veri toplar ve bu bilgileri kullanıcılardan gelen soruları yanıtlamak için kullanır. Ancak internet tabanlı her içeriğin doğru olmadığı göz önüne alındığında, ChatGPT gibi uygulamaların yanlış bilgi yayma riski vardır.

Verschuren, üretici yapay zeka yazılımı yaratıcılarının, yanlış bilgilerin üstesinden gelmek için verilerin yalnızca “saygın, lisanslı ve düzenli olarak güncellenen kaynaklardan” çıkarılmasını sağlaması gerektiğine inanıyor. “İnsan uzmanlığının bu kadar önemli olmasının nedeni budur – AI tek başına hangi kaynakların kullanılacağını ve bunlara nasıl erişileceğini belirleyemez” diye ekliyor.

“Dow Jones’taki felsefemiz, yapay zekanın insan zekasıyla birleştiğinde daha değerli olduğudur. Makineler ve insanlar arasındaki bu işbirliğine, teknolojinin otomasyon potansiyelini yalnızca bir konu uzmanının getirebileceği daha geniş belirleyici bağlamla birleştiren ‘gerçek zeka’ diyoruz.”

ChatGPT’yi sorumlu bir şekilde kullanma

Ontinue güvenlik operasyonları başkan yardımcısı Craig Jones’a göre, çalışanlarının işyerinde ChatGPT ve üretken yapay zeka kullanmasına izin veren işletmeler, kendilerini “önemli yasal, uyumluluk ve güvenlik hususlarına” açık hale getiriyor.

Ancak, çalışanlarının bu teknolojiyi sorumlu ve güvenli bir şekilde kullanmasını sağlamak için firmaların atabileceği bir dizi adım olduğunu söylüyor. Birincisi, veri koruma düzenlemelerini dikkate almaktır.

“Kuruluşların GDPR veya CCPA gibi düzenlemelere uyması gerekiyor. Kullanıcı onayı almak, veri toplamayı en aza indirmek ve hassas bilgileri şifrelemek dahil olmak üzere sağlam veri işleme uygulamaları uygulamalıdırlar” diyor. “Örneğin, ChatGPT kullanan bir sağlık kuruluşu, hasta mahremiyetini korumak için hasta verilerini Veri Koruma Yasasına uygun olarak işlemelidir.”

İkincisi, Jones, iş ChatGPT’yi kullanmaya geldiğinde işletmeleri fikri mülkiyet haklarını dikkate almaya teşvik ediyor. Bunun nedeni, ChatGPT’nin esasen bir içerik oluşturma aracı olmasıdır. Firmalara, tescilli ve telif hakkıyla korunan veriler için “sahiplik ve kullanım haklarıyla ilgili net yönergeler oluşturmalarını” tavsiye ediyor.

“Kuruluşlar, mülkiyeti tanımlayarak anlaşmazlıkları ve fikri mülkiyetin yetkisiz kullanımını önleyebilir. Örneğin, ChatGPT kullanan bir medya şirketinin yapay zeka tarafından üretilen makalelerin veya yaratıcı çalışmaların sahipliğini sağlaması gerekiyor – bu, olduğu gibi yorumlanmaya çok açık,” diyor.

“Yasal işlemler bağlamında, kuruluşlardan e-keşif veya yasal tutma amaçları için ChatGPT tarafından oluşturulan içerik üretmeleri istenebilir. Veri koruma ve yasal saklamaya yönelik politika ve prosedürlerin uygulanması, yasal yükümlülüklerin yerine getirilmesi için çok önemlidir. Kuruluşlar, oluşturulan içeriğin keşfedilebilir olduğundan ve uygun şekilde saklandığından emin olmalıdır. Örneğin, bir davaya müdahil olan bir şirket, e-keşif sürecinin bir parçası olarak ChatGPT konuşmalarını saklamak ve üretmek için yürürlükte olan süreçlere sahip olmalıdır.”

Dikkate alınması gereken başka bir nokta da, yapay zeka araçlarının genellikle önyargı ve ayrımcılık belirtileri göstermesidir; bu durum, bu yazılımı müşteri hizmetleri ve işe alım için kullanan işletmelerde ciddi itibar ve yasal hasara neden olabilir. Ancak Jones, işletmelerin yapay zeka önyargısıyla mücadele etmek için benimseyebilecekleri, düzenli olarak denetimler yapmak ve sohbet robotları tarafından sağlanan yanıtları izlemek gibi birkaç teknik olduğunu söylüyor.

Ek olarak, kuruluşların ChatGPT’nin çıktısını değerlendirmek için bir yaklaşım geliştirmesi ve çıktıların geçerliliğini belirlemek için deneyimli insanların döngüde olmasını sağlaması gerekiyor. ChatGPT tabanlı bir işlemin çıktısı sonraki otomatikleştirilmiş aşamaya beslenirse, bu giderek daha önemli hale gelir. Erken benimseme aşamalarında, ChatGPT’ye karar verici yerine karar desteği olarak bakmalıyız.”

ChatGPT’yi iş yerinde kullanmanın güvenlik ve yasal sonuçlarına rağmen, yapay zeka teknolojileri henüz emekleme aşamasında ve kalıcı olacak. ESET’in küresel siber güvenlik danışmanı Jake Moore şu sonuca varıyor: “Chatbot’ların henüz çok erken aşamalarında olduğumuzu unutmamalıyız. Ancak zaman geçtikçe geleneksel arama motorlarının yerini alacak ve hayatın bir parçası haline gelecekler. Google aramalarımızdan elde edilen veriler düzensiz ve genel olabilir, ancak sohbet robotları, bizden daha fazla bilgi almak için insan liderliğindeki konuşmalarla şimdiden daha kişisel hale geliyor.”



Source link