LinkedIn, İngiltere’de AI Model Eğitimini Durdurdu


LinkedIn, veri gizliliği düzenleyicisi ve uzmanların gizlilik ve etik endişelerini dile getirmesinin ardından İngiltere’de yapay zeka modeli eğitimini durdurdu.

LinkedIn, üretken AI modellerini eğitmek için İngiltere merkezli verileri kullanmayı geçici olarak durdurdu. Karar, Bilgi Komiserliği Ofisi’nin (ICO) kullanıcı gizliliğiyle ilgili dile getirdiği endişelerin ardından geldi. ICO’nun Düzenleyici Risk Yöneticisi Stephen Almond, askıya almanın LinkedIn’in AI eğitimiyle ilgili uygulamalarını yeniden değerlendirmesiyle birlikte geldiğini söyledi.

Almond, “LinkedIn’in ICO ile daha fazla etkileşime girilinceye kadar bu tür model eğitimini askıya aldığına dair onayını memnuniyetle karşılıyoruz” dedi. Bu hamle, LinkedIn’in özellikle yeni platform özelliklerini çalıştıran AI modelleriyle ilgili olarak, bazılarının gizlilik ihlali olarak gördüğü şekillerde gizlice kullanıcı verilerini kullandığı için incelemeye tabi tutulmasının ardından geldi.

Almond, ICO’nun LinkedIn’in, İngiltere’deki kullanıcılarıyla ilgili bilgilerle üretken AI modellerini eğitme yaklaşımına ilişkin endişelerini dile getirmesinden memnun olduğunu ekledi. Ancak, İngiliz siber güvenlik uzmanı Kevin Beaumont, bunun işe yaramış olabileceğini söyledi. Beaumont, Mastadon’da “Bu konuda LinkedIn’i İngiltere’deki kullanıcı verileri üzerinde AI eğitimini durdurmaya zorlayan ICO’ya şikayette bulundum,” diye yazdı.

LinkedIn Özelliklerinde Yapay Zekanın Rolü

LinkedIn’in yazma önerileri ve içerik oluşturma için kullandığı Üretken Yapay Zeka, büyük ölçüde verilere dayanır. Bu veriler, profil ayrıntıları, kullanıcı etkileşimleri ve gönderi içeriği gibi kişisel bilgileri içerir. LinkedIn, bu modelleri eğitme sürecinde, kullanıcılarına yazma istemleri veya hatta gönderi önerileri sunarak özelliklerini iyileştirmeyi hedefler.

Ancak yapay zeka eğitimlerine kişisel verilerin dahil edilmesi, gizlilik ve kullanıcıların bunlar üzerindeki kontrolleri konusunda soruları gündeme getirdi.

SocialProof Security CEO’su ve CISA Teknik Danışma Kurulu üyesi Rachel Tobac, “Bir şirketin hepimiz adına yaptığı bir seçimi geri almak için bir sürü adım atmamız gerekmemeli,” dedi. “Kuruluşlar, ‘herkes yapıyor’ diye otomatik katılımla kurtulabileceklerini düşünüyorlar. Bir araya gelip kuruluşların katılımı SEÇME’mize izin vermesini talep edersek, umarım bir gün her şey değişir.”

LinkedIn yapay zeka yeteneklerini geliştirirken, tartışma platform özelliklerini geliştirme ve kullanıcı gizliliğini koruma arasındaki denge etrafında dönüyor.

LinkedIn’in üretken yapay zeka ile ilgili SSS’sine göre, kullanıcılar yapay zeka destekli araçlarla etkileşime girdiğinde platform, kişisel veriler de içerebilen etkileşimlerini ve geri bildirimlerini işliyor.

Örneğin, “Profil Yazma Önerileri” özelliği önerilen metni oluşturmak için mevcut profil bilgilerinden yararlanır. Benzer şekilde, gönderi öneren AI araçları yeni öneriler oluşturmak için önceki içeriklerden kişisel verileri kullanır.

İngiltere ve AB Kullanıcıları AI Model Eğitiminden Muaftır

Dikkat çekici bir istisna olarak, LinkedIn şu anda Birleşik Krallık, Avrupa Ekonomik Alanı (AEA) veya İsviçre’de bulunan kullanıcıların kişisel verilerini jeneratif AI modellerini eğitmek için kullanmıyor. Bu, bu bölgelerdeki üyeler tarafından oluşturulan içeriğin, GDPR gibi daha katı gizlilik düzenlemeleriyle uyumlu olacak şekilde AI eğitim çabalarından etkilenmediği anlamına geliyor.

LinkedIn, AI modelleri eğitildiğinde eğitim veri kümelerinden kişisel verileri sansürlemek veya kaldırmak için gizliliği artıran teknolojiler kullandığını söylüyor. Bu yaklaşım, LinkedIn’in riski en aza indirme çabalarını gösteriyor ancak veri kümelerinin gerçekte ne kadar tamamen anonimleştirildiği konusunda tartışmaya yer bırakıyor.

ICO’nun Endişeleri ve Gizlilik Hakları

Almond, özellikle alan büyümeye devam ederken, AI teknolojilerine olan kamu güveninin önemini vurguladı. “Kamuoyunun gizlilik haklarına en başından itibaren saygı duyulacağına güvenebilmesi hayati önem taşıyor” dedi. Açıklamaları, AI amaçları için veri toplama ve kişisel bilgileri korumak için güçlü güvenlik önlemlerine duyulan ihtiyaç hakkındaki daha geniş endişeleri yansıtıyor.

ICO, gizlilik yasalarına uyumu sağlamak için Microsoft, LinkedIn’in ana şirketi gibi şirketleri izlemeye devam etmeyi planlıyor. Üretken AI geliştiren şirketler, özellikle hassas kullanıcı bilgilerini içerdiğinde, verileri nasıl kullandıkları konusunda şeffaf olmalıdır.

Sosyal medya devi Meta, Haziran ayında benzer bir düzenleyici engele maruz kalmıştı. Bilgi Komiserliği Ofisi’nden gelen eleştiriler ve endişelerle karşılaştıktan sonra AI eğitim planlarını duraklatmak zorunda kalmıştı. Meta’nın planı, AI’sını eğitmek için İngiltere kullanıcılarının kamuya açık gönderilerini, yorumlarını ve resimlerini kullanmayı içeriyordu. Aylarca süren müzakerelerin ardından Meta, geçen hafta ICO tarafından önerilen değişikliklere göre İngiltere’de AI eğitiminin yeniden başlayacağını duyurdu.

LinkedIn AI Model Eğitimini Durduruyor – Ancak Ayrıntılar Dikkat Edilmesi Gerekiyor

LinkedIn kullanıcıları, verilerinin jeneratif AI eğitimi için kullanılmasından vazgeçebilirler. Bu seçenek, özellikle LinkedIn’in şu anda üye verileriyle modeller eğittiği bölgelerdeki kullanıcılar için önemlidir. Tobac, ABD, Kanada, Hindistan, İngiltere, Avustralya, BAE ve diğer yerlerden kişilerin otomatik olarak dahil olduklarını bildirdiğini doğruladı.

Kullanıcılar, bilgilerinin bundan sonra AI eğitim amaçları için kullanılmasını önlemek için “Üretici AI İyileştirmesi İçin Veriler” altındaki ayarları düzenleyebilir. Ancak, geçmiş eğitim oturumları etkilenmez.

LinkedIn AI Model Eğitimini Durduruyor, AI Model Eğitimi, LinkedIn, Gizlilik, Kullanıcı Kontrolleri, AI Gizliliği, AI Eğitimi, İngiltere, AEA, ABLinkedIn AI Model Eğitimini Durduruyor, AI Model Eğitimi, LinkedIn, Gizlilik, Kullanıcı Kontrolleri, AI Gizliliği, AI Eğitimi, İngiltere, AEA, AB
LinkedIn Otomatik Katılım Ayarı (Kaynak: LinkedIn)

AB, AEA, İngiltere veya İsviçre’deki kullanıcılar için LinkedIn, açık bir bildirimde bulunmadan verilerini AI modellerini eğitmek veya ince ayarlamak için kullanmayacaktır. Bu bölgelerin dışında olanlar, AI modeli eğitiminin bir parçası olmaktan kaçınmak isterlerse vazgeçmek için adımlar atmalıdır.

Bundan vazgeçmek için – LinkedIn uygulamasını açın veya masaüstünüzden > Sol üst köşedeki profil resmine tıklayın > Ayarlar’a tıklayın > Veri Gizliliği’ne tıklayın > Üretken Yapay Zeka İyileştirmesi için Veriler’e tıklayın > Kapalı konuma getirin.

LinkedIn ayrıca kullanıcıların AI özellikleriyle geçmiş etkileşimlerini gözden geçirmeleri ve silmeleri için araçlar sunar. Platformun veri erişim ayarları üzerinden erişilebilen bu araçlar, kullanıcıların verileri üzerinde kontrol sahibi olmalarını sağlar. Kullanıcılar üretken AI konuşmalarını silebilir veya LinkedIn’den hesap geçmişlerinden kişisel bilgileri kaldırmasını talep edebilir.

LinkedIn AI Model Eğitimini Durduruyor, AI Model Eğitimi, LinkedIn, Gizlilik, Kullanıcı Kontrolleri, AI Gizliliği, AI Eğitimi, İngiltere, AEA, ABLinkedIn AI Model Eğitimini Durduruyor, AI Model Eğitimi, LinkedIn, Gizlilik, Kullanıcı Kontrolleri, AI Gizliliği, AI Eğitimi, İngiltere, AEA, AB
Kaynak: LinkedIn

Gelecekte Yapay Zeka Gizliliğini Yönetmek

Üretken AI manzarası, şirketlerin kullanıcı verilerini nasıl ele aldığına yönelik artan ilgiyle birlikte gelişmeye devam ediyor. AI araçları LinkedIn gibi platformlara giderek daha fazla entegre hale geldikçe, zorluk, inovasyonu gizlilik korumasıyla dengelemekte yatıyor.

LinkedIn’in Birleşik Krallık’ta AI modeli eğitimini askıya alması gizlilik endişelerini gidermeye yönelik olumlu bir adım olsa da, aynı zamanda teknoloji inovasyonu ile düzenleyici denetim arasındaki devam eden gerginliği de vurguluyor. Almond’un belirttiği gibi, “Microsoft ve LinkedIn dahil olmak üzere üretken AI’nın büyük geliştiricilerini, uyguladıkları güvenlik önlemlerini incelemek için izlemeye devam edeceğiz.”

Şirketler AI sınırlarını zorlarken, gizlilik bekçileri uyanık kalmaya devam edecek. AI model eğitiminde şeffaflık ve hesap verebilirliğin sağlanması, kamu güvenini korumak için elzem olacak. LinkedIn’in son hamlesi, platformun bu sorumluluğu kabul ettiğini gösteriyor, ancak önümüzdeki yol karmaşık düzenleyici ortamlarda gezinmeyi ve kullanıcı beklentilerini değiştirmeyi içeriyor.



Source link