Veri gizliliği ve güvenliği, yapay zekanın benimsenmesine karar verenler için en endişe verici hale geliyor


Yapay Zeka Siber Tehdit GörüntüsüYapay Zeka Siber Tehdit Görüntüsü

Yapay zeka araçlarını operasyonlarına entegre etmeye istekli karar vericiler, veri gizliliği ve güvenliği konusundaki endişelerini dile getiriyor. Önde gelen bir veri analitiği firması olan SAS’ın sponsorluğunda Coleman Parkes Research tarafından yürütülen bir çalışmanın ortaya koyduğu gibi, bu düşünce, üretken yapay zekayı benimsemeye yönelik temkinli yaklaşımlarına kadar uzanıyor.

Büyük Dil Modellerinin (LLM’ler) kurumsal ortamlarda vaat ettiği artan üretkenliğin cazibesine rağmen, SAS’tan stratejik yapay zeka danışmanı Marinela Profi, bunların yol açtığı iş zorluklarını kabul ediyor.

Bu endişeleri daha da artıran şey, yapay zekanın hızla benimsenmesinde önemli bir caydırıcı görevi gören veri zehirlenmesi korkusudur. Üretken yapay zeka eğitimi süreci, anlamlı çıktılar elde etmek için büyük ölçüde kapsamlı veri kümelerine dayanır ve tehdit aktörlerine LLM’lere beslenen bilgileri manipüle etme fırsatı sunar.

ChatGPT-4’ün her biri 220 milyar parametreye sahip sekiz alanı boyunca eğitilmesini düşünün. Bu kapsamlı eğitim modeli, karmaşık sistem ara bağlantılarını, hizmet entegrasyonlarını ve ağ bağlantılı cihazları gerektirir; böylece yapılandırma hataları, arka kapı kurcalama, su baskını, API hedefleme veya diğer güvenlik açıkları gibi yollardan bilgisayar korsanlarının istismarına açık güvenlik açıkları yaratır.

Sorumluluk, modern sistemlerin birbirine bağlı doğası nedeniyle daha da kötüleşen bir zorluk olan, bilgilerin toplanması, saklanması ve kullanılmasında menşei ve bütünlüğü korumak için eğitilen ve benimsenen modellere doğrudan düşüyor.

Veri zehirlenmesi riskini azaltmaya yönelik olası bir çözüm, yalnızca işe özgü verilerin dil modellerine beslendiği ve veri manipülasyonu riskinin en aza indirildiği Erişim Artırılmış Üretim (RAG) aracılığıyladır.

Şirketler veri zehirlenmesi gibi zorluklarla etkili bir şekilde başa çıkabilecek donanıma sahip olana kadar yapay zeka trendlerini benimseme konusunda dikkatli davranmaları akıllıca olacaktır. Model izleme, rutin veri doğrulama ve anormallik tespit araçları gibi önlemlerin uygulanması, bu tür tehditlere karşı savunmayı güçlendirebilir. Aksi takdirde, yapay zekanın benimsenmesine yönelik yatırımlar ciddi bir tehlikeyle karşı karşıya kalabilir ve potansiyel olarak daha fazla güvenlik açığının ortaya çıkmasına yol açabilir.

Reklam



Source link