Önde gelen bir siber güvenlik araştırmacısı, yapay zeka veri setlerinin “veri zehirlenmesi” nedeniyle tehlikeye girme riski konusunda uyarıda bulunuyor.
Siber Güvenlik Kooperatif Araştırma Merkezi CEO’su Rachael Falk şunları söyledi: ABC’nin AM’si Bu sabahki güncel olaylar programında, veri zehirlenmesinin “bir yapay zeka veri setine saldırabilir ve ona yanlış bilgi veya yanlış bilgi enjekte ederek” “artık doğru olmaması” durumunda gerçekleştiğini söylüyor.
CRC, yapay zekanın kullanıcıları veri zehirlenmesi saldırılarına karşı korumak için “gözetim, şeffaflık ve yönetişim önlemlerine” ihtiyacı olduğunu söyledi.
Bugün yayınlanan bir raporda uyarıyı verdi [pdf].
Raporda, iş gücü piyasasında yerinden edilme ve mahremiyet tehditleri gibi bazı risklerin iyi bilinmesine rağmen, veri zehirlenmesi ve veri etiketlemeye yönelik insan saldırılarının iyi bilinmediği belirtiliyor.
Raporda, her iki saldırının da eğitim verilerine müdahale içerdiği belirtildi.
Veri zehirlenmesi, eğitim setine “kötü amaçlı, taraflı veya yanlış verilerin” dahil edilmesini içerir. Raporda, hatalı çıktıların “bir saldırganın karar verme sürecini belirli bir sonuca yöneltmesine olanak tanıyabileceği ve bunun da gerçek hayatta zarara yol açabileceği” belirtildi.
Raporda tanımlanan zehirlenme türleri arasında kullanılabilirlik zehirlenmesi (tüm makine öğrenimi (ML) modelinin bozulması, yapay zekanın kullanılamaz hale getirilmesi), hedefli zehirlenme (bir avuç örneğe saldırı yapılarak tespit edilmesinin zorlaştırılması), arka kapı zehirlenmesi (eğitim örnekleri verilmektedir) yer alıyor. saldırganın modele bir arka kapı açması) ve model zehirlenmesi (kötü amaçlı kod enjekte etmek için eğitimli modele saldırmak).
Raporda tanımlanan diğer risk, yapay zeka eğitimi için verileri etiketlemek üzere kullanılan insanların, kötü amaçlı verileri eğitim setine yanlış etiketlemek üzere yönlendirilebilmesidir.
Raporda, yapay zeka eğitiminin genellikle ucuz işgücüne sahip ülkelere (Kenya, Uganda, Filipinler ve Venezuela dahil) dış kaynak olarak verildiği ve yetkililerin eğitim verilerini zehirlemek için yolsuzluk yapabileceği ihtimalinin arttığı belirtildi.
“Eğer bu, bir dizi farklı zarar verici senaryoda geniş ölçekte gerçekleşecek olsaydı ve
Araştırma, etkili olması için eğitim verilerinin yalnızca yüzde 0,01’inin zehirlenmesi gerektiğini gösteriyor – LLM’ler üzerindeki etkiler [large language models] Raporda, “ciddi olabilir ve topluma zarar verici sonuçlar doğurabilir” denildi.
“En önemlisi, böyle bir saldırı, sosyal ve kültürel düzeyde üretken yapay zeka algıları üzerinde zararlı bir etkiye sahip olacak ve bu teknolojilerin etkileyebileceği olumlu ekonomik ve toplumsal etkileri etkileyecektir.”
Raporda, bozuk eğitim verilerinin aynı zamanda dış müdahaleye de kapı açtığı belirtildi.
Raporda, “Küresel düzeyde, yapay zeka düzenlemeleri ve yapay zeka sistemlerine yönelik küresel normlara ilişkin tartışmalar devam ederken bu, acilen dikkate alınması gereken bir konudur” ifadesine yer verildi.
Raporda ayrıca Avustralya’nın modern kölelik düzenlemelerini yapay zeka şirketlerine uygulayabileceği ve yapay zeka siber tehditlerine yönelik araştırmalara yatırım yapması gerektiği belirtildi.