Üretken yapay zeka, büyük ölçüde metin oluşturma sohbet robotu ChatGPT’nin yakın zamandaki başarısından hareketle dünya çapında milyonlarca kişinin hayal gücünü yakaladı. Yeni araştırmamız, küresel olarak tüketicilerin %67’sinin üretken AI teknolojilerini duyduğunu ve Singapur gibi bazı pazarlarda neredeyse yarısının (%45) bunları kullanan bir uygulama kullandığını gösterdi.
Bu teknolojilerin sağlık, eğitim ve hatta sanatta pek çok takdire şayan uygulaması olsa da, bu teknolojilerin kullanılabileceği daha geniş yolu ve ortaya çıkardıkları potansiyel riskleri anlamak önemlidir.
Düşük maliyetli, yüksek etkili dezenformasyon
ChatGPT gibi gelişmiş modeller herkesin kullanımına sunulmadan önce, organize dezenformasyon kampanyalarının işlemesi için çok daha fazla kaynak gerekiyordu. Ciddi operasyonlar için, kampanyaları etkili bir şekilde yürütmek için birden fazla kişi gerekiyordu.
Bununla birlikte, üretken yapay zekadaki gelişmeler, zorlayıcı sahte haberler, sosyal medya gönderileri ve diğer dezenformasyon türlerini hızla ve çok daha düşük bir maliyetle oluşturmayı çok daha kolay hale getirdi. Bu sistemler artık insanlar tarafından yaratılanlardan neredeyse ayırt edilemeyen içerikler üretebiliyor ve bu da insanların yanlış bilgilere maruz kaldıklarını tespit etmelerini zorlaştırıyor.
Örneğin, yalnızca bir kötü niyetli aktör, sahte kaynaklardan alıntılar ve inandırıcı bir anlatımla tamamlanmış, meşru bir haber makalesi gibi görünen ve okunan sahte bir hikaye oluşturmak için geniş bir dil modelini kullanabilir. Bu tür içerikler, birkaç saat içinde milyonlarca kişiye ulaşabilen sosyal medya aracılığıyla hızlı ve kolay bir şekilde yayılabilir.
Bu dezenformasyonun yayılması, sosyal medya platformları hesap açma aşamasında sağlam kimlik doğrulama kontrolleri yapmadığında daha da kolaylaşabilir. Bu dezenformasyon mesajlarını daha önce mümkün olduğu düşünülenden çok daha büyük bir ölçekte büyütmek için çok sayıda sahte hesap açılabilir.
Yeni dolandırıcılık sınırları
Bu teknolojiler, dezenformasyona olanak sağlamanın yanı sıra dolandırıcılık ve sosyal mühendislik dolandırıcılığı için yeni olanaklar da yarattı.
Araştırmamız, dünya genelinde tüketicilerin yarısından fazlasının (%55), hassas bilgiler, para ve daha fazlasını sağlamaları için onları kandırmak amacıyla (şahsen veya herkese açık olarak) tanıdıkları birinin sesini taklit eden derin sahte ses oluşturmak için yapay zekanın kullanılabileceğini bildiklerini gösterse de 2022, yalnızca ABD’de bu tür dolandırıcılıklardan 11 milyon doların üzerinde dolandırıldı.
Üretken yapay zeka destekli sohbet robotlarının ortaya çıkmasından önce, dolandırıcılar kurbanlarıyla etkileşim kurmak için genellikle önceden hazırlanmış komut dosyası yanıtları veya ilkel sohbet robotları kullanırdı. Bu yazılı yanıtlar genellikle potansiyel kurbanlar tarafından yöneltilen belirli sorularla ilgisizdi ve bu da onların etkileşimin hileli doğasını tespit etmelerini kolaylaştırıyordu.
Bununla birlikte, üretken AI teknolojisinin durumu artık dolandırıcıların, insan etkileşimini ikna edici bir şekilde taklit etmek için sohbet botları programlamasına izin veriyor. Büyük dil modellerinden yararlanan bu sohbet robotları, aldıkları mesajları analiz edebilir, konuşmanın bağlamını anlayabilir ve eski sohbet dolandırıcılıklarıyla ilişkili anlatım dili ve gramer hatalarından yoksun insan benzeri yanıtlar üretebilir. Bu şekilde, yapay zeka destekli üretken sohbet robotları, dolandırıcıların kurbanlarından çok daha kolay bir şekilde zorla bilgi sızdırabildiği geçmişten önemli bir ayrılığı temsil ediyor.
Ateşe ateşle karşılık vermek
Üretken yapay zekanın yukarıda belirtilen risklerine rağmen, yapay zekanın kendisinin bu sorunları çözmenin etkili bir yolu olabileceğini vurgulamak önemlidir. Kimlik doğrulama ve kimlik doğrulama için gücünden yararlanmaya gelir.
Örneğin, dezenformasyonun ölçeği ve yayılması sorununu hedeflemek için sosyal medya platformları, kullanıcıların gerçek insanlar olduklarını ve hesap açma aşamasında olduklarını iddia ettikleri kişiler olduklarını doğrulamak için çok modlu biyometri kullanabilir. Bu, dezenformasyon yaymak için açılan sahte hesapların ortadan kaldırılmasında uzun bir yol kat edecektir.
Makine öğrenimi algoritmalarıyla birlikte ses veya iris algılama gibi birden fazla biyometrik veri biçimi kullanan çok modlu biyometrik sistemler, kimlik doğrulamanın doğruluğunu artırabilir. Bu sistemler aynı zamanda, yüz değiştirme ve derin sahtekarlıklarla yapılan hesapların tespit edilmesine yardımcı olabilen canlılık tespitinin ek avantajına da sahiptir.
Hiçbir teknoloji, bir tüketiciyi kişisel bilgilerini (örneğin oturum açma bilgileri olarak kullanılanlar gibi) vermeye ikna eden üretken bir yapay zeka destekli dolandırıcılığa düşmekten gerçekten engelleyemese de, bu çalınan bilgilerin daha sonra nasıl kullanılabileceğini önlemeye yardımcı olabilir.
Örneğin, mevcut bir çevrimiçi hesaba erişmek ve onu ele geçirmek veya sahte bir hesap oluşturmak için kişisel bilgiler çalınırsa, bir çevrimiçi sağlayıcının çok modlu biyometrik tabanlı bir doğrulama veya kimlik doğrulama sistemi varsa, dolandırıcı bunu yapamaz. biyometri unsuru söz konusu olduğunda izlerinde durdurulacaklarından, çalınan bu ayrıntıları çok fazla kullanın.
Üretken yapay zeka söz konusu olduğunda sunulan birçok potansiyel fayda vardır. Ancak bu teknolojiler, dezenformasyonun yayılmasının önündeki engelleri de azaltmış ve fırsatçı dolandırıcıların iş akışlarını basitleştirmiştir. Ancak bu, yapay zekayı gözden kaçırmak için bir neden değil — yapay zeka destekli çözümlerin, kullanıcıların dijital dünyada daha fazla güven ve güvenle gezinmesine yardımcı olabilecek önleyici araçlar olarak kullanılması konusunda umut var.