Büyük dil modelleri (LLM’ler) tarafından desteklenen popüler AI chatbots genellikle herhangi bir konu hakkında doğru bilgi sağlayamazlar, ancak araştırmacılar, tehdit aktörlerinin kimlik avı URL’leri ve sahte indirme sayfaları gibi onlara fayda sağlayabilecek bilgileri yayma çabalarını artırmasını beklemektedir.
Yüzeye doğru yanlış, potansiyel olarak kötü amaçlı URL’ler
SEO zehirlenmesi ve kötü niyetli, Google veya diğer arama motorları aracılığıyla oturum açma sayfaları ve yazılımı aramayı bir mayın tarlası yaptı: Sahte/sahte siteleri nasıl tespit edeceğinizi bilmiyorsanız, kimlik bilgilerinizi çalınır ve cihazlarınızı enfekte edersiniz.
Kısmen bu ve kısmen arama motorları ilgili bilgileri ortaya çıkarmada kötü hale geldiği için, kullanıcılar yavaş yavaş AI chatbots istemesini bunun yerine bilgi istemeye başladı.
Şimdilik, sonuçları daha fazla konuya daha fazla olabilir ve daha hızlı bir şekilde teslim edilebilir, ancak sağlanan bilgiler, LLM’nin yanlış anladığı / kandırıldığı veya cevap verdiği için (yani icat ettiği) çünkü yanlış olabilir.
Durumda: Netcraft araştırmacıları son zamanlarda GPT-4.1 model ailesi tarafından desteklenen chatbot’lardan finans, perakende, teknoloji ve kamu hizmetleri gibi sektörlerde 50 farklı marka için oturum açma sayfaları istediler ve vakaların% 66’sında doğrudan aldılar.
Ancak geri dönen alanların% 5’i ilgisiz ancak meşru işletmelere aitti ve% 29’u – bu 28 alan – kayıt dışı, park edilmiş veya aktif içeriğe sahip değildi.
“Bu, önerilen tüm alanların% 34’ünün markaya ait ve potansiyel olarak zararlı olmadığı anlamına gelir. Daha da kötüsü, kayıt dışı alanların birçoğu saldırganlar tarafından kolayca talep edilebilir ve silahlandırılabilir. Bu, kullanıcı güvenilir AI araçları tarafından dolaylı olarak onaylanan büyük ölçekli kimlik avı kampanyalarının kapısını açar” dedi.
Popüler arama motorları da eşit derecede tehlikeli olan AI destekli arama sonuçları sağlamaya başladı ve bazen kullanıcıları doğrudan popüler bir markayı taklit eden kimlik avı sayfalarına (örn. Wells Fargo) yönlendirebilir.
Konuyu daha da kötüleştirmek için, AI tarafından üretilen cevaplar genellikle doğrulanmış alanlar veya arama snippet’leri gibi geleneksel göstergeleri ortadan kaldırır. Araştırmacılar, “Kullanıcılar cevaba güvenmek için eğitildi ve cevap yanlışsa saldırgan kullanıcıyı kullanıyor” dedi.
Saldırganlar aktif olarak AI Chatbots’un sonuçlarını zehirlemeye çalışıyor
Kötü bağlantıların ortaya çıkması başlangıçta nadiren gerçekleşmiş olabilir, ancak tehdit aktörleri daha sık gerçekleşmesi için her şeyi yapıyorlar ve üretken AI chatbots tarafından sağlanan sonuçları aktif olarak zehirlemeye çalışıyorlar.
Chatbots’un dil modeline göre yüksek sıralanacak sayfalar tasarlıyorlar: meşru görünüyorlar, doğru belgeler sağlıyorlar, destek merkezleri olarak poz veriyorlar, vb.
Araştırmacılar, “Bu siteler temiz, hızlı ve AI tüketimi için dilsel olarak ayarlanmıştır. İnsanlar için harika görünüyorlar ve makineler için karşı konulmaz” dedi.
“Ve bu sadece kimlik avı değil. Sık sık kötü amaçlı yazılımların ‘çatlak yazılım’ blogları, öğreticiler ve tartışma yayınları ile dağıtıldığını görüyoruz. AI araması ön plana çıktıkça, bu eski vektörler yeni bir yaşam görebilir – anahtar kelime oyunları ile değil, dil akıcılığı yoluyla ortaya çıkabilir.”
Kötü/kötü niyetli kodların tedarik edilmesini önlemek için önlemlere rağmen, AI ile çalışan kodlama asistanları, sadece kötü kod yayınlamakla kalmayıp, aynı zamanda güvenilir içerik yayınlamakla kalmayıp, aynı zamanda güvenilir içerik (öğretici, forum q & as) ile eşlik etmek için çaba sarf edebilir ve Scayable Github kullanın ve sosyal medya hesaplarını tanıtmak için çaba sarf edebilir.
En son ihlalleri, güvenlik açıklarını ve siber güvenlik tehditlerini asla kaçırmak için Breaking News e-posta uyarımıza abone olun. BURADA Abone Olun!