Guardio Labs’taki araştırmacılar, saldırganların Grook Ai’yi X’e kötü niyetli bağlantılar yaymaya yönlendirdiği yeni bir “Grokking” aldatmacasını ortaya çıkardılar. Nasıl çalıştığını ve uzmanların ne dediğini öğrenin.
Güvenlik kontrollerini atlamak ve kötü niyetli bağlantılar yaymak için sosyal medya platformu X (eski adıyla Twitter) üzerindeki popüler AI asistanı GROK’ı kötüye kullanan yeni, ustaca siber güvenlik aldatmacası keşfedildi. Bu aldatmaca, bu yeni tekniği “Grokking” olarak adlandıran Guardio Labs’taki siber güvenlik araştırmaları başkanı araştırmacı Nati Tal tarafından ortaya çıkarıldı.
Bir dizi X gönderisinde Tal, bu aldatmaca nasıl çalıştığını açıkladı. Genellikle şüpheli içerikle dolu kötü amaçlı video reklamlarıyla başlar. Bu reklamlar dikkat çekmek için tasarlanmıştır, ancak ana gönderide, X’in güvenlik filtreleri tarafından işaretlenmesini önlemelerine yardımcı olan kasıtlı olarak tıklanabilir bir bağlantıya sahip değildir. Kötü aktörler bunun yerine, platformun taramasında kör bir nokta gibi görünen küçük bir “from:” meta veri alanında kötü niyetli bağlantıyı gizler.
Dolandırıcılığın en zeki kısmı gelecek. Aynı saldırganlar Grook’a “Bu videonun bağlantısı nedir?” Gibi basit bir soru soruyor. Reklamın yanıtında. Grok gizli “from:” alanını okur ve tam kötü amaçlı bağlantıyı yeni, tamamen tıklanabilir bir yanıtta yayınlar.
GROK, X üzerinde güvenilir, sistem düzeyinde bir hesap olduğundan, yanıtı kötü amaçlı bağlantıya güvenilirlik ve görünürlükte büyük bir artış sağlar. Siber güvenlik uzmanlarının Ben Hutchison ve Andrew Bolster’ın belirttiği gibi, bu, AI’nın kendisini kötü niyetli içerik için bir “megafon” haline getiriyor ve sadece teknik bir kusurdan ziyade güvenden yararlanıyor. Bağlantılar nihayetinde kullanıcıları tehlikeli sitelere götürür, bunları sahte captcha testleriyle kandırır veya bilgi çalma kötü amaçlı yazılımları indirir.
AI’yi manipüle ederek, saldırganlar, kısıtlamaları uygulamak amacıyla sistemi kötü niyetli içerikleri için bir amplifikatöre dönüştürür. Sonuç olarak, engellenmesi gereken bağlantılar milyonlarca şüphesiz kullanıcıya tanıtılmaktadır.
Bildirildiğine göre, bu reklamlardan bazıları milyonlarca izlenim aldı ve bazı kampanyalar 5 milyondan fazla görüntülemeye ulaştı. Bu saldırı, yapay zeka ile çalışan hizmetlerin yararlı olsa da, siber suçlular için güçlü araçlar haline gelebileceğini göstermektedir.
Uzman Perspektifleri
Bu araştırmaya yanıt olarak, siber güvenlik uzmanları bakış açılarını sadece hackread.com ile paylaştılar. Deepwatch Baş Bilgi Güvenlik Görevlisi Chad Cragle, temel mekanizmayı açıkladı: “Saldırganlar reklamın meta verilerindeki bağlantıları gizliyor ve daha sonra Grook’tan ‘yüksek sesle okumasını’ isteyin.” Platformların gizli alanları taraması gerektiğini söylüyor ve kuruluşların kullanıcıları “doğrulanmış” bir yardımcının alevlenebileceği bile eğitmeleri gerektiğini söylüyor.
Black Duck’ın kıdemli Ar-Ge yöneticisi Andrew Bolster, GROK’ı “ölümcül Trifecta” olarak adlandırılan bir yüksek riskli AI sistemi olarak sınıflandırıyor. Geleneksel hataların aksine, AI manzarasında, bu tür manipülasyonun neredeyse bir “özellik” olduğunu, çünkü modelin niyetine bakılmaksızın içeriğe yanıt vermek için tasarlandığını açıklıyor.