Yapay Zeka Güçlü Olacak Ama Her Derde deva Olmayacak


[By Neal Humphrey, VP Market Strategy at Deepwatch]

Sürücüsüz arabaların yaygınlaşmasını takip eden herkes, teknolojinin kusursuz olmaktan çok uzak olduğunu biliyor. En son gelişmede, New York Times General Motors’a ait otonom araç üreticisi Cruise’daki çalışanların, her 2,5 ila 5 milde bir yapay zeka destekli arabalarının operasyonlarına uzaktan “müdahale” ettiğini buldu.

Cruise mücadelelerinde yalnız değil. Sorunlar büyük ölçüde, makinelerin genellikle uygun şekilde tepki vermediği, sürüş hayatlarımızı lekeleyen trafik düzenindeki binlerce küçük değişiklikten kaynaklanmaktadır. Cruise, arabalarından birinin vur-kaç sonucu yoluna çıkan bir kadına çarpıp onu sürüklemesi üzerine ateş altında kaldı. Kesinlikle garip bir olay, ama makul bir insan sürücünün daha güvenli bir şekilde halledebileceği bir olay.

Görünüşe göre sürücüsüz araba dünyasındaki sorunlar, siber güvenlik ortamında yapay zekayı nasıl ele aldığımızla ilgili sorunu tam olarak yansıtıyor. Teknolojiyle ilgili o kadar çok abartılı reklam var ki, tartışmalarımızı ve beklentilerimizi güvenlik sorunlarına gerçekçi bir bakış açısıyla oturtmakta başarısız olduk.

Tıpkı sürücüsüz arabaların günlük sürüş yaşamlarımızda insan kaynaklı her değişikliği nasıl çözeceğini bilememesi gibi, yapay zeka da bizi asla sistemlerimizi tehlikeye atan insan hatalarından tam olarak koruyamaz. Bu hatalar genellikle öngörülemeyen değişken olan insan duygusundan kaynaklanır.

Yapay zekanın yapacağı şey, hızlı bir şekilde, mevcut güvenlik yeteneklerimizdeki boşlukları tespit etmektir. O kılıç her iki tarafı da keser. Bu boşluklardan daha hızlı yararlanmak için yapay zeka kullanılabilir. Ancak bunları kapatmak ve hafifletmek için de kullanabiliriz. İşin püf noktası, bu yeni teknolojiyi uygularken insanı akılda tutmaktır.

Kör Yapay Zeka Güveniyle İlgili Sorun

Bazıları için Chat GPT, yapay zekanın yepyeni olduğu izlenimini verebilir, ancak gerçekte teknolojik tarih, yapay zekayı daha hazır olmadan serbest bırakan şirketlerin birkaç örneğini zaten içeriyor.

Sonuçlar pek iyi olmadı. Örneğin, yalnızca 24 saat içinde ırkçı ve Yahudi karşıtı söylemler yaymaya başlayan Microsoft’un Tay adlı Twitter AI botunun hızlı yükselişini ve düşüşünü hatırlayabilirsiniz. Tay’ın halefi Zo daha uzun süre dayandı – üç yıl – ama sonunda tartışmalara karşı o kadar hassas olduğu için eleştirilere maruz kaldı ki bir yazarın ifadesiyle “yargılayıcı küçük bir velete dönüştü.”

Yapay zekanın durumları nasıl yorumlayacağı ve bunlara nasıl yanıt vereceği çoğu zaman hayal gücümüzün ötesindedir. Ve olası her durumu kontrol etmek imkansızdır. Güvenlik söz konusu olduğunda yapay zeka, insanların e-posta veya telefon kimlik avı dolandırıcılığına kanmak gibi maliyetli hataları ne zaman yapacağını bilemez. Mantığı açıklayabilir ama çoğu insan hatası özünde duygusaldır. 134 müşterisinin verilerini açığa çıkaran son Okta ihlali mükemmel bir örnek sunuyor: Bilgisayar korsanları, bir çalışanın kişisel Google profiline kaydedilen ve muhtemelen çalışanın şirketin dizüstü bilgisayarından oturum açtığı bir hizmet hesabı aracılığıyla kimlik bilgilerine erişebildi. kolaylık dışında.

Bir yapay zeka motoru bu tür ihlalleri doğrudan durduramaz. Ancak davranış kalıplarını öğrenebilir, uyarılar verebilir ve kuruluşların tepki vermeye daha iyi hazırlanmasına yardımcı olabilir.

Güvenlikte Yapay Zekaya Daha Akıllı Bir Yaklaşım

Sonuç olarak yapay zekaya sihirli bir değnek gibi davranamayız. Güvenlik sorunlarımızın tamamını çözecek tek bir araç yok. Ne yazık ki, son beş yılda sektör, yeteneğin yerini otomasyon ve nokta çözümleriyle değiştirerek kendini bir çıkmaza soktu. İşletmelerin gerçek hatalar yapan gerçek insanlardan oluştuğunu unutmuş gibiyiz.

Bu, daha güvenli organizasyonlar yaratmamıza yardımcı olacak güçlü bir yardımcı olabilecek ve olacak olan üretken yapay zeka ve makine öğreniminin gücünü elimizden almak anlamına gelmiyor. Zamanla, yapay zeka ile güvenlik sorunları hakkında sade bir dille konuşabileceğimizi ve tehditlere veya ihlallere nasıl daha iyi yanıt verebileceğimize dair yanıtlar alabileceğimizi düşünüyorum. Aslında bu, pazarın bazı köşelerinde şimdiden gerçekleşmeye başlıyor. Yapay zeka eninde sonunda hataları göstermede ve bizi olası güvenlik sorunlarına veya tehlikeli senaryolara karşı uyarmada çok başarılı olacak. Bireysel çalışanların şirketi riske atmaya özellikle eğilimli olduğunu gösteren kalıpların tanınması serbest bırakılabilir ve serbest bırakılmalıdır.

Ancak hiçbir zaman duyguya dayalı insan hatalarını durduramayacak. Müdahale planlarımız yalnızca otomasyon, algılama ve araçlardaki en iyileri değil, aynı zamanda bir değişikliğin kuruluşun çeşitli bölümlerini nasıl etkileyebileceğini de dikkate almalıdır. Bir operasyonun zemin katındaki siloların yıkılması hakkında çok konuşuruz, ancak şu anki sorunumuz üst katlardaki yöneticilerin etkiyi ve beklenen eylemi anlamalarını sağlamaktır; kabloların arasından uçan sihirli perilerin sorumluluğunu dış kaynaklara vermek değil. Her zaman doğru olan şey şu şekilde kalıyor: Siber güvenlik sürekli gelişen bir şeydir ve bir organizasyonu düzgün bir şekilde işletmek ve savunmak için inanılmaz derecede insani çaba gerektirir.

Reklam



Source link