Büyük Yapay Zeka Dolandırıcılığı – Cyber ​​Defense Dergisi


AI yıkama veya AI yetenekleri hakkında abartılı veya yanıltıcı iddialarda bulunmak yeni bir şey değil. Bazı açılardan, yeni bir yıkıcı teknoloji ilgi odağı olduğunda beklenmesi gereken bir şey.

Ancak ChatGPT’nin piyasaya sürülmesinden bu yana, hiper hıza geçti. Yenilikçi görünme ve pazar payı kapma mücadelesinde, bazı şirketler yapay zeka becerilerini aşırı derecede abartıyor.

Dikkat çekmenin her şey olduğu bir dünyada burada yeni bir şey yok, elbette. Ancak, bu tür iddialarda bulunmanın sonuçları pazarlama abartısının ötesine geçebilir. Yapay zeka yıkama, ciddi tehditleri maskelerken sahte bir güvenlik duygusu yaratıyor.

Yapay Zeka sadece ChatGPT’den ibaret değil

Abartının ötesine geçmek önemli: ChatGPT ve Copilot gerçekten heyecan verici teknoloji parçaları, ancak bunlar onlarca yılı kapsayan bir AI hikayesinin sadece son bölümü. Burada yeni olan şey, transformatör adı verilen belirli bir sinir ağı türünün (yani, biyolojik sistemlerdeki nöronların yapısından esinlenen matematiksel bir modelin) kullanılmasıdır.

ChatGPT’nin etkisi nedeniyle, bugün çoğu insanın AI’dan bahsettiğinde kastettiği şey, bu tür bir dönüştürücü tabanlı sinir ağıdır. Bu Büyük Dil Modelleri (LLM’ler) çığır açan bir ilerlemeyi temsil eder, ancak bunlar AI’nın yalnızca en son evrimidir, tamamı değildir.

İşletmeler, anormallikleri tespit etmek, verileri gruplandırmak, önerilerde bulunmak ve daha fazlası için onlarca yıldır yapay zeka ve makine öğrenimini (ML) kullanıyor. ML genellikle sinir ağlarını kullanmaz ve uzun yıllardır yazılım geliştiricisinin repertuarının bir parçası olmuştur.

Ürünlerinde ML kullanan şirketler, muhtemelen samimiyetsiz olsa da, teknik olarak AI’ya sahip olduklarını söylemekte haklılar. Bunun nedeni, AI yıkama işleminin artık araştırma tarafındaki çoğumuzun “AI” terimini kullandığımızda kastettiği şey ile şirketlerin “AI destekli” olma iddiaları arasındaki bu kopuklukta gerçekleşmesidir. Aslında birçoğunun kastettiği şey, iyi bilinen ML yöntemlerine veya daha kötüsü, AI olarak gizlenen kaba, sabit kodlanmış mantığın arkasına dayanmaktadır. Bu durumlarda, çevresini algılama ve ondan öğrenme gibi AI özellikleri yoktur.

Aldatma cazibesi

Şirketlerin bunu neden yapabileceğini görmek kolaydır. Günümüz pazarında, AI yeteneklerini iddia etmek ciddi bir ağırlık taşır. Çok sayıda çalışma, tüketicilerin ve iş karar vericilerinin AI benimsemesini rekabetçi bir zorunluluk olarak gördüğünü göstermektedir. Bir ankette, tüketicilerin %73’ü AI’nın müşteri deneyimleri üzerinde olumlu bir etkiye sahip olabileceğini söyledi.

Şaşırtıcı olmayan bir şekilde, daha az titiz satıcılar kodlarındaki yüceltilmiş IF ifadelerine AI etiketini yapıştırmaktan mutluluk duyarlar. Satış yapmaya ve yatırımcı çekmeye yardımcı olabilir. Ancak, kötü niyetli iddialar gerçek ilerlemeyi gizler ve güvenli ve sorumlu AI dağıtımının zorlukları etrafındaki gerekli konuşmaları bir kenara iter.

İyi niyetli şirketler bile yenik düşebilir. Şirketlerin AI kullandığını iddia ettiği ancak gerçekte çoğunun söz konusu projelerini henüz başlatmadığı durumlar gördük. Bu şirketler, kıt ve pahalı AI yeteneklerini işe almak için çabalarken, alanlarında lider olarak görülmek için bir AI ayak izi iddia etmeleri gerektiğini hissettiler.

Gizli riskler

Hayal kırıklığı gerçek bir risktir, ancak AI yıkama hayal kırıklığının ötesinde tehlikeler getirir. Sahte AI iddiaları gerçek ilerlemeyi gizler ve sorumlu AI kullanımıyla ilgili önemli konuşmaları engeller.

“Askeri düzeyde yapay zeka”yı düz bir suratla öven şirketler, gerçek yeniliklerin ilgi ve güven kazanmasını çok daha zor hale getiriyor. Abartı, uzmanların daha iyi veri gizliliği, şeffaflık ve adalet çağrılarını bastırıyor.

En rahatsız edici olanı, kurgusal AI’ya odaklanmak dikkati ve kaynakları açık ve mevcut tehlikelerden uzaklaştırır. Sonuç olarak AI hala bir yazılımdır ve bu nedenle birçok profesyonelin aşina olduğu siber güvenlik risklerine karşı hassastır. Gelişmiş üretken AI modelleri halihazırda kritik kurumsal sistemlere ve müşteriye yönelik ürünlere dahil ediliyor. Güvenlik düşünülmeden oluşturulup dağıtılırsa, bu modeller siber saldırılara karşı oldukça hassas olabilir. Gerçekten de, kötü niyetli aktörlerin hassas verileri sızdırabileceği, tescilli modelleri yeniden oluşturabileceği, kötü amaçlı arka kapılar açabileceği gösterilmiştir – hepsi de geleneksel siber güvenliği uyarmak için tek bir satır kodlanmış aldatmaca olmadan.

AI yıkama abartı döngüsü yalnızca sahte bir rahatlık sağlamakla kalmaz, aynı zamanda işletmelerin gezinmekte ve yönetmekte zorlandığı gerçek riski de etkin bir şekilde gizler. Aşırı iddiada bulunmak yalnızca tüketicileri yanıltmakla kalmaz, aynı zamanda işletmelerin AI benimseme ve yatırımı konusunda yetersiz bilgiye dayalı kararlar almasına da yol açabilir. Şirketler, verilerini, fikri mülkiyetlerini ve itibarlarını riske atarak etkisiz veya güvenli olmayan AI çözümlerine kaynak israfı yapabilir.

Demokratikleşmiş yapay zeka çağında güven kazanmak

Açık olmak gerekirse, AI’nın rekabetçi işletmeler için gerçekten dönüştürücü olma potansiyeli vardır. Ancak karmaşıklık arttıkça, saldırı yüzeyi ve özel olarak oluşturulmuş, savaşta test edilmiş AI güvenliği zorunluluğu da artar.

Bir işletmenin AI güvenliğini anlaması veya yönetmesi giderek zorlaşıyor. AI ortamında etkili bir şekilde gezinmek ve bilinçli kararlar almak için iş liderlerinin AI okuryazarlığına ve eğitimine yatırım yapması gerekiyor. Bu, farklı AI teknolojilerinin yeteneklerini ve sınırlamalarını ve güvenli ve etik AI dağıtımı için en iyi uygulamaları anlamak anlamına geliyor.

Erişilebilir derin öğrenme çağında, güvenin pazarlama saçmalıklarıyla satın alınması değil, şeffaflıkla sürekli kazanılması gerekir. İşletmeler yalnızca yapay zeka yıkama gürültüsünü aşarak kalıcı değer inşa edebilir ve geleceği güvence altına alabilir.

Yazar Hakkında

Büyük Yapay Zeka DolandırıcılığıMindgard’ın CEO’su ve Kurucu Ortağı Peter Garraghan, yapay zeka altyapısı ve güvenliği konusunda uluslararası alanda tanınan bir uzmandır. 1 milyardan fazla kişi tarafından kullanılan önde gelen bir teknoloji şirketi tarafından küresel olarak uygulanan araştırma yeniliklerine öncülük etmiştir. Lancaster Üniversitesi’nde profesör olarak 11,6 milyon avrodan fazla araştırma fonu toplamış ve 60’tan fazla bilimsel makale yayınlamıştır. Mindgard, yapay zeka, GenAI ve LLM’lerle çalışan tüm şirketler için siber güvenlik konusunda uzmanlaşmış derin teknoloji girişimidir. Mindgard, 2022 yılında dünyaca ünlü Lancaster Üniversitesi’nde kurulmuştur ve şu anda Londra, İngiltere’de bulunmaktadır. IQ Capital ve Lakestar gibi önde gelen yatırımcılar tarafından desteklenen şirket, 3,5 milyon avroluk fon elde etmiştir. Mindgard’ın birincil ürünü – yapay zeka güvenliğinde sekiz yıllık titiz Ar-Ge’den doğmuştur – kapsamlı güvenlik testi, kırmızı takım ve hızlı tespit/tepki için otomatik bir platform sunmaktadır.

Peter Garraghan’a LinkedIn’den ve şirketimizin web sitesi https://mindgard.ai/ adresinden çevrimiçi olarak ulaşılabilir.



Source link