
Yapay zeka, GitHub Copilot’un kod tamamlamalarından anında cevaplar için iç bilgi tabanlarını çıkaran sohbet botlarına kadar kurumsal üretkenlikte büyük bir değişim sağlıyor. Her yeni ajan, kurumsal bulutlar arasında insan olmayan kimliklerin (NHI) nüfusunu sessizce şişirerek diğer hizmetlere kimlik doğrulaması yapmalıdır.
Bu nüfus zaten işletmeyi eziyor: Birçok şirket artık en azından dengeledi Her insan kullanıcısı için 45 makine kimliği. Servis hesapları, CI/CD botları, kaplar ve AI temsilcilerinin tümü, işlerini yapmak için diğer sistemlere güvenli bir şekilde bağlantı kurmak için en çok API anahtarları, jetonlar veya sertifikalar şeklinde sırlara ihtiyaç duyar. GitGuardian’ın Sırlar Durumu 2025 raporu bu yayılmanın maliyetini ortaya koyuyor: 23.7 milyon sır Yalnızca 2024’te halka açık Github’da ortaya çıktı. Ve durumu daha iyi hale getirmek yerine, kopilotlu depolar sırların sızmasını sağladı Yüzde 40 daha sık.
NHIS insan değil
Sistemlere giriş yapan insanların aksine, nadiren kimlik bilgilerinin rotasyonunu, sıkı bir şekilde kapsam izinlerini veya kullanılmayan hesapları zorunlu kılmak için herhangi bir politikaya sahip değildir. Yönetilmez, saldırganların bu sırları hatırladıktan sonra uzun süre kullanabileceği yoğun, opak bir yüksek riskli bağlantılar ağını örüyorlar.
AI’nın benimsenmesi, özellikle büyük dil modelleri ve geri kazanım yaratan nesil (RAG), bu riske neden olan yayılmanın meydana gelebileceği hızı ve hacmi önemli ölçüde artırmıştır.
Bir LLM tarafından desteklenen bir dahili destek sohbet botu düşünün. Bir geliştirme ortamına nasıl bağlanacağı sorulduğunda, bot geçerli kimlik bilgileri içeren bir izdiham sayfası alabilir. Chatbot farkında olmadan sırları doğru soruyu soran herkese açığa çıkarabilir ve günlükler bu bilgiyi erişime sahip olana kolayca sızdırabilir. Daha da kötüsü, bu senaryoda LLM, geliştiricilerinize bu düz metin kimlik bilgilerini kullanmalarını söylüyor. Güvenlik sorunları hızlı bir şekilde yükselebilir.
Durum umutsuz değil. Aslında, NHIS ve Sır Yönetimi etrafında uygun yönetişim modelleri uygulanırsa, geliştiriciler aslında daha hızlı yenilik yapabilir ve konuşlandırabilirler.
AI ile ilişkili NHI riskini azaltmak için beş eyleme geçirilebilir kontrol
Yapay zeka odaklı NHI’ların risklerini kontrol etmek isteyen kuruluşlar, bu beş eyleme geçirilebilir uygulamaya odaklanmalıdır:
- Veri kaynaklarını denetleyin ve temizleyin
- Mevcut NHIS yönetiminizi merkezileştirin
- LLM dağıtımlarında sırları önlemek
- Günlük Güvenliğini Geliştirin
- AI veri erişimini kısıtlayın
Bu alanların her birine daha yakından bakalım.
Veri kaynaklarını denetleyin ve temizleyin
İlk LLM’ler sadece eğitildikleri belirli veri kümelerine bağlandı ve onları sınırlı yeteneklere sahip yenilikler haline getirdi. Geri alınan üretim üretimi (RAG) mühendisliği, LLM’nin gerektiğinde ek veri kaynaklarına erişmesine izin vererek bunu değiştirdi. Ne yazık ki, bu kaynaklarda sırlar varsa, ilgili kimlikler artık istismar edilme riski altındadır.
Proje yönetimi platformu JIRA, Slack gibi iletişim platformları ve Confluence gibi bilgi tabanları dahil olmak üzere veri kaynakları AI veya Sırlar göz önünde bulundurularak inşa edilmedi. Birisi düz metin API anahtarı eklerse, bunun tehlikeli olduğunu iddia etmek için hiçbir güvence yoktur. Bir chatbot, doğru yol açmasıyla kolayca sır-sarkan bir motor haline gelebilir.
LLM’nizin bu iç sırları sızdırmasını önlemenin tek kesin yolu, mevcut sırları ortadan kaldırmak veya en azından taşıdıkları erişimi iptal etmektir. Geçersiz bir kimlik bilgisi, bir saldırganın hemen riskini taşımaz. İdeal olarak, AI’nız onu alabilmeden önce herhangi bir gizli olan bu örnekleri tamamen kaldırabilirsiniz. Neyse ki, Gitguardian gibi bu süreci mümkün olduğunca ağrısız hale getirebilen araçlar ve platformlar var.
Mevcut NHIS yönetiminizi merkezileştirin
“Ölçemezseniz, onu geliştiremezsiniz” alıntısı çoğunlukla Lord Kelvin’e atfedilir. Bu, insan olmayan kimlik yönetişimi için çok doğrudur. Şu anda sahip olduğunuz tüm hizmet hesaplarını, botları, ajanları ve boru hatlarını stok almadan, ajan yapay zekanızla ilişkili yeni NHIS etrafında etkili kurallar ve kapsamlar uygulayabileceğiniz konusunda çok az umut yoktur.
İnsan olmayan kimliklerin ortak noktası olan tek şey, hepsinin bir sırrı olmasıdır. NHI’yi nasıl tanımlarsanız tanımlayın, hepimiz kimlik doğrulama mekanizmalarını aynı şekilde tanımlıyoruz: sır. Envanterlerimizi bu lens aracılığıyla odakladığımızda, odağımızı yeni bir endişeden uzak olan sırların doğru depolanmasına ve yönetimine çökertebiliriz.
Hashicorp Vault, Cyberark veya AWS Sırlar Yöneticisi gibi bunu başarılabilir hale getirebilecek birçok araç var. Hepsi merkezi olarak yönetildikten ve muhasebeleştirildikten sonra, uzun ömürlü kimlik bilgileri dünyasından, rotasyonun politika tarafından otomatikleştirildiği ve uygulandığı bir dünyaya geçebiliriz.
LLM dağıtımlarında sırları önlemek
Model Bağlam Protokolü (MCP) sunucuları, Agentic AI’nın hizmetlere ve veri kaynaklarına nasıl eriştiği için yeni standarttır. Daha önce, bir kaynağa erişecek bir AI sistemi yapılandırmak istiyorsanız, gittikçe kendinizle bağlanmanız gerekir. MCP, AI’nın standart bir arayüzle servis sağlayıcısına bağlanabileceği protokolü tanıttı. Bu, şeyleri basitleştirir ve bir geliştiricinin entegrasyonun çalışmasını sağlamak için bir kimlik bilgisini sabitleme şansını azaltır.
Gitguardian güvenlik araştırmacılarının yayınladığı daha endişe verici makalelerden birinde, bulabildikleri tüm MCP sunucularının% 5,2’sinin en az bir sert kodlanmış sır içerdiğini buldular. Bu, tüm kamu depolarında gözlenen maruz kalan sırların% 4,6 oranından daha yüksektir.
Tıpkı dağıttığınız diğer teknolojilerde olduğu gibi, yazılım geliştirme yaşam döngüsünün başlarında bir ons önlemi daha sonra bir kiloluk olayı önleyebilir. Hala bir özellik şubesinde olduğunda sert kodlanmış bir sırrı yakalamak, asla birleştirilemeyeceği ve üretime gönderilemeyeceği anlamına gelir. GIT kancaları veya kod düzenleyicisi uzantıları aracılığıyla geliştirici iş akışına sır algılama eklemek, düz metin kimlik bilgilerinin asla paylaşılan depolara yapmadığı anlamına gelebilir.
Günlük Güvenliğini Geliştirin
LLM’ler, istek alan ve olasılıklı cevaplar veren kara kutulardır. Temel vektörleştirmeyi ayarlayamasak da, onlara çıktının beklendiği gibi olup olmadığını söyleyebiliriz. AI mühendisleri ve makine öğrenme ekipleri, AI ajanlarını geliştirmek için sistemi ayarlamak için ilk bilgi isteminden, alınan bağlamdan ve oluşturulan yanıttan her şeyi gündeme getirir.

Süreçteki bu girişli adımlardan herhangi birinde bir sır ortaya çıkarsa, şimdi aynı sızdırılmış sırrın birden fazla kopyasına sahipsiniz, büyük olasılıkla üçüncü taraf bir araçta veya platformda. Çoğu takım günlükleri ayarlanabilir güvenlik kontrolleri olmadan bulut kovalarında saklar.
En güvenli yol, günlükler üçüncü bir tarafa depolanmadan veya gönderilmeden önce bir sanitizasyon adımı eklemektir. Bu, kurmak için biraz mühendislik çabası gerektiriyor, ancak yine de, Gitguardian’ın GGShield gibi araçlar, herhangi bir komut dosyasından programlı olarak çağrılabilecek sır taramasına yardımcı olmak için burada. Sır temizlenirse, risk büyük ölçüde azalır.
AI veri erişimini kısıtlayın
LLM’nizin CRM’nize erişimi olmalı mı? Bu zor bir soru ve son derece durumsal. SSO’nun arkasına kilitlenmiş bir dahili satış aracı ise, teslimatı iyileştirmek için notları hızlı bir şekilde arayabilir, sorun olmayabilir. Web sitenizin ön sayfasındaki bir müşteri hizmetleri sohbet botu için, cevap kesin bir hayır.
Tıpkı izinler belirlerken en az ayrıcalık ilkesini izlememiz gerektiği gibi, konuşlandırdığımız herhangi bir AI için en az erişim ilkesi uygulamalıyız. Bir AI ajanına hızlanma adına her şeye tam erişim sağlama cazibesi çok büyük, çünkü çok erken yenilik yapma yeteneğimizi kutlamak istemiyoruz. Çok az erişim vermek RAG modellerinin amacını yener. Çok fazla erişim vermek, kötüye kullanımı ve bir güvenlik olayını davet eder.
Geliştirici Farkındalığı Artırın
Başladığımız listede olmasa da, doğru insanlara ulaşmadığınız sürece tüm bu rehberlik işe yaramaz. Ön cephedeki insanlar, daha verimli ve güvenli bir şekilde çalışmalarına yardımcı olmak için rehberlik ve korkuluklara ihtiyaç duyarlar. Burada sunulacak sihirli bir teknoloji çözümü olmasını dilsek de, gerçek şu ki, AI’yi güvenle ölçekte inşa etmek ve dağıtmak hala insanların doğru süreçler ve politikalarla aynı sayfaya girmesini gerektiriyor.
Dünyanın geliştirme tarafındaysanız, bu makaleyi güvenlik ekibinizle paylaşmanızı ve kuruluşunuzda AI’nın nasıl güvenli bir şekilde oluşturulacağını almanızı öneririz. Bunu okuyan bir güvenlik uzmanıysanız, bunu geliştiricileriniz ve DevOps ekiplerinizle paylaşmaya davet ediyoruz ve AI’nın burada olduğu konuşmayı ilerletmek için ve onu inşa edip onunla inşa ettikçe güvende olmamız gerekiyor.
Makine kimliğini güvence altına almak daha güvenli yapay zeka dağıtımlarına eşittir
AI benimsemesinin bir sonraki aşaması, insan olmayan kimliklere insan kullanıcılarla aynı titizlik ve özenle davranan kuruluşlara ait olacaktır. Sürekli izleme, yaşam döngüsü yönetimi ve sağlam sır yönetişimi standart işletim prosedürü haline gelmelidir. Şimdi güvenli bir temel oluşturarak, işletmeler AI girişimlerini güvenle ölçeklendirebilir ve güvenlikten ödün vermeden akıllı otomasyon vaadinin kilidini açabilir.