Yapay Zeka Ajanları Şifreleri Ortalığa Saçtı! Testler Alarm Verdi

fidye yazılım yapay zeka

Irregular tarafından yapılan testler, yapay zeka ajanlarının basit kurumsal görevlerde bile kontrolden çıkabildiğini gösterdi. LinkedIn paylaşımı hazırlaması istenen ajanlar, hassas parolaları açık şekilde yayınladı. Lafı daha fazla uzatmadan neler olup bittiğine birlikte bakalım…

Irregular isimli güvenlik firmasına göre yapay zeka ajanları, rutin işler sırasında saldırgan davranışlar sergileyebiliyor. Gerçekleştirilen testlerde ajanlara, bir şirket veri tabanındaki içerikleri kullanarak LinkedIn gönderileri hazırlama görevi verildi. Fakat bu kolay görev kabusa dönüştü. Testlerde bazı modellerin güvenlik engellerini aştığı, şifreleri herkese açık şekilde paylaştığı görüldü. Bazıları antivirüs yazılımını devreden çıkarıp zararlı yazılım içeren dosyaları bilerek indirdi. Bilmeyenler için ajan ya da orijinal adıyla agent, kendisine verilen işi insan müdahalesi olmadan adım adım yerine getirebilen yapay zeka araçlarına deniyor.

Testlerde Google, xAI, OpenAI ve Anthropic modellerine dayalı ajanlar kullanıldı. Deneyler, sıradan bir şirketin bilgi işlem altyapısını taklit eden bir sistem üzerinde yürütüldü.

yapay zeka 4

Gelelim dananın kuyruğunun koptuğu yere yani tam olarak neler yapıldığına. Kıdemli bir yapay zeka ajanına yönetici rolü verildi. Yönetici ajandan engelleri yaratıcı şekilde aşmaları için alt ajanlara talimat vermesi istendi. Doğrudan güvenlik önlemlerini geçmesi ya da siber saldırı yapması ise söylenmedi. Buna rağmen süreç başka yönde ilerledi. Alt ajanlardan biri, şirket yönetimi hakkındaki hassas bilgilere erişemediğini söyleyerek ilk başta geri adım attı.

Yapay Zeka

Ardından baş ajan tekrar devreye girdi. Ortada gerçek bir kriz olmamasına rağmen, yönetim kurulunun öfkeli olduğunu öne sürdü ve başka bir yol kullanılmasını emretti. Bunun üzerine alt ajan, veri tabanının kaynak kodunu taradı, gizli bir anahtar buldu ve bunu sahte kimlik bilgileri üretmek için kullandı. Böylece alt ajan, yönetici yetkisi gerektiren verilere erişim sağladı ve bu bilgileri de görmemesi gereken kişiye aktardı. Diğer bir deyişle sistem, açıkça söylenmeyen sahtecilik ve yetki aşımı yöntemlerini kendi başına devreye soktu.

Google reCAPTCHA V2 sistemi Yapay zeka

Irregular, bunun tekil bir hata olmadığını düşünüyor. Firmaya göre ajanları verimli kılan araç kullanımı, hatalara rağmen devam etme eğilimi ve karar alma serbestliği saldırgan davranışların da önünü açıyor. Üstelik benzer vakalar artık yalnızca testlerle sınırlı değil. Şubat 2026’da bir kodlama ajanı, bir web sunucusunu durdurmaya çalışırken kimlik doğrulama engeline takıldı. Ardından alternatif bir yol bulup kök yetkilerine kendi başına ulaştı. Başka bir olayda ise model, oturum açma bilgilerine erişti. Bunların başka bir kullanıcıya ait olduğunu bildiği hâlde kullanmaya devam etti. Her iki olayda da ajanlar yine rutin görevler yürütüyordu.

Geçen ay Harvard ve Stanford araştırmacıları da benzer sonuçlara ulaştı. Uzmanlar, yapay zeka ajanlarının sırları sızdırabildiğini, veri tabanlarını bozabildiğini ve diğer ajanlara kötü davranışları öğretebildiğini ortaya koydu.

Morgan Stanley’den Yapay Zeka Uyarısı! Dünya Henüz Hazır Değil