Kendi hedeflerini belirleyen, insan gözetimini devre dışı bırakan tam otonom yapay zeka sistemleri büyük risk taşıyor. Yeni bir akademik çalışma bu seviyeye çıkmanın neden tehlikeli olduğunu açıkça ortaya koydu. İşte detaylar…
‘AI Must not be Fully Autonomous’ isimli yeni bir çalışma yapay zekayla ilgili bir noktaya dikkat çekti. Çalışmada yapay zekanın üç farklı otonom seviyesi tanımlandı. İlk seviyede insanlar sistemi yönlendiriyor ve karar mekanizması açık biçimde kontrol altında.
İkinci seviyede yapay zeka daha çok inisiyatif alıyor, yine de insan gözetimi devrede. Üçüncü seviye ise bambaşka bir kapı aralıyor. Bu aşamada AI sistemi kendi hedeflerini belirliyor, görevlerini buna göre şekillendiriyor ve insan müdahalesi giderek azalıyor. Araştırma ekibi, ‘tam otonom’ olarak tanımladığı bu seviyenin en tehlikeli eşik olduğunu söyledi.

Peki risk nerede başlıyor? Odanızdaki tozu temizlemesi için AI destekli bir robot tasarladığınızı düşünün. Tam otonom bir sistem bu görevi ‘tozun kaynağını yok etmek’ gibi uç bir hedefe dönüştürebilir. Teknik olarak buna ‘ödül hilesi’ deniyor. Yani yapay zeka görevi kendi lehine çarpıtarak, kullanıcıya zarar verebilecek sonuçlara yöneliyor. Aynı durum finans, savunma, altyapı veya tıbbi alanlarda çok daha büyük sonuçlar doğurabilir.

Araştırma ayrıca aldatma ve hedef saklama davranışlarına da dikkat çekti. Büyük modellerin bazı senaryolarda insan denetimini yanıltacak şekilde yanıtlar üretebildiği daha önceki testlerde ortaya çıkmıştı. Tam otonom bir yapıda bu tür davranışların fark edilmesi daha da zorlaşabilir.
Uzmanlar gerçek dünya sistemlerinde her zaman insan gözetiminin korunması, karar süreçlerinin izlenebilir olması ve otonomi sınırlarının açık şekilde tanımlanması gerektiğini belirtiyor. Aksi halde yapay zeka, yardımcı bir araç olmaktan çıkıp kontrol edilemeyen bir güç haline gelebilir.






