Gelişmiş yapay zeka robotlarının her şeyi biliyormuş gibi davranması çok olası. Hatta bu robotlar hata yaptıklarını bile itiraf etmeyebilirler. İşte tüm detaylar.
Araştırmacılar daha akıllı sohbet robotlarının bariz bir dezavantajını fark ettiler. Yapay zeka modelleri ilerledikçe tahmin edilebileceği üzere daha doğru hale gelse de, “Bilmiyorum” demek yerine yeteneklerinin ötesindeki sorulara (yanlış) yanıt verme olasılıkları da artıyor. İspanya’daki Universitat Politecnica de Valencia’da profesör olan José Hernández-Orallo, Nature’a “Bugünlerde neredeyse her şeye cevap veriyorlar” dedi. “Bu da aynı zamanda daha fazla yanlış anlamına geliyor.”
Proje lideri Hernández-Orallo, İspanya’daki Valensiya Yapay Zeka Araştırma Enstitüsü’ndeki meslektaşlarıyla birlikte çalıştı. Ekip, aralarında OpenAI’nin GPT serisi, Meta’nın LLaMA’sı ve açık kaynak BLOOM’un da bulunduğu üç LLM ailesi üzerinde çalıştı. Her modelin ilk versiyonlarını test ettiler ve daha büyük, daha gelişmiş modellere geçtiler; ancak günümüzün en gelişmiş versiyonuna değil. Örneğin ekip, OpenAI’nin nispeten ilkel GPT-3 ada modeliyle başladı ve Mart 2023’te gelen GPT-4’e kadar olan yinelemeleri test etti.
Araştırmacılar her modeli “aritmetik, anagramlar, coğrafya ve bilim” ile ilgili binlerce soru üzerinde test etti. Ayrıca AI modellerini, bir listeyi alfabetik olarak sıralamak gibi bilgileri dönüştürme yetenekleri konusunda da test ettiler. Ekip, istemlerini algılanan zorluğa göre sıraladı. Veriler, modeller büyüdükçe chatbotların yanlış cevap oranının (sorulardan tamamen kaçınmak yerine) arttığını gösterdi. Yani yapay zeka, daha fazla konuda uzmanlaştıkça her konuda fikre sahipmiş gibi davranıyor.
Elektrikli Araç Şarj İstasyonları Tehlike Saçıyor: Sahte QR Kod Tehlikesi