Elon Musk’ın şirketi xAI yapay zeka güvenliği konusunda sektör normlarının dışına çıkmakla eleştiriliyor. Grok 4 modelinin geliştirme süreci ve güvenlik kontrollerine dair belirsizlikler tartışmalara neden oldu.
OpenAI ve Anthropic araştırmacıları, Elon Musk’ın xAI girişimine yapay zeka güvenliği uygulamaları nedeniyle eleştiriler yöneltti. Uzmanlar şirketin Grok 4 modelinin güvenlik kontrollerine dair yeterli bilgiyi paylaşmamasını “sorumsuz” olarak tanımladı. Harvard’dan OpenAI’ya katılan Prof. Boaz Barak, “xAI’daki mühendisleri takdir ediyorum, fakat güvenlik uygulamaları ihmalkarlık içeriyor” dedi. Barak, Grok 4’ün geliştirme sürecine dair belirsizliğin soru işaretleri yarattığını vurguladı.
Anthropic araştırmacısı Samuel Marks da benzer eleştiriler yöneltti. Marks, “OpenAI ve Google’ın da eksikleri var, ama en azından riskleri belgeliyorlar. xAI bunu yapmıyor” ifadelerini kullandı.
İlginizi çekebilir: Red Hat, 2025 Yılında Çoklu Bulut Konteyner Platformlarında Lider Olarak SeçildiGeçtiğimiz hafta Grok sohbet robotunun X platformunda skandal yanıtlar vermesi, Grok 4 modeliyle birlikte yayınlanan anime kızı ve panda avatarları tartışmaların üstüne benzin döktü. Sektör uzmanları, Elon Musk’ın yıllardır yapay zeka güvenliği vurgusu yapmasına rağmen, xAI’ın uygulamalarının bu söylemlerle çeliştiğine dikkat çekiyor.
ABD’de bazı eyaletlerde, yapay zeka şirketlerine güvenlik raporu yayınlamayı zorunlu kılan yasa tasarıları gündemde. Araştırmacılar mevcut durumda Grok 4’ün test süreçleri ve güvenlik değerlendirmeleri hakkında kamuoyunun net bilgiye sahip olmadığını vurguladı.