OpenAI, yapay zekanın risklerini yönetmek için özel bir ekip oluşturuyor. İşte tüm detaylar.
Süper zeka olarak adlandırılan yapay zekayı kontrol altına almak için artık bir ekip var. Süper zeka, en yetenekli ve zeki insandan bile daha akıllı olan ve bazı önceki nesil modeller gibi tek bir alan yerine birden çok uzmanlık alanında üstün olan varsayımsal bir yapay zeka modeli. OpenAI, böyle bir modelin on yıldan önce gelebileceğine inanıyor. Kâr amacı gütmeyen kuruluş, “Süper zeka, insanlığın şimdiye kadar icat ettiği en etkili teknoloji olacak ve dünyanın en önemli sorunlarının çoğunu çözmemize yardımcı olabilir” dedi. “Ancak süper zekanın muazzam gücü aynı zamanda çok tehlikeli olabilir ve insanlığın güçsüzleşmesine ve hatta yok olmasına yol açabilir.”
Yeni ekip, OpenAI Baş Bilim İnsanı Ilya Sutskever ve araştırma laboratuvarının uyum başkanı Jan Leike tarafından ortaklaşa yönetilecek. Buna ek olarak OpenAI, otomatik bir araştırma geliştirmek amacıyla şu anda güvenli olan bilgi işlem gücünün yüzde 20’sini girişime adayacağını söyledi. Böyle bir sistem teorik olarak OpenAI’ye bir süper zekanın kullanımının güvenli ve insani değerlerle uyumlu olmasını sağlamada yardımcı olacak. Şirket, “Bu inanılmaz derecede iddialı bir hedef olsa ve başarılı olacağımız garanti edilmese de, uyumlu bir çabanın bu sorunu çözebileceği konusunda iyimseriz” dedi. “Ön deneylerde umut vaat eden birçok fikir var, ilerleme için giderek daha yararlı ölçütlere sahibiz ve bu sorunların çoğunu ampirik olarak incelemek için bugünün modellerini kullanabiliriz.”
Diablo 4 reklamını ‘karantinayı hatırlatıyor’ diyerek şikayet etti!