OpenAI durdurulmalı! İnsanlık tehlikeyle karşılaşabilir

openai

OpenAI CEO’su Sam Altman yapay zekanın avantajları ve yapılması gereken düzenlemeler gibi konulardan bahsetmek için mini bir dünya turuna çıktı. Ancak Altman son olarak konuşma için gittiği yerde protesto edildi. Protestocular, OpenAI’nin tehlikeli işler peşinde olduğunu, yapay zekada AGI seviyesinin insanlığa zarar verebileceğini düşünüyor.

Sam Altman geçtiğimiz gün University College London’da konuşma gerçekleştirdi. OpenAI CEO’su büyük bir ilgiyle karşılaştı, yüzlerce kişi konuşmayı izlemek için kuyruk oldu. Ancak bir avuç protestocu konuşmanın yapıldığı binanın önünde yapay zeka hakkında sert uyarılarda bulundu. Protestocular, OpenAI ve benzeri şirketlerin, AGI seviyesindeki çalışmalarını durdurmaları çağrısında bulundu. Çünkü AGI’nin insanlık için tehdit oluşturabileceğini söylediler. AGI, Artificial General Intelligence anlamına geliyor. Türkçe olarak Yapay Genel Zeka diyebiliriz. AGI insan benzeri anlayışa sahip yapay zekanın gelişiminde önemli bir kilometre taşı olarak gösteriliyor.

Protestoculardan biri olan Gideon Futerman, Sam Altman’ın dolandırıcı olabileceğini söyledi. Futerman, “Umarım dolandırıcıdır. Ama ne olursa olsun, yeterince bilinen zararları olan sistemleri abartarak anlatıyor. Eğer dolandırıcı değilse ve haklıysa, o zaman tehlike çok çok daha büyük olacaktır. İnsanlık tehlikeyle karşı karşıya kalabilir” dedi.

openai

Sam Altman, konuşmasında insanların yapay zekayla ilgili endişelerinde haklı olduğunu, ancak potansiyel faydalarının daha büyük olduğunu belirtti. Bununla birlikte yapay zekanın güvenliği konusunda testler yapılması, resmi olarak kanunlar ve düzenlemelerin hayata geçirilmesi gerektiğinin altını çizdi.

OpenAI’yi eleştirenlere göreyse yapay zeka ya da AGI seviyesinin düzenlenmesine ilişkin bu konuşmalar, şu anda yapay zekanın verdiği zararları saklamak ve dikkatleri dağıtmak için yapılan bir hile. Eleştirenler, Altman’ın her şeyi gelecek zamana yönlendirdiğini, şimdi ise yapay zeka tarafından oluşturan yanlış bilgiler, yanlış bilgilerin yayılması, yüz tanımlama gibi tüm konuların masaya yatırılması gerektiğini savunuyor.

Söylenenlere göre OpenAI, GPT-5’in eğitimini 2023 sonuna kadar bitirmek istiyor. Fakat iddialar bu kadarla sınırlı değil. Geliştirici Siqi Chen, yazdığı tweet’te şirket içindeki bazı kişilerin GPT-5’in AGI seviyesine ulaşabileceğine inandığını ileri sürdü. Chen, daha sonra başka bir tweet atarak, GPT-5 ve AGI’le ilgili iddiasının OpenAI içindeki herhangi bir şeyi temsil etmediğini söyledi. Sonuç olarak dedikoduların fitilini de ateşlemiş oldu.

Sony, Project Q isimli yeni cihazını duyurdu! Ancak el konsolu değil!


Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir