DeepSeek V3.1 Sonunda Sahneye Çıktı

Deepseek assists China in its military operations according to a US official

Nvidia’yı sarsan model geri döndü. Çin merkezli DeepSeek, açık kaynaklı chatbot modelinin güncellenmiş sürümünü paylaştı.

Bloomberg’in aktardığına göre DeepSeek V3.1 test için hazır. Yeni model tek seferde 128 bin token işleyebiliyor. Bu da yaklaşık 96 bin kelime, yani toplamda 400 sayfalık bir kitaba denk geliyor.

DeepSeek ocak ayında açıkladığı V3 modeliyle büyük ses getirmişti. Şirket modeli sadece 5,6 milyon dolara ve 2000 adet daha yavaş Nvidia çipiyle eğittiğini söylemişti. Bu iddia OpenAI ve Google gibi devlerin yüz milyonlarca dolar harcadığı eğitim süreçlerine kıyasla çok ucuzdu. Haber sonrası Nvidia’nın piyasa değerinden 600 milyar dolar silinmişti. Ancak veri güvenliği kaygıları nedeniyle DeepSeek’in chatbotu birçok hükümet tarafından yasaklandı.

deepseek

Reddit kullanıcıları V3.1’in “çok uzun yanıtlar” verdiğini söylüyor. Ayrıca daha önce arayüzde bulunan “Think” düğmesinin de kaybolduğu fark edildi. Bu gelişme modelin akıl yürütme özelliğini artık dahili olarak kullandığını, diğer bir deyişle karma mantık (mixed reasoning) yaklaşımına geçtiğini gösteriyor.

Çinli firmanın ayrı bir ürünü olan R1 akıl yürütme modeli halihazırda AWS, Microsoft Azure ve Google Cloud üzerinden kullanılabiliyor. Sağlayıcılar, verilerin Çin’e gönderilmediğini vurguluyor. Fakat geliştiriciler gözünü şimdiden R2 sürümüne çevirmiş durumda.

DeepSeek

Bloomberg’e göre küresel AI yarışında ABD’ye rakip olabilen tek ülke Çin. Alibaba, DeepSeek ve Moonshot gibi şirketler ABD’deki en iyi modellerle rekabet edebilecek çözümler geliştirdi. ABD tarafı kapalı ve ticarileştirilmiş modelleri öne çıkarırken, Çin’in stratejisi de açık kaynak üzerine. Çin kısa vadeli kârlardan feragat ederek, geliştirdiği yapay zeka modellerinin dünyada yayılmasını hedefliyor.

Yapay Zeka Yatırımları Çuvallıyor