Dünyanın en büyük şirketleri birer ikişer yapay zeka çalışmalarını duyururken, Microsoft birçok teknoloji devinin gözünden kaçan bir ayrıntı üzerinde çalışmaya başladı.
Yapay zeka veri güvenliği konusunda yeni tehdit mi? Yapay zeka teknolojisi giderek daha popüler hale geldikçe, veri gizliliği ve güvenliği konuları da daha da önem kazanmaktadır. Microsoft son zamanlarda, OpenAI tarafından geliştirilen bir yapay zeka dil modeli olan ChatGPT’nin özel bir sürümünü piyasaya sürmeyi planladığını duyurarak, bu endişeleri ele almak ve düzenli sürümü kullanmaya karşı direnen endüstri kullanıcılarını çekmek istiyor.
Raporlara göre, Microsoft’un ana hedefi, müşterilerinin verilerinin ChatGPT ana sistemine sızdırılmayacağına dair güvence vermek. Bu özel ChatGPT sürümü, özel izole sunucularda barındırılacak ve yapay zeka yazılımının kopyaları, herhangi bir veri sızıntısını önlemek için gelişmiş gizlilik koruma yöntemleriyle eğitilecektir. Bu, müşteriler için ek bir koruma katmanı sağlar, ancak düzenli sürüme göre daha yüksek maliyetli olarak fiyatlandırılır.
Yapay zeka veri güvenliği konusunda yeni tehdit mi?
Microsoft, ChatGPT’deki veri gizlilik endişelerine yanıt vererek müşterilerine daha fazla güvenilirlik sağlamayı hedefliyor. Şirket, bu özel ChatGPT sürümüyle OpenAI’nin ticari hamlesiyle rekabet etmesi bekleniyor. Ancak Microsoft, önceden adım atmak istiyor ve işletme müşterilerinin OpenAI’nin bulut hizmeti rakipleriyle işbirliği yapmasına izin vermek yerine, Azure destekli ChatGPT hizmetini kullanmasını umuyor.
Microsoft’un özel ChatGPT hizmeti, yapay zeka endüstrisindeki büyüyen gizlilik endişelerine yanıt verme ve hizmetini OpenAI’nin hizmetinden ayırma çabası içinde. Şirket, yıllardır OpenAI’nin makine öğrenimi yazılımını eğitmek için gizlilik koruma yöntemleri üzerinde araştırma yapıyor ve özel izole sunucular kullanma yöntemi, Microsoft’un veri sızıntısını önlemede etkili bulduğu yöntemlerden biridir.
Samsung, Nisan ayında bir çalışanının “dahili kaynak kodu” ChatGPT’ye girdikten sonra, çalışanlarının iş cihazlarında ChatGPT veya Google Bard gibi sohbet botlarını kullanmalarını yasakladığı bildirildi. Bu olay, veri güvenliği endişelerinin sadece bir örneğidir. Yapay zeka teknolojisi giderek daha popüler hale geldikçe, bu tür endişelerin önemi daha da artacaktır. Yapay zeka veri güvenliği konusunda yeni tehdit mi?