OpenAI, 2024 Seçimleri Öncesi Yeniliklerini Duyurdu

OpenAI, 2024 Seçimleri Öncesi Yeniliklerini Duyurdu

OpenAI 2024 seçimleri yaklaşırken oluşabilecek yanlış bilgilendirmeleri önlemek için kolları sıvadı. İşte tüm detaylar.

OpenAI platformunda yanlış bilgilerin oluşmasını önlemek için elinden geleni yapmaya başladı. Özellikle 2024 seçimleri yaklaşırken güvenlik önlemleri arttırıldı. ABD 2024 başkanlık seçimlerine hazırlanırken şirket, bilginin kaynağına ilişkin şeffaflığı artırmaya odaklanarak dünya çapında seçimlerle ilgili yanlış bilgilerin bastırılmasına yönelik planlarını hızlandırdı. Öne çıkan noktalardan biri, yapay zeka DALL-E 3 tarafından oluşturulan görüntülerin kaynağını kodlamak için standartlaştırılan kriptografinin kullanılması. Kulağa zor gelse de yapay zekanın işleyişi açısından çok karmaşık bir yöntem değil. Bu sistem platformun bir kaynak yapay zeka tarafından oluşturulan görüntüleri daha iyi tespit etmesine olanak tanıyacak, Seçmenlerin belirli içeriklerin güvenilirliğini değerlendirmelerine yardımcı olacak.

The New York Times, OpenAI'ya Dava Açıyor

Bu yaklaşım, Google’ın geçen ay yayınlanan kendi seçim içeriği stratejisinin bir parçası olarak, DeepMind’in yapay zeka tarafından oluşturulan görüntü ve sesleri dijital olarak filigranlamak için kullandığı SynthID’ye benziyor, hatta ondan daha iyi. Meta’nın yapay zeka görüntü oluşturucusu, içeriğine görünmez bir filigran da ekliyor; ancak şirket, seçimle ilgili yanlış bilgilerle mücadele konusundaki hazırlığını henüz paylaşmadı.

OpenAI, geri bildirim almak için yakında gazeteciler, araştırmacılar ve platformlarla birlikte çalışacağını söyledi. Aynı tema doğrultusunda, ChatGPT kullanıcıları dünyanın dört bir yanından gelen gerçek zamanlı haberleri, atıflar ve bağlantılarla birlikte görmeye başlayacak. Ayrıca nerede oy kullanacakları veya nasıl oy verecekleri gibi prosedürle ilgili sorular sorduklarında, ABD’deki oylamayla ilgili resmi çevrimiçi kaynak olan CanIVote.org’a yönlendirilecekler.

TÜRKİYE CITROËN’İN DÜNYADA EN BÜYÜK 3’ÜNCÜ PAZARI OLDU!