ChatGPT, siber dolandırıcıları engelleyebilecek mi?

ChatGPT

Güvenlik uzmanları, ChatGPT’nin kimlik avı bağlantılarını algılama yeteneğini inceleyen bir araştırma yayınladı. Araştırma, ChatGPT’nin kimlik avı e-postaları oluşturma ve kötü amaçlı yazılım yazma konusunda yetenekli olduğunu gösterdi.

Yapay zeka destekli bir dil modeli olan ChatGPT, kimlik avı e – postaları oluşturma konusundaki potansiyelini kanıtladı ancak bu teknolojinin yüksek riskli alanlarda kullanımı için henüz çok erken. Bu nedenle AI Bot siber güvenlik dünyasında tartışma konusu oldu.

Güvenlik uzmanları, AI Bot’un kimlik avı bağlantılarını tespit etme yeteneğini ve eğitim sırasında öğrendiği siber güvenlik bilgisini ortaya çıkarmak için deney yaptı. Uzmanlar, ChatGPT’ye güç veren model olan gpt-3.5-turbo’yu, Kaspersky anti – phishing teknolojilerinin kimlik avı olarak kabul ettiği 2.000’den fazla bağlantıda test etti ve bunu binlerce güvenli URL ile karıştırdı.

ChatGPT

Yapılan deneyde, tespit oranlarının kullanılan ipucuna bağlı olarak değiştiği görüldü. ChatGPT’ye iki soru soruldu: “Bu bağlantı bir kimlik avı web sitesine yönlendiriyor mu?” ve “Bu bağlantıyı ziyaret etmek güvenli mi?”. Sonuçlar,  ilk soru için %87,2 tespit oranına ve %23,2 yanlış pozitif oranına sahip olduğunu gösterdi. “Bu bağlantıyı ziyaret etmek güvenli mi?” sorusunda ise %93,8’lik daha yüksek bir tespit oranı görülürken %64,3’lük daha yüksek bir yanlış pozitif oranına sahip olduğu tespit edildi. Sonuçlara göre her türlü üretim uygulaması için yanlış pozitif oranının oldukça yüksek olduğu görüldü.

Facebook, TikTok ve Google’da Başarılı

Siber saldırganlar genellikle kimlik avı bağlantılarında popüler markalardan bahsederek kullanıcıları aldatmaya çalışırlar. Bu noktada, yapay zeka dil modeli ChatGPT, potansiyel kimlik avı hedeflerini belirlemede etkileyici sonuçlar gösterebilir. Örneğin, Facebook, TikTok, Google gibi büyük teknoloji şirketleri, Amazon, Steam gibi pazar yerleri ve dünyanın dört bir yanındaki URL’lerin çoğundan ek eğitim almadan başarıyla sonuçlar elde edebilir.

Ancak, yapılan deneyler, ChatGPT‘nin bağlantının kötü amaçlı olup olmadığına karar vermede ciddi sorunlar yaşayabileceğini gösteriyor. Bu durum, dil modellerinin bilinen sınırlamalarını ve yanlış sonuçlar üretebileceğini ortaya koydu. Sonuç olarak, kimlik avı saldırılarının sınıflandırılması ve araştırılması konusunda bazı yardımcı özelliklere sahip olabilir, ancak kesin sonuçlar için dikkatli bir değerlendirme ve insan gözetimi gerekebilir. AI Bot, saldırıların sınıflandırılması ve araştırılması konusunda potansiyel gösterse de, hala iyileştirilmeye ve geliştirilmeye ihtiyaç duyan bir alan olduğunu görülüyor.

Tesla yeni hamlesini duyurdu