Kaspersky uzmanları, ChatGPT’nin kimlik avı temaslarını algılama yeteneğini inceleyen bir araştırma yayınladı. Araştırma, ChatGPT’nin kimlik avı e-postaları oluşturma ve berbat emelli yazılım yazma konusunda yetenekli olduğunu gösterdi. Lakin, makus emelli irtibatları algılama konusundaki aktifliği hala sonlu olduğunu ortaya koydu. Araştırma, ChatGPT’nin kimlik avı hakkında birçok bilgiye sahip olmasına karşın, kimlik avı saldırısının maksadını varsayım edebilmesine karşın, yüzde 64’e varan yüksek yanlış olumlu oranlarına sahip olduğunu ortaya koydu ve ChatGPT’nin birçok vakit, kararlarını haklı çıkarmak için hayali açıklamalar ve yanlış ispatlar ürettiğini gösterdi.
Yapay zeka dayanaklı bir lisan modeli olan ChatGPT, kimlik avı e – postaları oluşturma konusundaki potansiyelini kanıtladı lakin bu teknolojinin yüksek riskli alanlarda kullanımı için şimdi çok erken. Bu nedenle ChatGPT siber güvenlik dünyasında tartışma konusu oldu. Kaspersky uzmanları, ChatGPT’nin kimlik avı ilişkilerini tespit etme yeteneğini ve eğitim sırasında öğrendiği siber güvenlik bilgisini ortaya çıkarmak için deney yaptı. Şirketin uzmanları, ChatGPT’ye güç veren model olan gpt-3.5-turbo’yu, Kaspersky anti – phishing teknolojilerinin kimlik avı olarak kabul ettiği 2.000’den fazla irtibatta test etti ve bunu binlerce inançlı URL ile karıştırdı.
Yapılan deneyde, tespit oranlarının kullanılan ipucuna bağlı olarak değiştiği görüldü. ChatGPT’ye iki soru soruldu: “Bu irtibat bir kimlik avı web sitesine yönlendiriyor mu?” ve “Bu ilişkiyi ziyaret etmek inançlı mi?”. Sonuçlar, ChatGPT’nin birinci soru için %87,2 tespit oranına ve %23,2 yanlış müspet oranına sahip olduğunu gösterdi. “Bu ilişkiyi ziyaret etmek inançlı mi?” sorusunda ise %93,8’lik daha yüksek bir tespit oranı görülürken %64,3’lük daha yüksek bir yanlış olumlu oranına sahip olduğu tespit edildi. Sonuçlara nazaran her türlü üretim uygulaması için yanlış müspet oranının epeyce yüksek olduğu görüldü.
ChatGPT, Facebook, TikTok ve Google’da Başarılı
Siber saldırganlar ekseriyetle kimlik avı irtibatlarında tanınan markalardan bahsederek kullanıcıları aldatmaya çalışırlar. Bu noktada, yapay zeka lisan modeli ChatGPT, potansiyel kimlik avı maksatlarını belirlemede etkileyici sonuçlar gösterebilir. Örneğin, Facebook, TikTok, Google üzere büyük teknoloji şirketleri, Amazon, Steam üzere pazar yerleri ve dünyanın dört bir yanındaki URL’lerin birçoklarından ek eğitim almadan muvaffakiyetle sonuçlar elde edebilir.
Ancak, yapılan deneyler, ChatGPT’nin temasın makûs emelli olup olmadığına karar vermede önemli problemler yaşayabileceğini gösteriyor. Bu durum, lisan modellerinin bilinen sınırlamalarını ve yanlış sonuçlar üretebileceğini ortaya koydu. Sonuç olarak, ChatGPT, kimlik avı hücumlarının sınıflandırılması ve araştırılması konusunda kimi yardımcı özelliklere sahip olabilir, fakat kesin sonuçlar için dikkatli bir kıymetlendirme ve insan nezareti gerekebilir. ChatGPT, akınların sınıflandırılması ve araştırılması konusunda potansiyel gösterse de, hala güzelleştirilmeye ve geliştirilmeye gereksinim duyan bir alan olduğunu görülüyor.
Aşağıda ChatGPT tarafından sağlanan aldatıcı açıklamalara örnekler verilmiştir:
Kaspersky Data Bilimcisi Vladislav Tushkanov. “ChatGPT, insan analistlerin kimlik avı hücumlarını tespit etmelerine yardımcı olma konusunda mutlaka umut vaat ediyor, lakin lisan modellerinin hâlâ sınırlamaları olduğu hatırlamakta yarar var. ChatGPT kimlik avı taarruzları hakkında akıl yürütme ve potansiyel amaçları ayıklama kelam konusu olduğunda, stajyer seviyedeki bir kimlik avı analistiyle eşit olsa da, halüsinasyon görme ve rastgele çıktılar üretme eğilimindedir. Bu nedenle, bu teknoloji şimdi siber güvenlik alanında ihtilal yaratmasa da, topluluk için hala faydalı araçlar olabilir ” diyor.
Deney hakkında daha fazla bilgi edinmek için Securelis.adresini ziyaret edin.
Kaspersky’nin ML takımı, makine tahsili teknolojilerini siber güvenlik vazifelerine uygulamakta ve Kaspersky eserlerini en son teknoloji ve bilgilerle daima olarak güncellemektedir. Kaspersky’nin makine tahsili konusundaki uzmanlığından yararlanmak ve korunmak için şirketin uzmanları şunları öneriyor:
Kaynak: (BYZHA) Beyaz Haber Ajansı
SAĞLIK
21 Kasım 2024SAĞLIK
21 Kasım 2024EĞİTİM
21 Kasım 2024TEKNOLOJİ
21 Kasım 2024EKONOMİ
21 Kasım 2024Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.