Kaspersky’nin yeni araştırması, dark web’de gerçekleştirilen yapay zeka destekli siber suç deneyimlerini gün yüzüne çıkardı

Kaspersky Digital Footprint Intelligence (Dijital Ayak İzi İstihbaratı) Servisi, yaklaşık 3 bin dark web gönderisinde, ChatGPT ve başka büyük lisan modellerinin yasa dışı faaliyetlerde nasıl kullanıldığını inceledi. Tehdit aktörleri, sohbet botunun jailbreak tekniğinden, makûs niyetli alternatifler oluşturmakla sonlu kalmayarak yapay zekayı maksatlarına uygun biçimde kullanma yollarını araştırıyor. Dark web kanallarını dolduran 3 bin ileti ortasında, çalıntı ChatGPT hesapları ve bunların otomatik olarak toplu halde oluşturulmasını sağlayan hizmetlere dair bilgiler de bulunuyor.

Kaspersky Digital Footprint Intelligence hizmeti, 2023 yılında dark web'de ChatGPT'nin yasa dışı hedeflerle kullanımını tartışan yahut yapay zeka teknolojilerine dayanan araçlar hakkında konuşan yaklaşık 3 bin gönderi keşfetti. Konuşmalar Mart ayında tepe yapmış olsa da bu mevzudaki tartışmalar hala devam ediyor.

ChatGPT yahut öteki yapay zeka araçlarının kullanımına ait dark web tartışmalarının dinamikleri. Kaynak: Kaspersky Digital Footrpint Intelligence 

Kaspersky Dijital Ayak İzi Analisti Alisa Kulishenko"Tehdit aktörleri ChatGPT ve yapay zekayı planlarında uygulamak için çeşitli metotları etkin olarak araştırıyor. Bu bahisler ortasında sıklıkla makus hedefli yazılımların geliştirilmesi ve çalınan kullanıcı datalarının işlenmesi, virüslü aygıtlardan belgelerin ayrıştırılması üzere lisan modellerinin başka yasadışı kullanım çeşitleri de yer alıyor. Yapay zeka araçlarının popülerliği, ChatGPT'den yahut muadillerinden gelen otomatik karşılıkların birtakım siber hata forumlarına entegre edilmesine yol açtı. Buna ek olarak, tehdit aktörleri çeşitli dark web kanalları aracılığıyla jailbreak tekniklerini (ek fonksiyonların kilidini açabilen özel istem setlerini) paylaşma eğiliminde ve pentesting için olanlar üzere yasal araçları berbat niyetli emeller için yeni modellere dayalı olarak kullanmanın yollarını arıyorlar"  dedi. 

Siber hatalılar bahsedilen chatbot ve yapay zeka araçlarının yanı sıra XXXGPT, FraudGPT ve öteki projelere de büyük ilgi gösteriyor. Bu lisan modelleri dark web'de ChatGPT'ye alternatif olarak pazarlanıyor ve ek fonksiyonelliğe ve orijinalindeki sınırlamaların olmamasıyla övünülüyor.

Çalıntı ChatGPT hesapları satışta

Kullanıcılar ve şirketler için bir öbür tehdidi de ChatGPT'nin fiyatlı sürümüne yönelik hesap piyasası oluşturuyor. Bahsedilen 3 bin gönderiye ek olarak, 2023 yılında dark web ve gölge Telegram kanallarında satılık ChatGPT hesaplarının reklamını yapan 3 bin gönderi daha tespit edildi. Bu gönderiler ya çalıntı hesapları dağıtıyor ya da talep üzerine toplu olarak hesap oluşturan otomatik kayıt hizmetlerini tanıtıyor. Kimi gönderilerin birden fazla dark web kanalında tekrar tekrar yayınlanması bilhassa dikkat alımlı.

Çalıntı ChatGPT hesapları yahut otomatik kayıt hizmetleri sunan dark web yayınlarının dinamikleri. Kaynak: Kaspersky Digital Footrpint Intelligence

Alisa Kulishenko, mevzuya ait şunları söyledi: "Yapay zeka araçlarının kendileri tabiatı gereği tehlikeli olmasa da, siber hatalılar büyük lisan modellerini kullanmanın tesirli yollarını bulmaya çalışıyor. Bu durum siber suça giriş manilerini kaldırırken, kimi durumlarda potansiyel olarak siber taarruzların sayısını artırma eğilimini körüklüyor. Bununla birlikte üretken yapay zeka ve sohbet robotlarının hücum ortamında ihtilal yaratması pek muhtemel değil. En azından 2024'te bunun olmayacağını düşünüyoruz. Siber taarruzların otomasyona dayalı tabiatı, ekseriyetle otomasyona dayalı savunmalarla müsabakaları manasına geliyor. Bununla birlikte saldırganların faaliyetleri hakkında bilgi sahibi olmak, kurumsal siber güvenlik açısından saldırganlardan bir adım önde olmak ismine çok kıymetli."

Araştırmanın ayrıntıları Kaspersky Digital Footprint Intelligence web sitesinde yer alıyor. Ayrıyeten internetin karanlık köşelerindeki siber cürüm faaliyetleriyle ilgili tehditlerden kaçınmak için Kaspersky aşağıdaki güvenlik tedbirlerini öneriyor:


Kaynak: (BYZHA) Beyaz Haber Ajansı

Benzer Videolar