Yapay Zeka Zararlı Yazılımlara Sıçradı: Deeplocker

Hayatımızı kolaylaştıran her yeni teknoloji gibi yapay zeka da kötü niyetli kişiler tarafından kullanılmaya başlandı. IBM tarafından yayınlanan bir araştırma sonucuna göre yapay zeka “silahlandırılıp” bize karşı kullanılabilir.

Bizler için heyecan dolu fırsatlar sunan yapay zeka ve öğrenen makineler, bilgi teknolojilerini kötü amaçlarla kullananların da ilgisini çekmeye başlamış. IBM, “Deeplocker” adını verdiği bir zararlı yazılımla hedefli ve kendini gizleyerek çalışabilen bir zararlı yazılımın nasıl geliştirilebileceğini gösterdi.

Zararlı yazılım hedef aldığı ortama ulaşana kadar kötü niyetini belli etmemeye çalışıyor. Bu sayede güncel olarak kullandığımız savunma tekniklerini atlatabileceği öngörülüyor. Günümüzde zararlı yazılımların çoğu geniş bir hedef kitlesine karşı etkin olacak biçimde tasarlanırken yapay zeka çok daha hedef odaklı zararlı yazılımları geliştirmeyi mümkün hale getirebiliyor.

Yapay zeka, zararlı yazılımların, antivirüs gibi yaygın olarak kullanılan güvenlik çözümlerini atlatmaya yönelik ilk girişimi değil elbette. 90’lı yıllarda “polymorphic” olarak adlandırılan zararşı yazılımlar bir sistemden diğerine bulaşırken kendisini değiştirerek antivirüslere yakalanmamaya çalışıyordu. 2000’li yıllarda zararlı yazılımların kodlarını şifreleyerek benzer girişimlerini izlemeye devam ettik. Öyle ki; 2018 yılının Mayıs ayında yayınlanan bir araştırma zararlı yazılımların %98’inde antivirüsleri atlatmayı amaçlayan en az bir özellik olduğunu gösterdi.

Yapay zeka kapsamında konuştuğumuz bu “hedefli” ve “gizli” zararlı yazılımlar aslında yeni değil. Stuxnet bu kapsamda verilebilecek güzel bir örnek. Sadece belli ortamlarda (bkz. İran nükleer tesisleri) kullanılan endüstriyel sistemleri (SCADA) hedef alan ancak bu sistemlerin bulunduğu bir ağ bulanan kadar herhangi bir zararlı faaliyeti olamayan bir yazılımdı Stuxnet.

Deeplocker benzer bir yaklaşımla önceden belirlenmiş “tetikleme şartları” yerine gelmeden devreye girmiyor. Yapay zeka bu noktada zararlı yazılımın normal şartlar altında “uslu durmasını” sağlıyor.

Zararlı yazılım analistlerinin inceleme sırasında açık bir şekilde görebileceği “XYZ durumları olursa devreye gir” koşulları yapay zeka sayesine gizlenebiliyor. Böylece analiz sürecini neredeyse imkansız hale getiriyor. Stuxnet’i ilk analiz edenlerden biriyle sohbet etme imkanım olmuştu. Stuxnet’i tespit etmelerine rağmen zararlı olduğunu nasıl anlayamadıklarını sorduğumda; “tetikleme mekanizmasını bulamadık” demişti. Şimdi dönüp bakıldığında işletim sistemi dilini Farsça ve sistem saat ayarını Tahran yapmalarının faydalı olabileceğini görüyoruz.

Yapay zeka ile birlikte zararlı olduğundan şüphelendiğimiz herhangi bir yazılımı anlamak ve buna karşı tedbir almak oldukça zorlaşacak. Wannacry benzeri “salgın” halinde yayılan zararlı yazılımlarda elimizde üzerinde çalışabilecek örnekler olması muhtemeldir. Ancak sadece 5-10 kritik sistemi hedef alan ve yapay zeka modülünün vereceği karar sonucu devreye giren, bir zararlı yazılımı anlamak, olukça zor olacaktır.

Kötü adamların geliştirdiği ve yapay zeka kullanan bir zararlı yazılım henüz görmedik ancak bunun çok da uzak olmayan bir gelecekte ortaya çıkması mümkün görünüyor.

 

Birkaç yıldır sunduğumuz “siber tehdit avcılığı” hizmeti ile ağ ve sistemlerinizin mevcut güvenlik tedbirlerini atlatmış olabilecek ve bir süredir sizinle birlikte “yaşayan” zararlı yazılım veya siber saldırganların izlerini ortaya çıkartabiliyoruz. Bu konularda görüşmek isterseniz basaranalper@gmail.com adresine bir e-posta göndermeniz yeterli.

 

İlk yorum yapan olun

Bir yanıt bırakın

E-posta hesabınız yayımlanmayacak.


*