Arama

Asıl tehlike: Yapay zekâlı virüs

Teknoloji, hızlı gelişimi sayesinde insanlığın hemen hemen her alanda hayatını kolaylaştırmayı başarıyor. Fakat hayatımızı kolaylaştıran her yeni teknoloji gibi yapay zekâ da kötü niyetli kişiler tarafından kullanılmaya başlandı. IBM tarafından yayınlanan bir araştırma sonucuna göre yapay zekâ “silahlandırılıp” bize karşı kullanılabilir.

Asıl tehlike: Yapay zekâlı virüs
Yayınlanma Tarihi: 29.8.2018 00:00:00 Güncelleme Tarihi: 29.08.2018 17:26

Teknolojinin gelişiminin etkileri her zaman pozitif olarak olmuyor. Bu teknolojik gelişmeler bilgilerimi kötü amaçlı kullananlarının da ilgisini çekmeye başladı. Bu durumun son örneği ise geçtiğimiz günlerde geliştirilen bir virüs oldu. Yapay zekâlı virüs adeta, yapay zekânın negatif yönlerini açığa çıkartıyor!

IBM, "Deeplocker" adını verdiği bir zararlı yazılımla hedefli ve kendini gizleyerek çalışabilen bir zararlı yazılımın nasıl geliştirilebileceğini gösterdi. Bu yapay zekâlı virüsler, devletlerin yazılımları ya da banka gibi ticari sistemlerine girip tespit edilmeden milyonlarca sisteme girebilir.

Yapay zekâlı virüsler, çoğu antivirüs ve kötü amaçlı yazılım tarayıcıları tarafından algılanmasını önlemek için, böyle bir video konferans yazılımı gibi iyi huylu taşıyıcı uygulamalarında kötü amaçlı yükünü gizliyor.

YÜZ VE SES TANIMA ALGORİTMALARINI DA KULLANIYOR

DeepLocker olarak da adlandırılan, geliştirilen bu yeni virüs yapay zekânın gücüne sırtını dayayarak gizli kalma konusunda oldukça şaşırtıcı işler çıkartıyor. Yeni nesil virüs, hedef ortama ulaşana kadar kötü niyetini belli etmeyerek güncel olarak kullanılan savunma tekniklerini atlatabiliyor. Yapay zekâ modeli, yüz tanıma, coğrafi konum ve ses tanıma gibi göstergelerle hedefi tanımladığı anda kötü niyetli eylemini ortaya çıkarıyor.

Hedeflediği kişiyle alakalı yüz ve ses tanıma algoritmalarını kullanarak özelleştirilmiş saldırılar gerçekleştirebilen virüs, yapay zekânın limitlerini zorlayan türden yeteneklere sahip.

Günümüzdeki zararlı yazılımlar geniş kitlelere karşı etkin olarak kullanılacak şekilde tasarlanmışken, yapay zekâlı virüs hedef odaklı zararlı yazılımları geliştirmeyi mümkün hale getiriyor.

Yapay zekâlı virüslerle beraber zararlı olan yazılımları anlamak ve onlara karşı tedbir almak zorlaşacak. Sadece 5-10 kritik sistemi hedef alan ve yapay zekâ modülünün vereceği karar sonucu devreye giren, bir zararlı yazılımı anlamak, oldukça zor olacak.

SOSYAL MEDYA SİZE VİRÜS BULAŞTIRABİLİR!

Örneğin bu virüs, hedeflenen kişinin bilgisayar başına geldiğini yüz tanıma algoritması sayesinde kesinleştirmeden, fidye virüsünü sisteme bulaştırmıyor. Ayrıca ses tanıma algoritmasını kullanarak ortam sesini dinleyen virüs, kişinin konuştuğu konular üzerinden bir saldırı da planlayarak, inandırıcılığı çok üst bir noktaya taşıyabiliyor. Bunu da derin bir sinir ağı kullanarak yapıyor.

Üstelik ses ve yüz tanıma algoritmaları için sosyal medyadan paylaştığın kısa bir video veya bir fotoğrafınız yeterli olabiliyor.

YENİ SİNSİ GÜÇ

Bilgisayar çağında, virüslerden ve solucanlardan ortaya çıkan kötü amaçlı yazılımlara tanık olundu ve güvenlik endüstrisi antivirüs yazılımı ile yanıt verdi. Web çağında, siteler arası istek sahteciliği (CSRF) ve siteler arası komut dosyası (XSS) gibi saldırılar zorlu web uygulamalarıydı. Şimdi, bulut, analitik, mobil ve sosyal (kameralar) çağındayız ve gelişmiş kalıcı tehditler zihinlerinin üstünde.

Yeni bir dönemin zirvesi olan yapay zekâ döneminde siber suçlular, yapay zekâyı kendi avantajlarına kullanmak için inceliyor ve adeta silahlanıyorlar.

BU TEHLİKEYLE İLK DEFA MI KARŞILAŞIYORUZ?

Yapay zekâ, zararlı yazılımların, anti virüs gibi yaygın olarak kullanılan güvenlik çözümlerini atlatmaya yönelik ilk girişimi değil. 90'lı yıllarda "polymorphic" olarak adlandırılan zararlı yazılımlar bir sistemden diğerine bulaşırken kendisini değiştirerek anti virüslere yakalanmamaya çalışıyordu. 2000'li yıllarda zararlı yazılımların kodlarını şifreleyerek benzer girişimler devam etti. Hatta yayınlanan bir araştırma zararlı yazılımların %98'inde anti virüsleri atlatmayı amaçlayan en az bir özellik olduğunu gösterdi.

Yapay zekâlı "hedefli" ve "gizli" zararlı yazılımlar aslında yeni değil. Stuxnet bu kapsamda verilecek örneklerden biri. Stuxnet, sadece belli ortamlarda kullanılan endüstriyel sistemleri hedef alan ancak bu sistemlerin bulunduğu bir ağ bulana kadar herhangi bir zararlı faaliyeti olamayan bir yazılımdı.

Deeplocker benzer bir yaklaşımla önceden belirlenmiş "tetikleme şartları" yerine gelmeden devreye girmiyor. Yapay zekâ bu noktada zararlı yazılımın normal şartlar altında "uslu durmasını" sağlıyor.

Zararlı yazılım analistlerinin inceleme sırasında açık bir şekilde görebileceği "XYZ durumları olursa devreye gir" koşulları yapay zekâ sayesine gizlenebiliyor. Böylece analiz sürecini neredeyse imkânsız hale getiriyor.

Yapay zekâ modeli, belirli bir girdiyle sunulmadıkça normal davranmaya yönelik olarak eğitilmiştir: Belirli mağdurları tanımlayan tetik koşulları. Nöral ağ, saldırıyı açmak için gereken "anahtarı" üretir. DeepLocker, görsel, ses, coğrafi konum ve sistem düzeyinde özellikler dâhil olmak üzere hedefini belirlemek için çeşitli öz nitelikleri kullanabilir.

Bunun için mümkün olan tüm tetikleme koşullarını kapsamlı olarak sıralamak neredeyse imkânsız olduğundan, kötü amaçlı yazılım analistlerinin sinir ağını tersine çevirme ve saldırı yükü de dâhil olmak üzere görev açısından kritik sırları geri kazanmalarını zorlaştırır.

ONLARA KARŞI NASIL SAVUNMA GELİŞTİREBİLİRİZ?

Siber güvenlik, saldırganların ve savunucuların arasında sürekli gelişen bir kedi-fare oyunu oynadığı bir silah yarışmasıdır. Her yeni bilgisayar çağında, saldırganlar, hain eylemlerini yürütmek için yeni yeteneklere ve zayıflıklara sahip oldu.

Güvenlikli bir topluluk için yapay zekâ destekli virüslerin saldırılarına karşı hazırlıklı olunması gerekiyor. Bu virüslere karşı bir 'aşı' oluşturmak gerekiyor. Bunun için de yine yapay zekânın gücüne yaslanarak akıl yürütme ve otomasyonun ötesine geçerek yapay zekâ destekli saldırıları yanlış yönlendirip devre dışı bırakmak için siber aldatmayı geliştirmek gerekiyor.

2024 Fikriyat. Tüm hakları saklıdır.
BİZE ULAŞIN