Uzmanlara göre geleceğin siber savaşları makineler arasında olacak. Bunun gerçekleşmesi birkaç yıl, hatta on yıllarca sürebilir, ancak bilgisayar korsanlarının insan olmadığı bir dönem gelecek. Yapay zeka ki bu da siber güvenlikten devrim yapmayı vaat eden bir teknoloji, bir gün siber saldırı aracına dönüşebilir.
ABD savunma ajansı DARPA’nın sponsorluğunda düzenlenen bir yarışma olan Cyber Grand Challenge organizatörleri, Ağustos ayında gerçekleşen bir etkinlikte yapay zekanın gücünü sergilediler. Yedi süper bilgisayar, makinelerin gerçekten de yazılım açıklarını bulabileceği ve düzeltebileceğini göstermek için birbirine karşı mücadele etti.
Teorik olarak teknoloji herhangi bir kodlamadaki kusurların ortadan kaldırolması ve onu mükemmelleştirmek için kullanılabilir. Peki, bu güç kötü niyetli amaçlar için kullanılırsa ne olacak? Siber savunmanın geleceği, yeni bir siber savaşın da yolunu açabilir.
Olası tehlikeler
Örneğin siber suçlular dijital saldırılarda hedefin önceden bilinmeyen zayıf noktalarını tarayarak bulur ve saldırı için bu zayıflıklardan istifade eder. Bununla birlikte bir insanın aksine yapay zeka bu işlemleri bilgisayarın çalışma sürati ile gerçekleştirebilir. Bu senaryoda bir insana nazaran bir bilgisayar akıl almaz ölçüde yazılım açıklarını bulabilir ve bunları saldırı için kullanabilir.
Sektördeki güvenlik uzmanları bu durumun farkında oldukları bir risk teşkil ettiğini kabul ediyorlar. GrammaTech araştırmasının başkan yardımcısı David Melski “Teknoloji her zaman korkutucu” diyor.
Melski’nin şirketi, Ağustos ayında gerçekleşen Cyber Grand Challenge programına katılmak için süper bir bilgisayar geliştirenler arasındaydı. Ancak şirket süper bilgisayarların bulduğu açıkları saldırı yerine kusurları önleyerek cihazların daha güvenli olmasını sağlamak için kullanmak istiyor.
“Ancak, güvenlik açıkları iki taraflı bir kılıç” diyor Melski ve ekliyor; “Giderek her şeyi daha fazla otomatikleştiriyoruz.”
Dolayısıyla güvenlik uzmanlarının, yapay zekanın iyi amaçlar kadar güçlü siber saldırılar içinde kullanılabileceği potansiyel bir karanlık tarafı hayal etmeleri zor değil. Melski, İran’ın nükleer programını bozmak için tasarlanmış kötü niyetli bir bilgisayar solucanı olan Stuxnet’e dikkat çekiyor; “Stuxnet’in otomatik hale getirilmesi gibi bir şeyi düşündüğünüz zaman, bu çok endişe verici.”
Potansiyeli yakalamak
Güvenlik şirketi SentinelOne’nin CEO’su Tomer Weingarten; “Kimseye fikir vermek istemiyorum,” diyor ve ekliyor; “Ancak interneti tarayan, güvenlik açıklarını arayan yapay zeka güdümlü teknolojiler, gelecekte mutlaka baş etmek zorunda kalacağımız bir tehdit olacak.”
Siber suçlar şu anda ciddi şekilde yaygınlaşmış durumdalar. Örneğin karaborsada bulunan satıcılar önceden ele geçirilmiş bilgisayar havuzlarını farklı amaçlar için kiralayabiiyorlar. DDOS saldırıları bunlardan sadece bir tanesine örnek.
Weingarten, kiralık korsanlık hizmetlerinin sonuçta tüm saldırı stratejilerini tasarlayabilecek, bunları başlatacak ve ilgili ücreti hesaplayabilecek yapay zeka teknolojilerini içermesinin mümkün olduğunu belirtiyor; “İnsanlar o zaman sadece arkalarına yaslanıp kurdukları hizmetin kendilerine para akıtmasını seyredecekler” diyor.
Bununla birlikte yapay zeka çok yönlü bir terim. Teknoloji şirketleri bu konuda konuşmayı seviyor ancak hiçbiri gerçek bir yapay zeka henüz yaratamadı. Elimizde olan tek şey insandan daha iyi oyun oynayabilen, sayısal asistan olarak hareket eden veya nadir bulunan hastalıkları teşhis edebilen teknolojiler.
Cylance gibi siber güvenlik şirketleri, kötü amaçlı yazılımları durdurmak için makine öğrenmesi denilen yapay zekanın bir alt kümesini kullanıyor. Bu uygulamalar matematiksel modeller ile bir bilgisayardaki belirli etkinliklerin normal olup olmadığını gözlemliyor. Bu gözlemlerde toplanan veriler kötü amaçlı yazılımların davranışlarındaki örnekler ile kıyaslanıyor ve şüpheli bir benzerlik bulunursa önleyici prosedürler devreye giriyor.
Güvenlik firmasının baş araştırma görevlisi olan Jon Miller; “Sonuç olarak, bir dosyanın iyi veya kötü olduğunu istatistiksel olarak ortaya çıkartıyoruz” diyor. Makine öğrenmesinin kötü amaçlı yazılımları algılamak için başarı oranının yüzde 99’dan fazla olduğunu belirtiyor.
Miller, “Sürekli yeni veriler (zararlı yazılım örnekleri) modele ekliyoruz” diyor ve ekliyor; “Ne kadar çok veri varsa, o kadar doğru sonuçlar elde edersiniz.”
Yükseliş
Ancak bir dezavantaj var; makine öğrenmesine dayalı yapay zeka uygulamaları pahalı bir yöntem. Miller; “Bilgisayar modellerine ayda yarım milyon dolar harcıyoruz” diyor. Bu para, geliştirdikleri modelleri çalıştırmak için Amazon’dan alınan bulut hizmetlerinin kirası için harcanıyor.
Yapay zeka teknolojilerini kötü niyetli amaçlarla kullanmaya çalışan herkes bu engel ile karşılaşmak zorunda. Buna ek olarak, programlamayı geliştirmek için en iyi insan kaynaklarına da ihtiyaç duyacaklar. Miller, zamanla, hesaplama gücü maliyetlerinin kaçınılmaz olarak azalacağına dikkat çekiyor.
Bilgisayar korsanlarının yapay zeka kullanmaya başlaması için daha zaman var.Peki, teknik olarak mümkün olmasına rağmen bu neden yapılmıyor? Miller cevaplıyor; “Saldırmak istediğiniz hedefler için zaten yeterince açık var, yenilerini bulmaya gerek yok.”
Öte yandan güvenlik uzmanı ve Darktrace’teki siber güvenlik yöneticisi Justin Fier, makine öğrenimi gibi yapay zeka teknolojilerinin aynı zamanda bu sorunlardan bazılarını çözme potansiyelini de taşıdığını söylüyor ve ekliyor; “Ancak bilgisayar korsanları her türlü silahı kullanmak isterler ve bu tekniklere başvurmaları düşünülenin aksine sadece bir zaman meselesi olabilir.”
Görünen o ki gelecek günlerde makinelerin bir birine karşı siber mücadeleye girdiği bir dönem çok uzak değil.