Tarih boyunca insanlar savaşta üstünlük sağlamak için her zaman yeni teknolojileri kullanmışlardır. Dünyanın dört bir yanındaki ulusların ölümcül otonom silah sistemlerini (Autonomous Weapon Systems) geliştirme ve kullanma çabaları da aslında bundan farklı değil. Bu teknolojiyi ustalıkla kullananlar muazzam bir güce sahip olacak. Bu silahlar barışı korumak için caydırıcı olabileceği gibi savaşı da teşvik edebilir. Yaşam ve ölüm kararını insan askerlerin elinden alıp soğuk algoritmalara teslim etmenin korkunç sonuçlar doğurabileceği ise en büyük eleştiri noktası. Teknolojinin nasıl kullanıldığı son derece belirleyici olacak. Otonom silah sistemleri savaşları azaltır mı çoğaltır mı bilmiyoruz ama büyük ölçüde hızlandıracağı kesin.
2017 yılında yapay zeka ve robotik alanında uzmanlaşmış 110 kişi Birleşmiş Milletler’e bir açık mektup yazarak otonom silah sistemlerinin savaşın insan anlayışının ötesinde bir ölçekte ve hızda yapılmasına olanak tanıyacağı konusunda uyarıda bulunmuştu. İnsanların kendilerinden daha hızlı düşünebilen ve bir gün bağımsız hareket edebilecek ölümcül teknolojileri dizginleyip dizginleyemeyeceği konusunda halen belirsizlikler ve anlaşmazlıklar var.
Otonom silah karşıtı uluslararası bir oluşum olan Katil Robotları Durdurma Kampanyası‘na göre (stopkillerrobots.org) otonom silah sistemlerinin yayılmasını ve kötüye kullanılmasını engellemek için katı uluslararası kurallar gerekiyor. Çok sayıda gönüllü ve akademisyenin de desteklediği bu grubun çabalarına karşın hiçbir gelişmiş ülke yasal olarak bağlayıcı güvenlik önlemlerine sıcak bakmıyor.
Otonom silah sistemlerinin yeni sürümleri, gözlem, yönelim, karar ve eylem dizilerinin saldırıları belirlediği askeri jargon olan OODA (Observe, Orient, Decide, Act) döngüsünü şimdiden hızlandırıyor. Bu hız artışını ve makinelerin kararlarına yönelimi birleştirirsek otonom silah sistemlerinin her şeyi tamamen kontrol edip edemeyeceği açık bir soru olarak karşımızda duruyor.
Ben öldürmedim, Miki öldürdü
Kullanıcıların bilgisayar tarafından üretilen kararları çelişkili kanıtlara dayanması veya kendi algılarına ters gelmesine rağmen kabul etmesi durumuna “otomasyon yanlılığı” deniyor. MIT teknoloji uzmanlarından Pat Pataranutaporn bu durumu şu sözlerle açıklıyor: “En tehlikeli yapay zeka, kötü niyetini açıkça gösteren Terminator tipi yapay zeka değil.” Pataranutaporn’a göre asıl tehlike “dostça görünen ancak davranışlarımızı beklenmedik şekillerde manipüle eden yapay zekada” yatıyor.
Bilgisayar modelleri ile yapılan çalışmalarda akıllı silahların en hızlı zafer yolu olarak topyekün imha taktiklerini önermesi veya seçmesi ihtimalinin belirmesi tehlikeyi daha da belirginleşiyor. Geçtiğimiz yıl büyük dil modelleri kullanılarak yürütülen çok sayıda savaş oyununda yapay zeka botlarının askeri komutanlar olarak nükleer saldırılar başlatıp düşmanları yok etme eğiliminde olduğu gösterildi.
Çatışmanın otomatikleşmesi
Aslında yapay zeka savaşın doğasını kökten değiştirmeye çoktan başladı. Rusya ile Ukrayna arasındaki savaşta insansız sistemlerle yapılan saldırılar neredeyse tamamen otonom hale gelen sistemlerle yürütülüyor. Haziran ayında Ukrayna dünyanın ilk “İnsansız Sistemler Kuvvetleri” birimini kurdu. Temmuz ayında Ukrayna ve NATO, İngiltere ve Letonya’nın öncülüğünde 45 milyon avroluk bir İnsansız Hava Aracı koalisyon fonu oluşturdu.
Birleşik Krallık ve Letonya’nın öncülük ettiği bu fon, insansız hava araçlarının tedarikini ve cephedeki Ukrayna ordusuna teslimini hızlandırmayı amaçlıyor.
İnsansız hava araçları sadece Doğu Avrupa’da değil Gazze’den Myanmar’a, Sudan’dan Etiyopya’ya, Kuzey Irak’tan Suriye’ye kadar birçok bölgede kullanılıyor. ABD ordusunun İran sınırındaki küresel enerji tedariki için stratejik açıdan hayati bir koridor olan Hürmüz Boğazı’nı izleyen yapay zeka kontrollü bir gemi filosu bulunuyor. Güney Kore ile Kuzey Kore arasındaki askerden arındırılmış bölgenin Güney Kore tarafında otonom nöbetçi silahlar bulunuyor.
Öğrenme yeteneğine sahip elektronik harp sistemleri ve hızlı hedef tespit programları gibi gelişmiş yazılımlar geleneksel silahların savaş verimliliğini de artırıyor.
Bu inovasyonların önemli bir kısmı, küresel savunma sanayini dönüştürmeye çalışan Silikon Vadisi’ndeki ve diğer yerlerdeki girişimler tarafından yönlendiriliyor. Tüm bu yeni teknolojilerin büyük çaplı savaş operasyonlarının öldürücülüğünü dramatik bir şekilde artıracağı ve modern askeri doktrinlerde bir değişikliğe yol açacağını öngörülüyor.
Otonom silahlardan kaçış yok
Foreign Affairs dergisine “Amerika geleceğin savaşlarına hazır değil” başlıklı bir makale yazan eski Google CEO’su Eric Schmidt ve eski ABD Genelkurmay Başkanı Mark A. Milley, ABD ve müttefiklerinin otonom silah sistemleri için çok geniş kapsamlı bir strateji benimsemesi gerektiğini savunuyor.
İkilinin yazdığı makalede şu ifade geçiyor; “Gelecekteki savaşlar artık en fazla askeri toplamak veya en iyi jetleri, gemileri ve tankları sahaya sürmekle ilgili olmayacak. Savaşlar bunların yerine giderek daha fazla otonom silah sistemi ve güçlü algoritmalar tarafından domine edilecek”. “Yapay zeka sistemleri, örneğin, farklı taktik ve operasyonel yaklaşımları binlerce kez simüle edebilir, böylece hazırlık ve uygulama arasındaki süreyi büyük ölçüde kısaltabilir” diyen Schmidt ve Milley’e göre bunu başarmanın anahtarı askeri planlamanın büyük bir kısmını yapay ajanlara devretmekte yatıyor.
Bu tür bir geleceğe temkinli yaklaşanlar ise otonom silah sistemlerinin askeri işleyişe topyekûn entegre edilmesinin silahlı çatışmalarda zaten var olan vahşeti ve belirsizliği daha da şiddetlendireceği konusunda uyarıyor.
Savaşın insan unsuru genellikle güç kullanımını sınırlıyor. Otonom silah sistemlerinin yaygın olarak benimsenmesi bu sınırlayıcı faktörü tamamen ortadan kaldıracak gibi görünüyor.
Güç kullanımında hesap verilebilirliğin ortadan kalkması en önemli konulardan biri olarak görülüyor. Ayrıca bir sistemin çok fazla işlevi otomatik hale getirilirse operatörlerin süreci düzgün bir şekilde izlemesi zorlaşacağı için gerektiğinde sistemi devre dışı bırakamamaları riski de bulunuyor. Ayrıca farklı askeri birimler ve istihbarat kurumları tarafından tercih edilen farklı algoritmalar, veri setleri ve prosedürlerden oluşan karmaşık bir ağda “tek bir kişinin bile mevcut sistemin nasıl çalıştığını tam olarak anlayamadığı” durumların ortaya çıkması da epey olası görünüyor.
Otonom Dronlar işin rengini değiştiriyor
Günümüzde her bir birimin birbirleriyle iletişim kurduğu ve koordinasyon sağladığı sürüler halinde çalışabilen otonom dronlar bulunuyor. Bu dronlar insan operatörle internet bağlantısı kesildiğinde bile bir saldırıyı gerçekleştirebiliyor. İsrail’in Gazze’de yapay zeka destekli silahlarla yaptığı saldırılarda büyük çoğunluğu masum sivillerden oluşan 42.000’den fazla insanı öldürmesi ve 100.000’e yakın kişiyi yaralaması sonrası teknolojinin savaşı sivillere karşı daha hassas hale getireceğini savunanlar boşa düşmüş görünüyor. Birkaç hafta önce ABD de dahil olmak üzere 61 ülke, Seul’de yapay zekanın sorumlu askeri kullanımı konulu bir zirvede “eylem planı taslağı” olarak adlandırılan bir belgeyi onayladı. Bağlayıcı olmayan bu çerçeve, uluslararası barış ve güvenlik üzerindeki yapay zeka etkisine nasıl yaklaşılacağı konusunda ortak bir anlayış oluşturmayı amaçlayan 20 farklı taahhüt içeriyor. Bu taahhütler, otonom silah sistemleri üzerinde insan kontrolünün sürdürülmesini ve askeri alanda yapay zekanın gelecekteki yönetişim biçimlerine yönelik bir vizyonu içeriyor. Sonuç olarak otonom silahlar 21. yüzyılın çatışmalarında kalıcı hale gelecek gibi görünüyor. Yapay zeka sistemleri geliştikçe yeni tasarımlar insan kontrolünden her seferinde biraz daha uzaklaşıyor. 15-20 yıl sonra insan kararlarının hala çatışmaların bir parçası olup olmayacağı ise belirsizliğini koruyor. Otonom silah sistemlerinin savaşlarda kullanımı insan kararlarını hızla geride bırakırken insan unsuru savaşta belirleyici rolünü tamamen kaybedebilir mi?
Bu yazı Digital Report Dergisinin 20. sayısında yayınlanmıştır.




