Soğuk Savaş’ın en gergin anlarında, 1983 yılında Sovyet erken uyarı sistemi, ABD’nin Sovyetler Birliği’ne nükleer bir saldırı başlattığını hatalı bir şekilde bildirdi. Dünyayı nükleer bir felaketten kurtaran şey, o an görevde olan Stanislav Petrov’un sağduyusu oldu. Petrov, alarmın yanlış olduğuna karar verdi ve bir karşı saldırı emrini engelledi. Peki, bugün benzer bir durum yaşansa, yapay zeka ile güçlendirilmiş sistemler ve deepfake teknolojisi aynı sağduyuyu gösterebilir mi?
Yapay zekanın hızlı yükselişi, nükleer istikrar üzerindeki tehditleri artırıyor. Ancak asıl tehlike, sadece makinelerin tetiği çekmesi değil; makinelerin liderleri olmayan bir saldırıya inandırması.
Savaşın yeni ve sinsi silahı deepfake
Yapay zeka, ikna edici sahte videolar (deepfake), görüntüler ve sesler oluşturmayı her zamankinden daha kolay hale getirdi. Bu teknoloji, şimdiden Rusya-Ukrayna savaşında dezenformasyon amacıyla kullanıldı. Ancak daha korkutucu bir senaryoda, bir deepfake, nükleer silah sahibi bir devletin liderini, düşmanından bir ilk saldırının başladığına inandırabilir.
ABD Başkanı veya askeri yetkililer, yapay zeka tarafından üretilen sahte bir istihbarat raporu veya manipüle edilmiş uydu görüntüsüyle kandırılırsa, sonuç felaket olabilir. ABD yasalarına göre, bir başkanın nükleer silah kullanma emri vermek için kimseye danışması gerekmiyor ve bir kıtalararası balistik füze hedefine yarım saat içinde ulaşıyor. Geri dönüşü olmayan bu süreçte, doğru bilgi hayati önem taşıyor.
Yapay zeka halüsinasyonları ve karar mekanizması
Pentagon, yapay zekayı ulusal güvenlik altyapısına agresif bir şekilde entegre etmeyi planlıyor. Temmuz ayında yayınlanan eylem planı ve Aralık ayında duyurulan GenAI.mil platformu bunun en somut örnekleri. Ancak yapay zeka modelleri, “halüsinasyon” görmeye (olmayan gerçekleri uydurmaya) meyillidir.
Eğer yapay zeka sistemleri erken uyarı verilerini yorumlamak için kullanılırsa, gerçek olmayan bir saldırıyı “tespit edebilir”. İnsanlar, yapay zekanın kararlarının arkasındaki mantığı çoğu zaman anlayamadığı için (kara kutu sorunu), makinenin çıktısına güvenme eğilimindedir. Bu durum, nükleer komuta zincirinde ölümcül bir hataya yol açabilir.
İnsan faktörü devreden çıkmamalı
Uzmanlar, nükleer erken uyarı sistemlerinin ve komuta kontrol mekanizmalarının yapay zekaya tamamen teslim edilmemesi gerektiği konusunda uyarıyor. En iyi yapay zeka sistemleri bile kapsamlı veri setlerine ihtiyaç duyar, ancak nükleer savaş konusunda (neyse ki) yeterli veri bulunmuyor. Bu nedenle sistemler sentetik verilerle eğitilmek zorunda, bu da hata riskini artırıyor.
ABD ve diğer nükleer güçler, nükleer silah kullanma kararının her zaman bir insanın kontrolünde olacağını taahhüt etse de, bu kararı veren insanın önüne gelen bilginin doğruluğu kritik. İstihbarat ajansları ve politika yapıcılar, yapay zeka kaynaklı bilgilere karşı ekstra şüpheci olmalı ve doğrulama mekanizmalarını güçlendirmelidir. Çünkü yapay zeka çağında, kıyamet sadece bir “yanlış alarm” kadar uzakta olabilir.




