Microsoft, geliştiricilerin üzerinde çalıştıkları yapay zeka sistemlerinin güvenliğini değerlendirmelerine yardımcı olmak için oluşturulmuş açık kaynaklı bir araç yayınladı. Buna Counterfit projesi adlı araç artık GitHub’da mevcut.
ABD şirketi, kendi AI modellerini test etmek için zaten Counterfit’i kullanıyor. Ek olarak, Microsoft‘un diğer bölümleri de aracın yapay zeka geliştirmede kullanımını araştırıyor.
Microsoft, Counterfit ile siber saldırıları simülasyonu yapıyor
Microsoft’un Github’daki açıklamalarına göre Counterfit, makine öğrenimi sistemlerinin güvenliğini değerlendirmek için bir komut satırı aracına ve genel bir otomasyon katmanına sahip.
Bu, geliştiricilerin güvenliği test etmek için AI sistemlerine karşı siber saldırıları simüle etmesine olanak tanıyor. Herkes aracı indirebilir ve Azure Shell aracılığıyla, tarayıcıda veya bir Anaconda Python ortamında yerel olarak çalıştırabilir.
Microsoft, “Aracımız, yayınlanmış saldırı algoritmalarını güvenlik topluluğu için erişilebilir hale getiriyor ve yapay zeka modellerine yönelik saldırıları oluşturmak, yönetmek ve başlatmak için genişletilebilir bir arayüz sağlamaya yardımcı oluyor” dedi.
Araç, örnek saldırı algoritmalarıyla önceden yüklenmiş olarak geliyor. Ek olarak, güvenlik uzmanları, test amacıyla diğer mevcut saldırı araçlarından Counterfit’e bağlanmak için yerleşik cmd2 komut dosyası altyapısını da kullanabilir.
ITPro’ya göre, Microsoft, sistemlerini güvenlik açıkları açısından değerlendirme ihtiyacından yola çıkarak aracı geliştirdi. Counterfit, bireysel AI modellerine saldırmak için yazılan saldırı komut dosyaları olarak başladı ve kademeli olarak birden fazla sisteme saldırmak için bir otomasyon aracına dönüştü.
Şirket, aracı ortamlarında AI modelleriyle test etmek için birçok ortağı, müşterisi ve devlet kurumuyla birlikte çalıştığını söylüyor.