Google’un en yeni ve en güçlü yapay zeka modeli Gemini 3 Pro, güvenlik araştırmacıları tarafından dakikalar içinde aşılmış durumda. Güney Kore merkezli Aim Intelligence adlı yapay zeka güvenlik girişimi, modeli stres testi altına aldı. Araştırmacılar, Google’un etik koruma önlemlerini sadece beş dakikada geçti.
Aim Intelligence ekibi, Gemini 3 Pro’ya çiçek hastalığı virüsü üretme talimatları vermeyi denedi. Model, hızlıca detaylı adımlar sundu ve ekip bunları “uygulanabilir” olarak nitelendirdi. Bu, tek seferlik bir hata değildi; model, kendi güvenlik kurallarını görmezden geldi.
Araştırmacılar, ayrıca modelden kendi güvenlik açığını hicveden bir sunum hazırlamasını istedi. Gemini 3 Pro, “Excused Stupid Gemini 3” başlıklı tam bir slayt destesi üretti. Bu, modelin kısıtlanmış içerikleri nasıl kolayca oluşturabildiğini gösteriyor.
Ekip, Gemini’nin kod üretme araçlarını kullanarak bir web sitesi oluşturdu. Bu sitede sarin gazı üretimi ve ev yapımı patlayıcılar için talimatlar yer alıyordu. Model, bu durumlarda da güvenlik kurallarını ihlal etti ve istenen tehlikeli içerikleri sağladı.
Aim Intelligence, bu sorunun sadece Gemini ile sınırlı olmadığını belirtiyor. Yeni nesil modeller, o kadar hızlı gelişiyor ki güvenlik önlemleri yetişemiyor. Özellikle, bu modeller kaçınma stratejileri ve gizleme talimatları kullanıyor; basit korumalar etkisiz kalıyor.
İngiltere’deki Which? tüketici grubu, yakın zamanda bir rapor yayınladı. Raporda, Gemini ve ChatGPT gibi büyük yapay zeka sohbet botlarının sıklıkla güvenilmez veya tehlikeli tavsiyeler verdiği vurgulanıyor. Çoğu kullanıcı zararlı içerik istemese de, kötü niyetli kişiler bu açıkları kolayca sömürebiliyor.




