Miami Üniversitesi ve Ağ Bulaşma Araştırma Enstitüsü (NCRI) tarafından yayınlanan yeni bir rapor yapay zeka dünyasında endişe yaratan bir bulguyu ortaya koydu. Perşembe günü paylaşılan çalışmaya göre OpenAI tarafından geliştirilen ChatGPT, sadece dört cümle kadar kısa metinlere maruz kaldığında bile otoriter ideolojileri hızla içselleştirip bu görüşleri daha da uç noktalara taşıyabiliyor.
Bu durum popüler sohbet botlarının işe alım veya güvenlik gibi hassas alanlarda aşırılıkçı bakış açılarını pekiştirme riskini gündeme getiriyor.
Sol ve sağ ideolojilerde radikal artış gözlemlendi
Araştırmacılar Aralık ayında GPT-5 ve GPT-5.2 sistemleri üzerinde yaptıkları deneylerde yapay zekayı hem sol hem de sağ otoriter görüşleri destekleyen metinlere maruz bıraktı. Sonuçlar modelin partizan söylemleri sadece benimsemekle kalmayıp insan deneklerde görülen seviyelerin ötesinde bir fanatizmle savunduğunu gösterdi.
Örneğin polisliğin ve kapitalizmin kaldırılmasına dair metinler okutulduğunda botun “zenginlerin mallarına el konulmalı” ve “eşitsizliği gidermek ifade özgürlüğünden önemlidir” gibi ifadelere katılımı ciddi oranda arttı. Sağ görüşlü içeriklere maruz kaldığında ise “geleneksel olmayan fikirlere müsamaha gösterilmemeli” görüşünü destekleme oranı iki katına çıktı.
“Bu sistemlerin inşa edilme şekli onları otoriter yükselişe karşı yapısal olarak savunmasız kılıyor. Tek bir partizan söylemi alıp bunu maksimalist ve katı otoriter pozisyonlara dönüştürebiliyorlar.”
Nötr yüz ifadelerini bile düşmanca algılıyor
Çalışmanın en çarpıcı kısımlarından biri ideolojik yüklemenin yapay zekanın görsel algısını nasıl bozduğunu kanıtlaması oldu. Otoriter içeriklerle beslenen ChatGPT nötr yüz ifadelerine baktığında düşmanlık ve tehdit algılamaya başladı. Sol görüşlü yüklemenin ardından düşmanlık algısı yüzde 7,9 artarken sağ görüşlü yüklemede bu oran yüzde 9,3 seviyesine ulaştı.
Araştırmacılar bunun özel sohbetlerde ortaya çıkan bir halk sağlığı sorunu olduğunu belirterek yapay zekanın insanları değerlendirdiği her alanda risk oluşturduğunu vurguluyor.
OpenAI objektiflik iddiasını koruyor
OpenAI cephesi sistemin varsayılan olarak objektif tasarlandığını ve farklı bakış açıları sunmayı amaçladığını belirterek kendini savundu. Şirket politik önyargıları azaltmak için aktif çalışma yürüttüğünü ifade etse de eleştirmenler metodolojik eksikliklere dikkat çekiyor. Johns Hopkins Üniversitesinden uzmanlar çalışmanın örneklem boyutunun küçük olduğunu ve Claude veya Gemini gibi rakip modellerin test edilmediğini belirtiyor.
Tartışmanın GPT-5 modellerinde politik önyargının yüzde 30 azaltıldığı iddiasından sadece aylar sonra patlak vermesi ise dikkat çekici bir tezat oluşturuyor.




