Yapay zeka araştırmacıları, yapay zekanın kendiliğinden insan benzeri sosyal davranışlar geliştirebildiğini keşfetti. Bu keşif, Londra’daki City Üniversitesi, St George’s University of London ve Kopenhag IT Üniversitesi arasındaki ortak bir proje sonucu ortaya çıktı. Araştırmacılar, yapay zeka modellerini izole bir ortamda test etmek yerine, birden fazla dil tabanlı yapay zeka modelini paylaşılan bir ortama yerleştirdi ve etkileşimlerine izin verdi.
Bu etkileşimler sırasında yapay zeka ajanları, herhangi bir açık talimat olmadan paylaşılan kurallar ve kalıplar oluşturmaya başladı. Bu kurallar, insanların grup içinde dil veya davranış konusunda anlaştığı ince kurallara benziyor. Örneğin, “spam” kelimesinin istenmeyen e-postalar için küresel bir terim haline gelmesi gibi, yapay zekalar da benzer bir şekilde koordine oldu.
Deneyler, bir seferde 100’e kadar yapay zeka ajanıyla gerçekleştirildi. Her turda, iki yapay zeka ajanı rastgele eşleştirildi ve verilen listeden bir isim -harf veya kısa sembol kombinasyonu- seçmeleri istendi. Eğer her ikisi de aynı ismi seçerse ödüllendirildiler; farklı seçerlerse cezalandırıldılar ve diğerinin seçimi hakkında bilgilendirildiler.
Zamanla, yapay zekalar anlaşmaya varmaya başladı. Dışarıdan herhangi bir kural veya liderlik olmaksızın spontan bir şekilde koordine oldular ve grup içinde birleşik isimlendirme kuralları oluşturdular. Bu, genellikle insanlarda görülen kolektif karar alma sürecine benziyor.
Araştırmaya katılan karmaşıklık bilimi uzmanı Profesör Andrea Baronchelli’ye göre, bu davranış insan dilinin nasıl oluştuğunu yansıtıyor. Dil, zorunluluklarla değil, tekrarlama ve uzlaşma yoluyla evrilir. Araştırma, yapay zekaların “spam” gibi terimleri nasıl benimsediğini gösteriyor.
Çalışma ayrıca, küçük yapay zeka alt gruplarının büyük grubu etkileyebildiğini ortaya koydu. Bu, sosyologların “kritik kütle etkisi” olarak adlandırdığı bir fenomen: Taahhütlü bir azınlık, tüm popülasyonu etkileyebiliyor. Makinelerin insan rehberliği olmadan bu sosyal dönüm noktalarını taklit edebilmesi önemli sonuçlar doğuruyor.
Araştırmacılar, bu olgunun sadece ilginç bir özellik olmadığını vurguluyor. Özellikle işbirlikçi ortamlarda yapay zeka, sanılandan daha sosyal olarak uyumlu olabilir. Günlük hayatımıza entegre olan bu sistemler -sesli asistanlardan iş yeri araçlarına kadar- birbirleriyle nasıl etkileşim kurduklarını anlamak, güvenlik ve yönetim açısından kritik hale geliyor.
Yapay zeka sistemleri, bağımsız olarak kurallar geliştirip grup davranışlarını etkileyebiliyorsa, öğrenme, evrilme ve işbirliği süreçlerini daha dikkatli incelemek gerekiyor. Bu sistemler, sosyal veya dijital ortamlarda arka planda çalıştığında, etkileşimleri izlemek önemli. Keşif, yapay zekanın sosyal uyum yeteneğini göstererek yeni sorular doğuruyor.
Deneylerde kullanılan yapay zeka ajanları, dil tabanlı modellerden oluşuyordu. Etkileşimler, tekrarlanan turlarda gerçekleşti ve ajanlar, ödüllendirme-cezalandırma mekanizmasıyla motive edildi. Bu süreç, insan kültüründeki iletişim ve uzlaşma mekanizmalarını andırıyor.
Baronchelli, dil evriminin mandalarla değil, konsensüsle gerçekleştiğini belirtiyor. Yapay zekaların bu mekanizmayı spontan şekilde benimsemesi, makine davranışında beklenmedik bir gelişme. Araştırma, yapay zekanın grup dinamiklerinde nasıl rol oynayabileceğini aydınlatıyor.
Kritik kütle etkisi, küçük grupların büyük ölçekli değişimleri tetiklemesini açıklıyor. Yapay zeka deneylerinde bu etki gözlemlendi ve insan sosyal ipuçlarını taklit etti. Bulgular, yapay zekanın günlük araçlardaki entegrasyonunu etkileyen faktörleri vurguluyor.
Proje, yapay zekanın izole değil, etkileşimli ortamlardaki davranışlarını inceledi. Bu yaklaşım, geleneksel test yöntemlerinden farklı. Sonuçlar, yapay zekanın sosyal adaptasyonunu kanıtlıyor ve gelecekteki uygulamalar için temel sağlıyor.




