Anthropic, yapay zeka modellerinin performansını ve etkisini değerlendirecek yeni nesil kriterlerin geliştirilmesine fon sağlamak amacıyla bir program başlatıyor.
Pazartesi günü duyurulan bu program, üçüncü parti şirketlere, gelişmiş AI modellerinde etkili ölçümler yapmaları için ödeme yapacak. Başvuran şirketlerim yapay zeka kullanımı Anthropic tarafından sürekli olarak izlenecek.
Anthropic’in resmi blogunda yer alan açıklamada, “Yapay zeka güvenliği alanındaki yatırımlarımızla sektörün tamamını geliştirmeyi ve tüm paydaşlara değerli araçlar sunmayı hedefliyoruz.” ifadesi kullanılıyor. Yüksek kaliteli ve güvenlik odaklı değerlendirmeler geliştirmek hala zorlu bir süreç ve bu alandaki talep, mevcut arzı aşıyor.
Güvenlik ve toplumsal etkiler üzerine yeni kriterler
Yapay zekanın bugün karşılaştığı en büyük sorunlardan biri de kıyaslama (benchmarking) problemi. Mevcut ölçütler, sıradan bir kullanıcının yapay zeka sistemlerini nasıl kullandığını tam olarak yansıtmıyor. Ayrıca, bazı ölçütlerin modern üretken yapay zeka teknolojilerinden önce oluşturulmuş olması, gerçekten ölçmeyi amaçladıkları şeyi ölçüp ölçmedikleri konusunda tartışmalara yol açıyor.
Anthropic, AI güvenliği ve toplumsal etkiler üzerine odaklanan zorlu kriterler oluşturmayı öneriyor. Şirket, siber saldırılar gerçekleştirme, kitle imha silahlarını “geliştirme” ve insanları manipüle etme veya yanıltma (örneğin deepfake veya yanlış bilgi yoluyla) gibi görevleri değerlendirecek testler çağrısında bulunuyor. Ulusal güvenlik ve savunma ile ilgili yapay zeka riskleri için Anthropic erken uyarı sistemi geliştirme taahhüdünde bulunuyor ancak bu sistemin neyi içereceği blog yazısında belirtilmiyor.
Anthropic, yeni programın yapay zekanın bilimsel çalışmalara katkıda bulunma, çok dilli sohbetler gerçekleştirme ve yerleşik önyargıları azaltma potansiyelini araştıran “uçtan uca” görevleri ve ölçütleri desteklemeyi hedeflediğini belirtiyor. Ayrıca, zararlı içeriği kendi kendine filtreleme yeteneklerini de değerlendirmeyi planlıyor.
Yapay zekanın bu hedeflere ulaşabilmesi için uzmanların kendi değerlendirmelerini geliştirebilecekleri ve modellerin “binlerce” kullanıcıyla geniş çaplı denemelerini gerçekleştirebilecekleri yeni platformlar öngörülüyor. Şirket, program için tam zamanlı bir koordinatör görevlendirdiğini ve ölçeklenebilir projeleri satın almayı veya genişletmeyi planladığını belirtiyor.
Değerlendirme programının geleceği ve olası zorluklar
Anthropic’in bu girişimi, yeterli nakit ve insan gücü varsa AI kriterlerini desteklemek için olumlu bir adım olarak görülebilir. Ancak şirketin ticari AI yarışındaki hırsları göz önüne alındığında, tamamen güvenmek zor olabilir.
Blog yazısında, Anthropic, finanse ettiği bazı değerlendirmelerin AI güvenlik sınıflandırmalarıyla uyumlu olmasını istediğini açıkça belirtiyor. Bu, şirketin önceliklerinden biri olsa da başvuru sahiplerini “güvenli” veya “riskli” AI tanımlamalarını kabul etmeye zorlayabilir.
AI topluluğunun bir kısmı, Anthropic’in “felaket” ve “aldatıcı” AI risklerine atıflarına da karşı çıkabilir. Birçok uzman, yapay zekanın dünyayı yok edecek, insanları alt edecek yeteneklere sahip olacağına dair kanıtların yetersiz olduğunu belirtiyor. Bu tür iddiaların, günümüzün acil AI düzenleme sorunlarından, örneğin yapay zekanın halüsinatif eğilimlerinden dikkati dağıttığını ekliyor.
Avrupa’nın uzaydaki veri merkezi hamlesi
Anthropic, programının “kapsamlı AI değerlendirmesine yönelik bir endüstri standardına ulaşma yolunda ilerleme kaydedilmesine katalizör olacağını” umuyor. Bu, daha iyi AI kriterleri oluşturma çabalarına kendini adamış birçok açık, şirketlerden bağımsız girişimin de paylaşabileceği bir misyon. Ancak, bu çabaların, nihayetinde hissedarlara sadık bir AI satıcısıyla iş birliği yapmaya istekli olup olmayacağı belirsizliğini koruyor.
Öne çıkan kaynak görseli: National Cancer Institute / Unsplash