OpenAI’nin kurucu ortaklarından ve eski baş bilim insanı olan Ilya Sutskever, OpenAI’den kısman olaylı ayrılmasının ardından yeni bir yapay zeka şirketi kurduğunu duyurdu.
Sutskever’in yeni girişimi Safe Superintelligence Inc. (SSI), “güvenli süper zekâ” geliştirme üzerine odaklanacak. Bu yeni şirket, yapay zekânın güvenlik ve yeteneklerini eş zamanlı olarak ele almayı hedefliyor. Bu alanda devrim niteliğinde mühendislik ve bilimsel atılımlar yapmayı amaçlıyor.
Ilya Sutskever, geçtiğimiz Kasım ayında OpenAI CEO’su Sam Altman’ın görevden alınması için oy kullanan OpenAI yönetim kurulu üyeleri arasındaydı. Bu olay, iletişim ve güven sorunları nedeniyle gerçekleşti.
Sutskever’in OpenAI’den ayrılışı ve yeni şirketi: Safe Superintelligence Inc.
Şimdi ise Sutskever, yönetim karmaşası veya ürün döngülerinden saptırılmadan, tamamen güvenlik, güvenlik ve ilerleme üzerine odaklanan bir iş modeliyle yola çıkıyor. Sutskever, yeni şirketini Daniel Gross ve Daniel Levy ile birlikte kurdu. Gross daha önce Apple’da yapay zeka lideri olarak görev yapmış, Levy ise OpenAI’de Sutskever ile birlikte çalışarak büyük yapay zeka modelleri eğitiminde güçlü bir itibar kazandı.
Safe Superintelligence Inc., güvenlik ve yeteneklerini teknik sorunlar olarak ele alacak ve bu sorunları devrim niteliğinde mühendislik ve bilimsel atılımlarla çözme amacında. Sutskever ve ekibi, güvenlik önlemlerini mümkün olan en hızlı şekilde ilerletirken, güvenliklerinin her zaman önde olmasını sağlayacaklarını belirtiyor. Bu yaklaşım, şirketin kısa vadeli ticari baskılardan izole şekilde ilerlemesine olanak tanıyacak. Şirketin merkezleri Kaliforniya’nın Palo Alto ve Tel Aviv şehirlerinde yer alıyor. Ancak şirket, yatırımcılarını veya iş modeli hakkında daha fazla detay paylaşmadı.
Gelecek projeleri ve yatırım potansiyeli
SSI’nin yapay zeka alanında önemli bir oyuncu olma potansiyeli yüksek. OpenAI’nin başlangıçta bir kar amacı gütmeyen bir araştırma organizasyonu olarak kurulmuş olması ve sonrasında finansman ihtiyaçlarının artmasıyla kar amaçlı bir yan kuruluşa dönüşmesi, SSI için de benzer bir stratejik geçişe işaret edebilir. Gross’un Bloomberg ile yaptığı röportajda belirttiğine göre, “karşılaştığımız sorunlar arasında sermaye bulmak olmayacak.” Bu durum, AI alanında ve özellikle ekibin özgeçmişleri göz önüne alındığında, SSI’nin çok yakında ciddi sermaye çekebileceğini gösteriyor.
Superintelligence is within reach.
Building safe superintelligence (SSI) is the most important technical problem of our time.
We've started the world’s first straight-shot SSI lab, with one goal and one product: a safe superintelligence.
It’s called Safe Superintelligence…
— SSI Inc. (@ssi) June 19, 2024
Ilya Sutskever ve ekibinin yeni kurduğu Safe Superintelligence Inc., yapay zeka güvenliğinde devrim yaratma potansiyeline sahip. Şirketin, kısa vadeli ticari baskılardan uzak durarak güvenlik ve yetenek gelişimine odaklanması, sektörde önemli değişikliklere yol açabilir.
Netflix kullanıcılarını bezdiren hata kodu tvq-pb-101(1.8): Çözüm yolları
Yeni girişim, yapay zeka teknolojisinin geleceği üzerinde önemli bir etki yaratabilir ve bu alanda güvenlik standartlarını yeniden tanımlayabilir.
Öne çıkan kaynak görseli: Dan Schiumarini / Unsplash