Yapay zeka (AI) sektöründe önde gelen şirketlerde çalışan ve çalışmış bir grup kişi, sektördeki güvenlik eksikliklerine dikkat çekmek ve çalışanların yapay zeka ile ilgili endişelerini dile getirme haklarını savunmak için bir kamuoyu duyurusunda bulundu. Bu önemli açıklama, genellikle kapalı kapılar ardında gelişen bu sektörde çalışanların, yapay zekanın potansiyel tehlikeleri konusunda kamuoyunu bilgilendirme ve tartışma başlatma cesaretini göstermesi açısından dikkat çekici bir adım olarak görülüyor.
Duyuruya imza atanlar arasında OpenAI’da halen çalışan veya daha önce çalışmış 11 kişi ve Google DeepMind’da çalışan veya çalışmış iki kişi bulunuyor. Bu kişilerden biri daha önce Anthropic adlı yapay zeka şirketinde de görev yaptığı biliniyor.
Yaşanan durum, yapay zeka sektörünün önde gelen isimlerinin bile güvenlik endişelerini dile getirmekten çekinmediğini ve bu konunun sektör içinde de hararetli tartışmalara yol açabileceğini gösteriyor.
OpenAI ve Google Deepmind çalışanlarının güvenlik endişelerini paylaşmaları
Duyuruda, “Yapay zeka şirketleri, sistemlerinin yetenekleri ve sınırlamaları, koruyucu önlemlerinin yeterliliği ve farklı zarar türlerinin risk seviyeleri hakkında önemli kamuya açık olmayan bilgilere sahip. Ancak şu anda bu bilgilerin bir kısmını hükümetlerle paylaşma konusunda yalnızca zayıf yükümlülüklere sahipler ve sivil toplumla hiçbir yükümlülükleri yok. Hepsinin bu bilgileri gönüllü olarak paylaşacağına güvenilebileceğini düşünmüyoruz.” ifadeleri yer alıyor. Kısaca bu ifadeler, şirketlerin bu bilgileri sadece kısmen ve gönülsüzce devletlerle paylaştığı, sivil toplum kuruluşlarıyla ise hiçbir bilgi paylaşımında bulunmadığı belirtiliyor.
OpenAI savunmada, Google sessiz
OpenAI ise bir açıklama yaparak şirket içindeki sorunları bildirmek için ihbar hattı gibi yolları olduğunu ve uygun güvenlik önlemleri alınmadan yeni teknolojileri piyasaya sürmediğini belirterek uygulamalarını savundu. Google ise yorum talebine henüz yanıt vermedi. OpenAI sözcüsü, “En yetenekli ve en güvenli yapay zeka sistemlerini sunma konusundaki geçmişimizle gurur duyuyoruz ve riski ele almaya yönelik bilimsel yaklaşımımıza inanıyoruz. Bu teknolojinin önemi göz önüne alındığında, titiz tartışmanın çok önemli olduğu konusunda hemfikiriz ve dünya çapında hükümetler, sivil toplum ve diğer topluluklarla etkileşim kurmaya devam edeceğiz.” dedi.
Yapay zekanın potansiyel zararları konusundaki endişeler onlarca yıldır varlığını sürdürüyor ancak son yıllarda yaşanan yapay zeka patlaması bu korkuları yoğunlaştırdı ve yasalar teknolojik gelişmelere yetişme konusunda zorladı. Yapay zeka şirketleri, teknolojiyi güvenli bir şekilde geliştirme taahhütlerini kamuoyu önünde dile getirse de araştırmacılar ve çalışanlar, yapay zeka araçlarının mevcut sosyal zararları şiddetlendirmesi veya tamamen yeni zararlar yaratması nedeniyle gözetimin eksikliği konusunda uyarıda bulunuyorlar.
İlk olarak New York Times tarafından haberleştirilen, mevcut ve eski yapay zeka şirketi çalışanlarının mektubu, güvenlik endişelerini dile getirmeye karar veren ileri yapay zeka şirketlerindeki çalışanlar için daha fazla koruma talep ediyor. Bildiride, şeffaflık ve hesap verebilirlik konusunda dört ilkeye bağlılık isteniyor. Bu ilkeler arasında, şirketlerin çalışanları riskle ilgili yapay zeka sorunlarını dile getirmeyi yasaklayan herhangi bir karalama anlaşması imzalamaya zorlamayacağı ve çalışanların yönetim kurulu üyeleriyle endişelerini anonim olarak paylaşabilecekleri bir mekanizma yer alıyor.
Gizlilik anlaşmaları çalışanları susturuyor
Yapılan bildiride “Bu şirketler üzerinde etkili bir hükümet denetimi olmadığı sürece, mevcut ve eski çalışanlar, onları halka karşı sorumlu tutabilecek birkaç kişiden biridir. Ancak, geniş kapsamlı gizlilik anlaşmaları, bu endişeleri tam da bu sorunları ele almayan şirketlere iletmek dışında, dile getirmemizi engelliyor.” deniyor. OpenAI gibi şirketler, çalışanların çalışmaları hakkında özgürce konuşmalarını engellemek için agresif taktikler de izledi. Vox‘un geçen hafta bildirdiğine göre, OpenAI, şirketten ayrılan çalışanlara, son derece kısıtlayıcı karalama ve gizlilik belgeleri imzalatıyor veya hak ettikleri tüm hisse senetlerini kaybetmelerine neden oluyor. OpenAI’ın CEO’su Sam Altman, raporun ardından özür dileyerek işten çıkarma prosedürlerini değiştireceğini söyledi.
IKEA Roblox sanal mağazasında çalışacak eleman arıyor
Bildiri, OpenAI’ın iki üst düzey çalışanı, kurucu ortak Ilya Sutskever ve kilit güvenlik araştırmacısı Jan Leike’ın geçen ay şirketten istifasının ardından geldi. Ayrıldıktan sonra Leike, OpenAI’ın “parlak ürünler” lehine bir güvenlik kültüründen vazgeçtiğini iddia etti. Salı günkü açık mektup, Leike’ın açıklamalarından bazılarını yineleyerek, şirketlerin faaliyetleri hakkında şeffaf olma yükümlülüğü göstermediğini söyledi. Tüm bu gelişmeler ışığında, yapay zeka sektöründe güvenlik ve şeffaflık konusundaki tartışmaların daha da alevleneceği öngörülüyor. Düzenleyicilerin, yapay zeka teknolojisinin hızlı gelişimine ayak uydurmak ve sektördeki etik sorunları ele almak için daha sıkı önlemler alması bekleniyor. Ayrıca, yapay zeka şirketlerinin çalışanlarını korumak ve ifade özgürlüğünü sağlamak için daha fazla adım atması gerektiği de açıkça görülüyor.
Öne çıkan kaynak görseli: Werclive / Unsplash