Digital Report
  • DERGİ
  • TEKNOLOJİ
  • YAPAY ZEKA
  • PROFESYONEL
    • GİRİŞİM
    • E-TİCARET
    • FİNTEK
    • MARKA
  • GÜVENLİK
  • KRİPTO
  • OYUN
  • REHBER
No Result
View All Result
Digital Report
No Result
View All Result
Home Yapay Zeka

OpenAI ve Google çalışanları yapay zeka tehlikelerine karşı uyarıda bulundu

Yapay zeka alanında çalışan önde gelen bireyler, sektördeki güvenlik ve şeffaflık eksikliklerini kamuoyuna duyurarak, bu alandaki risklerin azaltılması ve etik standartların güçlendirilmesi için daha fazla koruma ve düzenleme çağrısında bulunuyorlar.

by Bünyamin Furkan Demirkaya
05/06/2024
in Yapay Zeka
OpenAI ve Google çalışanları yapay zeka tehlikelerine karşı uyarıda bulundu
Facebook'ta PaylaşTwitter'da PaylaşLinkedIn'de PaylaşWhatsApp'ta PaylaşTelegram'da Paylaş

Yapay zeka (AI) sektöründe önde gelen şirketlerde çalışan ve çalışmış bir grup kişi, sektördeki güvenlik eksikliklerine dikkat çekmek ve çalışanların yapay zeka ile ilgili endişelerini dile getirme haklarını savunmak için bir kamuoyu duyurusunda bulundu. Bu önemli açıklama, genellikle kapalı kapılar ardında gelişen bu sektörde çalışanların, yapay zekanın potansiyel tehlikeleri konusunda kamuoyunu bilgilendirme ve tartışma başlatma cesaretini göstermesi açısından dikkat çekici bir adım olarak görülüyor.

Duyuruya imza atanlar arasında OpenAI’da halen çalışan veya daha önce çalışmış 11 kişi ve Google DeepMind’da çalışan veya çalışmış iki kişi bulunuyor. Bu kişilerden biri daha önce Anthropic adlı yapay zeka şirketinde de görev yaptığı biliniyor.

Yaşanan durum, yapay zeka sektörünün önde gelen isimlerinin bile güvenlik endişelerini dile getirmekten çekinmediğini ve bu konunun sektör içinde de hararetli tartışmalara yol açabileceğini gösteriyor.

OpenAI ve Google Deepmind çalışanlarının güvenlik endişelerini paylaşmaları

Duyuruda, “Yapay zeka şirketleri, sistemlerinin yetenekleri ve sınırlamaları, koruyucu önlemlerinin yeterliliği ve farklı zarar türlerinin risk seviyeleri hakkında önemli kamuya açık olmayan bilgilere sahip. Ancak şu anda bu bilgilerin bir kısmını hükümetlerle paylaşma konusunda yalnızca zayıf yükümlülüklere sahipler ve sivil toplumla hiçbir yükümlülükleri yok. Hepsinin bu bilgileri gönüllü olarak paylaşacağına güvenilebileceğini düşünmüyoruz.” ifadeleri yer alıyor. Kısaca bu ifadeler, şirketlerin bu bilgileri sadece kısmen ve gönülsüzce devletlerle paylaştığı, sivil toplum kuruluşlarıyla ise hiçbir bilgi paylaşımında bulunmadığı belirtiliyor.

OpenAI savunmada, Google sessiz

OpenAI ise bir açıklama yaparak şirket içindeki sorunları bildirmek için ihbar hattı gibi yolları olduğunu ve uygun güvenlik önlemleri alınmadan yeni teknolojileri piyasaya sürmediğini belirterek uygulamalarını savundu. Google ise yorum talebine henüz yanıt vermedi. OpenAI sözcüsü, “En yetenekli ve en güvenli yapay zeka sistemlerini sunma konusundaki geçmişimizle gurur duyuyoruz ve riski ele almaya yönelik bilimsel yaklaşımımıza inanıyoruz. Bu teknolojinin önemi göz önüne alındığında, titiz tartışmanın çok önemli olduğu konusunda hemfikiriz ve dünya çapında hükümetler, sivil toplum ve diğer topluluklarla etkileşim kurmaya devam edeceğiz.” dedi.

OpenAI ve Google çalışanları yapay zeka tehlikelerine karşı uyarıda bulundu
Bildiride, şeffaflık ve hesap verebilirlik konusunda dört ilkeye bağlılık isteniyor (Görsel kaynak)

Yapay zekanın potansiyel zararları konusundaki endişeler onlarca yıldır varlığını sürdürüyor ancak son yıllarda yaşanan yapay zeka patlaması bu korkuları yoğunlaştırdı ve yasalar teknolojik gelişmelere yetişme konusunda zorladı. Yapay zeka şirketleri, teknolojiyi güvenli bir şekilde geliştirme taahhütlerini kamuoyu önünde dile getirse de araştırmacılar ve çalışanlar, yapay zeka araçlarının mevcut sosyal zararları şiddetlendirmesi veya tamamen yeni zararlar yaratması nedeniyle gözetimin eksikliği konusunda uyarıda bulunuyorlar.

İlk olarak New York Times tarafından haberleştirilen, mevcut ve eski yapay zeka şirketi çalışanlarının mektubu, güvenlik endişelerini dile getirmeye karar veren ileri yapay zeka şirketlerindeki çalışanlar için daha fazla koruma talep ediyor. Bildiride, şeffaflık ve hesap verebilirlik konusunda dört ilkeye bağlılık isteniyor. Bu ilkeler arasında, şirketlerin çalışanları riskle ilgili yapay zeka sorunlarını dile getirmeyi yasaklayan herhangi bir karalama anlaşması imzalamaya zorlamayacağı ve çalışanların yönetim kurulu üyeleriyle endişelerini anonim olarak paylaşabilecekleri bir mekanizma yer alıyor.

OpenAI ve Google çalışanları yapay zeka tehlikelerine karşı uyarıda bulundu
OpenAI gibi şirketler, çalışanların çalışmaları hakkında özgürce konuşmalarını engellemek için agresif taktikler de izledi (Görsel kaynak)

Gizlilik anlaşmaları çalışanları susturuyor

Yapılan bildiride “Bu şirketler üzerinde etkili bir hükümet denetimi olmadığı sürece, mevcut ve eski çalışanlar, onları halka karşı sorumlu tutabilecek birkaç kişiden biridir. Ancak, geniş kapsamlı gizlilik anlaşmaları, bu endişeleri tam da bu sorunları ele almayan şirketlere iletmek dışında, dile getirmemizi engelliyor.” deniyor. OpenAI gibi şirketler, çalışanların çalışmaları hakkında özgürce konuşmalarını engellemek için agresif taktikler de izledi. Vox‘un geçen hafta bildirdiğine göre, OpenAI, şirketten ayrılan çalışanlara, son derece kısıtlayıcı karalama ve gizlilik belgeleri imzalatıyor veya hak ettikleri tüm hisse senetlerini kaybetmelerine neden oluyor. OpenAI’ın CEO’su Sam Altman, raporun ardından özür dileyerek işten çıkarma prosedürlerini değiştireceğini söyledi.

Bu yazımız da ilginizi çekebilir:
IKEA Roblox sanal mağazasında çalışacak eleman arıyor

Bildiri, OpenAI’ın iki üst düzey çalışanı, kurucu ortak Ilya Sutskever ve kilit güvenlik araştırmacısı Jan Leike’ın geçen ay şirketten istifasının ardından geldi. Ayrıldıktan sonra Leike, OpenAI’ın “parlak ürünler” lehine bir güvenlik kültüründen vazgeçtiğini iddia etti. Salı günkü açık mektup, Leike’ın açıklamalarından bazılarını yineleyerek, şirketlerin faaliyetleri hakkında şeffaf olma yükümlülüğü göstermediğini söyledi. Tüm bu gelişmeler ışığında, yapay zeka sektöründe güvenlik ve şeffaflık konusundaki tartışmaların daha da alevleneceği öngörülüyor. Düzenleyicilerin, yapay zeka teknolojisinin hızlı gelişimine ayak uydurmak ve sektördeki etik sorunları ele almak için daha sıkı önlemler alması bekleniyor. Ayrıca, yapay zeka şirketlerinin çalışanlarını korumak ve ifade özgürlüğünü sağlamak için daha fazla adım atması gerektiği de açıkça görülüyor.


Öne çıkan kaynak görseli: Werclive / Unsplash

Tags: AIDeepMindfeaturedGoogleGoogle DeepMindOpenAIyapay zeka

İLGİLİ YAZILAR

Windows JPG dosyası güvenlik açığı
Güvenlik

Windows’ta JPG dosyalarını etkileyen kritik güvenlik açığı keşfedildi

by Emre Çıtak

ESET araştırmacıları, Windows işletim sisteminde bulunan ve en yaygın resim formatlarından biri olan JPG dosyaları üzerinden sistem güvenliğini tehdit eden...

Read moreDetails
iPhone Air 2 için 2026 umudu yeniden doğdu
Teknoloji

iPhone Air 2 için 2026 umudu yeniden doğdu

by Emre Çıtak

Apple'ın "süper ince" telefon denemesi iPhone Air'in geleceği bir süredir belirsizliğini koruyordu. İlk modelin satışlarının beklentilerin altında kalması ve 2027'ye...

Read moreDetails
Teslanın Avrupa satışları çakıldı, BYD öne geçti
Marka

Tesla’nın Avrupa satışları çakıldı, BYD öne geçti

by Emre Çıtak

Avrupa Otomobil Üreticileri Birliği'nin (ACEA) Kasım ayı raporu, elektrikli araç devi Tesla için tehlike çanlarının çaldığını gösteriyor. Rapora göre, şirketin...

Read moreDetails
Lise yıllarından kalma utanç verici Gmail adresinizden yakında kurtulacaksınız
Teknoloji

Lise yıllarından kalma utanç verici Gmail adresinizden yakında kurtulacaksınız

by Emre Çıtak

Hepimizin geçmişinde, lise yıllarında aldığı ve bugün iş başvurularında kullanmaya utandığı o "çılgın_cocuk99" veya "asi_kiz" temalı bir Gmail adresi vardır....

Read moreDetails

SON YAZILAR

Xiaomi Buds 6 tanıtıldı

VEPARA’nın faaliyetleri yasa dışı bahis soruşturması kapsamında durduruldu

Windows’ta JPG dosyalarını etkileyen kritik güvenlik açığı keşfedildi

iPhone Air 2 için 2026 umudu yeniden doğdu

Tesla’nın Avrupa satışları çakıldı, BYD öne geçti

Lise yıllarından kalma utanç verici Gmail adresinizden yakında kurtulacaksınız

ChatGPT’ye reklamlar 2026’da geliyor

Google 2025’i yapay zeka fayda yılı ilan etti, OpenAI kırmızı kod ile karşılık verdi

Nvidia’nın 20 milyar dolarlık Groq satın alması yalan çıktı

X’te Artık herkes paylaştığınız fotoğrafları yapay zeka ile değiştirebiliyor

SON REHBERLER

Android telefon hafıza kartını görmüyor sorunu nasıl çözülür

Instagram’da fotoğraf paylaşma sorununu gidermenin pratik yolları

OLED ekranlarda oluşabilecek yanma sorununu önlemenin pratik yolları

Windows 10’da unmountable boot volume hatası nasıl düzeltilir

Nvidia DLAA ile oyun grafiklerinde kenar yumuşatma nasıl sağlanır

ChatGPT’yi 1 saatten kısa sürede ustaca kullanmayı öğrenin

Windows’un farklı sürümlerinde ve Mac’te şifre kaldırma

iPhone’da kilit ekranına istediğiniz metni yazma nasıl yapılır

Telegram’da engellendiğinizi pratik yöntemlerle nasıl anlarsınız

Windows’ta işletim sisteminin bit mimarisini nasıl öğrenirsiniz

BASIN BÜLTENLERİ

RTB House, Derin Öğrenme ile dijital reklamcılığın yeni işletim sistemini kuruyor

ESET, Çin bağlantılı LongNosedGoblin APT grubunu tespit etti

Simya VC’den Rudiq’e 1 milyon dolar yatırım

Huawei Cloud, İstanbul’da dijital perakende buluşması düzenledi

SteelSeries, tek kulaklıkla birden fazla platformda oyun oynama özgürlügü sunuyor

Aktif Tech, Deloitte Teknoloji Fast 50’de üçüncü oldu

Dolap, 2024 yılında 307 bin 340 ton karbon salımını önledi

Canon, Istanbul’da EOS R6 Mark III ve EOS C50 tanıttı

LG, yeni yıl için soundbar kampanyasını duyurdu

Citrix, Hibrit çoklu bulut lisans modeli sunuyor

Digital Report

© 2019 Digital Report bir Linkmedya markasıdır.

  • Dergi
  • Yazarlar
  • Basın bültenleri
  • Gizlilik
  • İletişim
  • Künye

Bizi takip edin

No Result
View All Result
  • TEKNOLOJİ
  • YAPAY ZEKA
  • PROFESYONEL
    • GİRİŞİM
    • E-TİCARET
    • FINTECH
    • MARKA
  • GÜVENLİK
  • KRİPTO
  • OYUN
  • REHBER
  • BASIN BÜLTENLERİ
  • YAZARLAR
  • DERGİ
  • KÜNYE
  • İLETİŞİM