ChatGPT İtalya’da yasaklandı. İtalyan gizlilik düzenleyicisi, ChatGPT’nin gizlilik ihlalleri iddiaları nedeniyle yasaklanmasını emretti. Bu karar, ChatGPT’nin İtalya’da kullanımını kısıtlayacak ve birçok kişinin bu hizmeti kullanmasını engelleyecek.
ChatGPT İtalya’da yasaklandı
Ulusal veri koruma otoritesi, popüler yapay zeka aracı ChatGPT’nin, İtalyan kullanıcıların verilerini işlemesini derhal engelleyeceğini ve soruşturacağını açıkladı. Bu karar, şirketin AB’nin dönüm noktası niteliğindeki gizlilik yasası Genel Veri Koruma Yönetmeliği’ne (GDPR) uyana kadar geçerli olacak. Bu durum, ChatGPT’nin İtalya’da hizmet vermesini engelleyecek ve birçok kullanıcıyı etkileyecek.
ChatGPT İtalya ile ilgili tartışmalar yayılıyor. Yapay zeka aracının geliştiricisi OpenAI’nin gizlilik, siber güvenlik ve dezenformasyon riskleri nedeniyle soruşturulması yönündeki çağrılar Atlantik’in her iki yakasında da artarak devam ediyor. Bu hafta, Elon Musk ve düzinelerce yapay zeka uzmanı, ChatGPT güncellemelerine ara verilmesi çağrısında bulundu. Ayrıca, tüketici savunuculuğu grubu BEUC, 30 Mart’ta veri koruma gözlemcileri de dahil olmak üzere AB ve ulusal yetkilileri ChatGPT’yi soruşturmaya çağırdı. Bu çağrılar, ChatGPT’nin geleceğiyle ilgili endişeleri arttırdı ve yapay zeka teknolojisiyle ilgili etik sorunları yeniden gündeme getirdi.
ChatGPT İtalya’da hizmet veremiyor çünkü OpenAI’nin ChatGPT’nin algoritmalarını eğitmek için kişisel verilerin toplanması ve depolanmasını haklı gösterecek yasal bir dayanaktan yoksun olduğu açıklandı. Yetkililer, şirketin verileri yanlış işlediğini de bildiriliyor. Bu nedenle, İtalyan veri koruma otoritesi ChatGPT’nin yasaklanması kararını verdi. Karar, GDPR’nin gerekliliklerini yerine getirinceye kadar geçerli olacak. Bu durum, OpenAI ve ChatGPT için ciddi bir maliyet ve imaj kaybı oluşturabilir ve aynı zamanda yapay zeka teknolojisi ile ilgili düzenleyici önlemler tartışmalarını da gündeme getirebilir.
ChatGPT destekli Bing, yeni reklam modelini tanıttı
Bir italyan yetkili, ChatGPT’nin geçen hafta bir veri ihlaline uğradığını ve kullanıcıların konuşmalarını ve ödeme bilgilerini ifşa ettiğini belirtti. Ayrıca OpenAI’nin kullanıcıların yaşını doğrulamadığını ve “reşit olmayanları, gelişim ve öz farkındalık derecelerine kıyasla kesinlikle uygun olmayan cevaplara” maruz bıraktığını da ekledi. Bu iddialar, ChatGPT’nin veri koruma ve güvenlik açıklarına ilişkin endişeleri arttırarak, yapay zeka teknolojisi ile ilgili düzenleyici önlemler tartışmalarını daha da önemli hale getirdi. OpenAI ve diğer yapay zeka şirketleri, kullanıcı verilerinin gizliliğini korumak ve güvenliklerini sağlamak için daha sıkı önlemler almak zorunda kalabilirler.
OpenAI’nin AB’de bir ofisi bulunmamasına rağmen, Avrupa Ekonomik Alanı’ndaki temsilcisi ChatGPT’yi AB gizlilik kurallarına uygun hale getirmek için bir plan açıklaması yapmak zorunda. Aksi takdirde şirket, küresel gelirinin yüzde 4’üne kadar bir cezayla karşı karşıya kalabilir.