Avrupa Birliği (AB) Yapay Zeka Yasası, yapay zeka sistemlerinin güvenli ve etik kullanımını sağlamayı amaçlayan kapsamlı bir düzenleme olarak dikkat çekiyor. Yasa, risk temelli bir yaklaşım benimseyerek yapay zeka sistemlerini, oluşturdukları risk seviyesine göre sınıflandırıyor ve buna göre farklı yükümlülükler getiriyor.
AB Yapay Zeka Yasası’nın bazı bölümleri, 02 Ağustos 2025 tarihinden itibaren genel amaçlı yapay zeka (GPAI) modeli sağlayıcıları için geçerli olacak. Bu tarihten itibaren, GPAI modeli sağlayıcılarının güncel teknik dokümantasyon ve eğitim verilerinin özetlerini tutmaları gerekecek.
Yasanın ihlali durumunda uygulanacak cezalar da oldukça caydırıcı. Yasaklanmış yapay zeka uygulamalarına uyulmaması halinde, şirketlere 35.000.000 €’ya kadar veya şirketin dünya çapındaki yıllık toplam cirosunun %7’si oranında para cezası kesilebilecek. Diğer düzenleyici yükümlülüklerin ihlali durumunda ise bu miktar 15.000.000 € veya cironun %3’ü olarak belirlenmiş durumda. Yetkililere yanıltıcı veya eksik bilgi verilmesi halinde ise 7.500.000 €’ya kadar veya cironun %1’i oranında para cezası uygulanabilecek.
Peki, GPAI modeli sağlayıcıları bu yasal düzenlemelere nasıl uyum sağlayabilirler? Avrupa Komisyonu, bu konuda şirketlere yardımcı olmak amacıyla Yapay Zeka Uygulama Kuralları adında gönüllü bir çerçeve yayınladı. Bu kurallar, teknoloji şirketlerinin Yapay Zeka Yasası’na uyum sağlamalarına yardımcı olmayı amaçlıyor. Google, OpenAI ve Anthropic gibi şirketler bu kurallara uyacaklarını taahhüt ederken, Meta ise yasanın mevcut şekline itiraz ederek bu taahhütte bulunmayı reddetti.
Komisyon, 02 Ağustos’tan önce Yapay Zeka Uygulama Kuralları ile birlikte ek kılavuzlar yayınlamayı planlıyor. Bu kılavuzlar, hangi şirketlerin genel amaçlı model sağlayıcısı ve sistemik risk taşıyan genel amaçlı yapay zeka modeli sağlayıcısı olarak nitelendirileceğini açıklığa kavuşturacak.
AB Yapay Zeka Yasası’nın geri kalanı ise aşamalı olarak yürürlüğe girecek:
- 02 Şubat 2025: Sosyal skorlama ve kamusal alanda gerçek zamanlı biyometrik gözetim gibi kabul edilemez risk taşıdığı düşünülen bazı yapay zeka sistemleri yasaklandı. Yapay zeka geliştiren veya kullanan şirketler, personelinin yeterli düzeyde yapay zeka okuryazarlığına sahip olmasını sağlamak zorunda.
- 02 Ağustos 2026: 02 Ağustos 2025’ten sonra piyasaya sürülen GPAI modelleri bu tarihe kadar uyumlu hale getirilmelidir. Ayrıca, belirli listelenmiş yüksek riskli yapay zeka sistemleri için de kurallar uygulanmaya başlayacak. Bu kurallar, hem bu tarihten sonra piyasaya sürülen hem de bu tarihten önce piyasaya sürülmüş ve o zamandan beri önemli ölçüde değiştirilmiş sistemler için geçerli olacak.
- 02 Ağustos 2027: 02 Ağustos 2025’ten önce piyasaya sürülen GPAI modelleri tam uyumlu hale getirilmelidir. AB ürün güvenliği yasaları tarafından yönetilen ürünlerin güvenlik bileşenleri olarak kullanılan yüksek riskli sistemler de bu tarihten itibaren daha katı yükümlülüklere uymak zorunda.
- 02 Ağustos 2030: Kamu sektörü kuruluşları tarafından kullanılan ve yüksek risk kategorisine giren yapay zeka sistemleri bu tarihe kadar tamamen uyumlu hale getirilmelidir.
- 31 Aralık 2030: Belirli büyük ölçekli AB bilgi teknolojisi sistemlerinin bileşenleri olan ve 02 Ağustos 2027’den önce piyasaya sürülen yapay zeka sistemleri bu son tarihe kadar uyumlu hale getirilmelidir.
Uyum sürecini kolaylaştırmak amacıyla bir yıllık bir geçiş süresi tanınacak. Bu, 02 Ağustos 2026’ya kadar herhangi bir ceza riskinin olmayacağı anlamına geliyor.
Apple, Google ve Meta gibi şirketleri temsil eden bir grup, yasa koyucuları Yasa’nın uygulanmasını en az iki yıl ertelemeye çağırdı. Ancak AB bu talebi reddetti.
AB Yapay Zeka Yasası, yapay zeka teknolojisinin sorumlu ve etik bir şekilde kullanılmasını sağlamayı hedefleyen önemli bir adım olarak değerlendiriliyor. Yasa ile birlikte gelen yükümlülükler, şirketlerin yapay zeka sistemlerini geliştirirken ve kullanırken daha dikkatli olmalarını ve potansiyel riskleri en aza indirmelerini teşvik edecek.
Yasanın temel amacı, yapay zekanın insan haklarına, temel özgürlüklere ve AB değerlerine uygun bir şekilde kullanılmasını sağlamaktır. Bu çerçevede, yasa ile birlikte yapay zeka sistemlerinin şeffaflığı, hesap verebilirliği ve güvenilirliği artırılmaya çalışılacak.
Yapay zeka teknolojisinin hızla geliştiği günümüzde, bu tür düzenlemelerin önemi giderek artıyor. AB Yapay Zeka Yasası, diğer ülkeler ve bölgeler için de bir örnek teşkil edebilir ve yapay zeka düzenlemeleri konusunda küresel bir standardın oluşturulmasına katkıda bulunabilir.
Sonuç olarak, AB Yapay Zeka Yasası, yapay zeka teknolojisinin geleceğini şekillendirecek önemli bir adım olarak öne çıkıyor. Yasa ile birlikte gelen yükümlülükler, şirketlerin yapay zeka sistemlerini geliştirirken ve kullanırken daha sorumlu davranmalarını sağlayacak ve yapay zekanın insanlık yararına kullanılmasını teşvik edecek.
AB Yapay Zeka Yasası’nın yürürlüğe girmesiyle birlikte, yapay zeka sektöründe faaliyet gösteren şirketlerin bu yeni düzenlemelere uyum sağlamak için gerekli adımları atmaları büyük önem taşıyor. Aksi takdirde, yüksek para cezalarıyla karşılaşma riskiyle karşı karşıya kalabilirler.
Bu nedenle, GPAI modeli sağlayıcılarının ve diğer yapay zeka şirketlerinin, AB Yapay Zeka Yasası’nı dikkatlice incelemeleri, yasal yükümlülüklerini anlamaları ve uyum sağlamak için gerekli önlemleri almaları gerekiyor. Bu süreçte, hukuk uzmanlarından ve AB düzenlemeleri konusunda deneyimli danışmanlardan destek almak da faydalı olabilir.
Yapay zeka, gelecekte hayatımızın her alanında daha fazla yer alacak. Bu nedenle, yapay zeka teknolojisinin sorumlu ve etik bir şekilde kullanılmasını sağlamak hepimizin sorumluluğunda. AB Yapay Zeka Yasası, bu hedefe ulaşmak için atılmış önemli bir adım olarak değerlendiriliyor.




