90’lı yılların başında Creative Labs., sattığı ürünlerle birlikte “Dr. Sbaitso 2” isimli küçük bir yazılım parçası veriyordu. MS-DOS tabanlı Dr. Sbaitso, ChatGPT ya da Bard’ın çok daha ilkel bir versiyonu olarak tanımlanabilecek bir sohbet robotuydu; esasen bir psikoterapistti ve üstelik konuşuyordu. Metni sese çevirme teknolojisinin ilk örneklerinden olan Dr. Sbaitso ile konuşurken zamanın nasıl geçtiğini anlamazdınız. Maalesef 200 kilobaytlık bu programcığın cevapları sınırlı, veri tabanı minik, ‘evren’i küçücüktü.
Bu aralar üretken Yapay zeka araçlarını kullanırken hep aklıma Dr. Sbaitso geliyor. Tarihte mihenk taşı olmuş robotlar var evet ama bunlar arasında Dr. Sbaitso’nun da hatırı sayılır bir yeri var. Zira erken dönem yapay zeka teknolojisinin esin kaynaklarından olan Dr. Sbaitso, yapay zekanın sosyal olarak algılanmasındaki pozitif etkisiyle de gün geçtikçe daha anlamlı bir yere oturuyor.
Asimov’un Üç Robot Yasası’nı burada tekrar etmeye gerek görmüyorum. Robotların varlığından bile önce vardı üç robot yasası. Asimov’un robotların insanlara zarar verme potansiyelini sınırlamak için tasarladığı bu yasa aynı zamanda insanların ve robotların birlikte var olabileceği bir düzenin temelini atar.
Bugün, Asimov’un vizyonu tekrar gündemde. Üstelik tarihte daha önce hiç olmadığı kadar ciddi bir şekilde tartışılıyor. Aynı zamanda yapay zekanın etik ve güvenli kullanımı üzerine de geniş çaplı bir tartışma yürütülüyor. Yapay zekanın insanlarla uyum içinde çalışmasını sağlamak için sürekli etik normlar geliştiriyor ve düzenlemeler yapılıyor. Ve sonunda AB’nin çalışmalarıyla ilk Yapay Zeka Yasası yürürlüğe giriyor.
Yapay Zeka Yasası nasıl ve neden ortaya çıktı?
Dünya, yapay zekadaki gelişmeler, enerji kaynaklarındaki değişimler ve jeopolitik gerilimlerin damgasını vurduğu benzeri görülmemiş bir değişim yaşıyor. 2018’den beri de teknolojik atılımlar hızlandıkça politika yapıcılar bir Yapay Zeka Yasası üzerinde yoğun olarak çalışıyorlar. İlk olarak 2021’de teklif edilen Yapay Zeka Yasası’na dair tartışmalar OpenAI tarafından geliştirilen GPT-4 büyük dil modeli gibi genel amaçlı Yapay zeka (GPAI) araçlarındaki patlamadan önce başladı. AB, bu teknolojilerin olası risklerini azaltmak ve vatandaşların haklarını korumak için böyle bir düzenlemeye ihtiyaç duyduğunu fark etmiş ve çalışmalara başlamıştı.
Yapay zekanın ilerleyen yeteneklerini göstererek dünya çapında sansasyon yaratan ChatGPT’nin geçen yıl piyasaya sürülmesinden sonra yapay zeka ile ilgili yasal düzenlemelere gereksinim aciliyet kazandı.
Avrupa, Yapay Zeka Yasası’nın ne olacağı üzerinde erkenden çalışmaya başlayarak yapay zekayı düzenleme konusunda en ileri bölgelerden biri oldu. Kanunun hazırlık ve taslak aşamasında, AB Komisyonu, üye ülkelerin hükümetleri, endüstri uzmanları ve sivil toplum kuruluşları gibi çeşitli paydaşlar etkili oldu.
Farklı görüş ve önerilerin dikkate alındığı bu süreç, yasanın kapsamlı ve dengeli bir şekilde hazırlanmasını sağladı. Her aşamada yapay zeka teknolojilerinin etik ve güvenli kullanımı, bireysel hak ve özgürlükler ile veri koruma standartları ön plana çıkıyordu. Amerika Birleşik Devletleri ise bu sıralarda hemen yapay zekanın savunma amaçlı kullanımını düzenlemek için yeni yasalar çıkarmaya başladı.
Son yıllarda özellikle AB liderleri, sağlık düzenlemelerine benzer şekilde teknolojiye yeni bir gözetim düzeyi getirmeye çalıştılar; bakım veya bankacılık endüstrileri, blok veri gizliliği, rekabet ve içerik denetimiyle ilgili geniş kapsamlı yasaları yürürlüğe koydular. Avrupa Parlamentosu, 36 saat süren müzakerelerin ardından tarihi bir karar alarak 8 Aralık 2023 Cuma günü itibarıyla yapay zekayı düzenlemeye yönelik kapsamlı bir yasa üzerinde anlaşıldığını duyurdu ve Yapay Zeka Yasası üye devletlerin imzasıyla Brüksel’de kabul edildi. Yapay Zeka Yasası, bir yandan teknolojinin potansiyel faydalarından yararlanmak isteyen ülkeler için yeni bir küresel ölçüt belirlirlerken bir diğer yandan da çevrim içi dezenformasyon ve ulusal güvenliğin tehlikeye atılması gibi olası risklere karşı koruma sağlamaya çalışıyor.Yapay Zeka Yasası, 27 ülkedeki düzenleyicileri kapsayacak ve hükümet bütçelerinin kısıtlı olduğu bir dönemde yeni uzmanların işe alınmasını gerektirecek. Şirketler yeni kuralları mahkemede test ettikçe yasal zorluklar yaşanması muhtemel görünüyor.
Yapay Zeka Yasası, kurallarını AI sistemlerinin toplum üzerindeki risk düzeyine göre kategorize ediyor ve AB’nin belirttiği gibi, “Risk ne kadar yüksekse, kurallar da o kadar katı
Avrupalı politikacılar yasayı hazırlarken güvenlik ve enerji gibi kritik alanlarda yapay zekanın şirketler ve hükümetler tarafından en riskli kullanım senaryolarına odaklandı.
Yasanın yürürlüğe girmesiyle ChatGPT, Bard gibi büyük, genel amaçlı yapay zeka sistemlerinin yapımcıları yeni şeffaflık gereksinimleriyle karşı karşıya kalacak. AB yetkililerine ve yasanın daha önceki taslaklarına göre, “deepfake” gibi manipüle edilmiş görüntüler oluşturan sohbet robotları ve yazılımların, insanların gördüklerinin yapay zeka tarafından oluşturulduğunu açıkça belirtmesi gerekecek.
Yüz tanıma yazılımlarının polis ve hükûmetler tarafından kullanımı, belirli güvenlik ve ulusal güvenlik muafiyetleri dışında kısıtlanacak. Düzenlemeleri ihlal eden şirketler, küresel satışların yüzde 7’sine kadar para cezasıyla karşı karşıya kalabilir. Çünkü yüz tanıma veri tabanı oluşturmak için internetteki görüntülerin gelişigüzel toplanması gibi bazı uygulamalar tamamen yasaklanacak.
Yasa, düzenleyici açıdan çığır açıcı bir gelişme olarak görülse de, ne kadar etkili olacağına dair sorular hâlâ tartışılıyor. Yasanın birçok yönünün, yapay zekanın gelişimi için oldukça uzun bir süre olan 12 ila 24 ay boyunca yürürlüğe girmesi beklenmiyor. Bu süre içinde yapay zeka teknolojisinin nasıl bir yol kat edeceği ise öngörülemiyor. Bu yüzden müzakerelerin son dakikasına kadar yapay zeka teknolojilerinin teşvik edilmesi ile olası zararlara karşı korunma ihtiyacı arasında nasıl denge kurulacağı konusunda tartışmalar devam etti. Yapay zekanın küresel ekonomiyi yeniden şekillendireceği tahmin edildiğinden trilyonlarca dolarlık bir pazar değeri söz konusu Fransa’nın Dijital Dönüşüm ve Telekomünikasyon Bakanı Jean-Noël Barrot bu konuda, “Teknolojik hakimiyet ekonomik hakimiyetten ve siyasi hakimiyetten önce gelir,” diyerek net bir çizgi çekti.
Politika yapıcılar, tanımlanmış bir dizi uygulamanın en fazla gözetim ve kısıtlamayla karşı karşıya kaldığı yapay zekayı düzenlemek için “risk temelli yaklaşım” olarak adlandırdıkları yaklaşımı kabul ettiler. İşe alma ve eğitim gibi konularda bireylere ve topluma en fazla zarar verebilecek yapay zeka araçları üreten şirketlerin, düzenleyicilere risk değerlendirmelerinin kanıtlarını, sistemleri eğitmek için hangi verilerin kullanıldığına ilişkin dökümleri ve yazılımın bunu yaptığına dair güvenceler sunması gerekecek. Ek olarak yapay zekanın ırksal önyargıların arındırılarak tasarlanması gerekliliği de yeni yasayla birlikte şart koşulan önemli bir önlem. Ayrıca yapay zeka sistemlerinin oluşturulması ve devreye alınmasında artık insan gözetimi de gerekli olacak.
Müzakerede AB yetkilileri, Google ve OpenAI gibi Amerikan şirketlerine yetişmeye çalışan Avrupalı girişimlerin engellenmesi korkusuyla yeni AI sistemlerinin ne kadar derinlemesine düzenlenmesi gerektiği konusunda bölünmüştü.
Yeni düzenlemeler dünya çapında yakından izlenecek. Bunlar yalnızca Google, Meta, Microsoft ve OpenAI gibi büyük yapay zeka geliştiricilerini değil, aynı zamanda teknolojiyi; eğitim, sağlık ve bankacılık gibi alanlarda yapay zeka kullanması beklenen diğer işletmeleri de etkileyecek. Hükûmetler ayrıca ceza adaleti ve kamu yararlarının gözetilmesi konusunda yapay zekaya daha fazla yönelenecek.
Yakın dönem gelişmeleri
Geçtiğimiz yıl, bulut bilişim, makine öğrenimi ve üretken yapay zeka gibi teknolojilerde hayatımızın çeşitli yönlerini derinden etkileyen önemli ilerlemelere tanık olduk.
2023 Eylül ayının başlamasıyla birlikte Google, Microsoft ve IBM gibi devler pazarda bir anda tekel haline gelen ChatGPT’ye rakip olabilecek yeni yapay zeka tabanlı araçlarını duyurdular. Yaz aylarında şirketler tarafından yeni bir araç olarak entegre edilmeye çalışılan yapay zeka araçları, tüm dünyada okulların açılmasıyla ve yeni bir öğretim yılına girilmesiyle birlikte çok ciddi kullanım rakamlarına erişti ve böylelikle şirketlerin basit işlerini halletmek için kullandığı bir araç olmaktan çıkarak okul bombalamalarını ya da saldırıları düzenlemek için danışılan, borsa tahminleri yapan, geleceğe dair finansal tahminler yürüten hatta belki kimi bireyler ve şirketler için karar alan bir fenomene dönüştü.
Ekim ayının hemen başlarında Meta, Apple ve Tesla’nın yapay zeka destekli projeleri, ürünleri, platformları duyuldu. Çin ise yapay zekaI araştırmaları için yeni bir üniversitenin kurulmasına, Yapay zeka teşviklerinin de artırılmasına karar verdi. Amerika Birleşik Devletleri’nde Biden yönetimi yakın zamanda kısmen yapay zekanın ulusal güvenlik etkilerine odaklanan bir idari emir yayınladı. İngiltere, Japonya ve diğer ülkeler daha müdahaleci bir yaklaşım benimserken, Çin veri kullanımı ve öneri algoritmalarına bazı kısıtlamalar getirdi.
Devletlerin şirketleştiği günümüzde devletlerin ve büyük şirketlerin her birinin yapay zeka konusuna bu derece odaklanmaları; diğer şirketleri de peşinden sürükledi ve sonunda yapay zekanın müthiş bir hızla gelişmesi ve yapay zeka araçlarının birbiri ardına çoğalması başladı.
Sadece 2023 yılının son dört ayında yapay zeka tabanlı çeviri, metin yazma, sanal gerçeklik, görüntü tanıma ve işleme, asistan işletim sistemleri, otonom araçlar, e-ticaret, sağlık, güvenlik gibi alanlarda yeni teknolojiler ve uygulamalar geliştirildi.Bu gelişmeler, yapay zekanın günlük yaşamımızdaki etkisini daha da artırdı. Bulut teknolojileri, makine öğrenimi ve üretken yapay zeka daha erişilebilir hale geldi.
Aynı zamanda bu yıl içinde yapay zekanın hızlı sıçramalarına şahit olduk. Kimileri sadece bir “sohbet robotu” olarak tanımlamakta ısrar etse de yapay zeka e-posta yazmaktan yazılım geliştirmeye, elektrikli araçlardan, enerji yönetimine, ekonomik tahminlerden kanseri erken aşamada tespit etmeye kadar hayatımızın neredeyse her alanını etkiledi. Üstelik bu trend yakın zamanda sona erecek gibi de görünmüyor.
AB Yapay Zeka Uyum Yasası’nın kronolojisi
- Ocak 2021: Avrupa Komisyonu, Yapay Zeka Uyum Yasası’nı (AI Act) duyurdu. Yasa ile yapay zeka sistemlerinin geliştirilmesi, kullanılması ve dağıtılmasında uygulanacak temel ilke ve kurallar belirlendi.
- Haziran 2021: Avrupa Parlamentosu, Yapay Zeka Uyum Yasası’nın ilk okumasını gerçekleştirdi. Parlamento, yasanın bazı maddelerini değiştirerek, yapay zeka sistemlerinin şeffaflığını ve hesap verebilirliğini artırmayı amaçladı.
- Aralık 2021: Avrupa Konseyi, Yapay Zeka Uyum Yasası’nın ilk okumasını gerçekleştirdi. Konsey, Parlamento’nun yaptığı değişiklikleri kabul etti ve yasayı müzakerelere açtı.
- Şubat 2022: Avrupa Komisyonu, Yapay Zeka Uyum Yasası’nın ikinci okuması için taslak metnini yayınladı. Taslak metin, Parlamento ve Konsey tarafından yapılan değişiklikleri içeriyordu.
- Mayıs 2022: Avrupa Parlamentosu, Yapay Zeka Uyum Yasası’nın ikinci okumasını gerçekleştirdi. Parlamento, yasanın bazı maddelerini değiştirerek, yapay zeka sistemlerinin ayrımcılık yapmamasını ve sosyal zarardan kaçınmasını sağlamayı amaçladı.
- Temmuz 2022: Avrupa Konseyi, Yapay Zeka Uyum Yasası’nın ikinci okumasını gerçekleştirdi. Konsey, Parlamento’nun yaptığı değişiklikleri kabul etti ve yasayı son müzakerelere açtı.
- Aralık 2023: Avrupa Birliği ülkeleri, Yapay Zeka Uyum Yasası üzerinde anlaşmaya vardı. Yasa 2025’te yürürlüğe girecek.
Yapay zeka uyum yasası neleri kapsıyor?
İnsanlık tarihindeki en çarpıcı teknolojik ilerlemelerden biri olarak değerlendirebileceğimiz yapay zeka, etik, güvenlik ve toplumsal sorunlar açısından kapsamlı bir bakış açısı; derin bir felsefi ve analitik değerlendirme gerektiriyor. Avrupa Birliği’nin Yapay Zeka Yasası, bu teknolojinin getirdiği zorluklara bir yanıt olma çabasında.
Yasa, yapay zekanın etik ve sorumlu bir şekilde kullanılmasını sağlayarak, vatandaşların haklarını korumayı hedefliyor. Aynı zamanda AB’nin dijital stratejisinin önemli bir parçası olarak, bölge genelinde yapay zeka teknolojilerinin uyumlu ve sorumlu bir şekilde geliştirilmesini teşvik etmeyi amaçlıyor. Elbette ki yasanın uygulanması, AB içinde ve uluslararası düzeyde yapay zeka teknolojilerinin gelişimine önemli bir yön verecek. İşte yasanın öne çıkan 10 maddesi:
- Risk bazlı yaklaşım: Yasa, yapay zeka sistemlerini risk düzeylerine göre sınıflandırıyor. Yüksek riskli sistemler, insan haklarına saygı göstermek, şeffaf ve güvenilir olmak zorunda. Sınıflandırma, teknolojinin potansiyel zararlarını minimize etme çabası olarak görülebilir, ancak aynı zamanda inovasyonu kısıtlayıcı bir etki de yaratabilir.
- Yüksek riskli sistemler için düzenlemeler: Yüksek riskli sistemler, (Sağlık, güvenlik ve temel haklara önemli ölçüde potansiyel zarar veren yapay zeka sistemleri yüksek riskli olarak sınıflandırılır.) özellikle etik ve temel haklar konusunda hassasiyet gerektiren alanlarda sıkı kontrol altında tutulacak. Bu durum güvenlik ve etik standartları yükseltirken, bürokratik engelleri de beraberinde getirebilir.
- Şeffaflık ve bilgilendirme yükümlülükleri: Yapay zeka sistemleri kullanıcılarına karar verme süreçleri hakkında bilgi vermek zorundadır. AB’nin bu ince düşüncesi kullanıcıların haklarını korurken, şirketler üzerinde ek yükler oluşturabilir. Çünkü bu regülasyonlar bireylerin yapay zeka kararlarının nasıl alındığını anlamalarını ve gerektiğinde itiraz etmelerini sağlayacak.
- Yüz tanıma ve biyometrik tanımlama sistemlerinin kullanımı: Bu sistemlerin kamusal alanlarda kullanımı sınırlanacak ve insan haklarına ve özgürlüklere zarar verebilecek kullanımlar yasaklanacak. Mahremiyet hakları korunmaya çalışılmış gibi görünse de bu sistemlerin yaygınlaşacağına da işaret eden bu madde, güvenlikle ilgili endişeleri artırabilir.
- AI güvenliği ve veri yönetimi: AI sistemlerinin güvenli olması ve veri ihlallerine karşı korunması gerekiyor. Bu da veri güvenliğini artırırken, kurumlara ekstra maliyet yükleyecektir. Ayrıca güvenlik protokollerinin, dolayısıyla karmaşıklığın da artacağını öngörebiliriz.
- AB düzeyinde uyum ve denetim mekanizmaları: AB, yapay zeka sistemlerinin uyumunu ve denetimini sağlamak için bir çerçeve oluşturuyor. Bu, standartları yükseltirken, uluslararası iş birliğini zorlaştırabilir. AB dışındaki ve henüz bir yapay zeka yasası olmayan ülkeler ve AB arasındaki yasal farklar, küresel dengelerin değişmesine sebep olabilir. Ayrıca yasaya uymamak, düzenlemelerin ciddiyetini pekiştiren önemli para cezalarına yol açabilir.
- Uluslararası iş birliği ve standartlar: AB’nin Yapay Zeka Yasası, uluslararası standartlar ve iş birliği ile uyumlu olacak şekilde tasarlandı. Bu, küresel standartları belirleme çabası olarak görülebilir, ancak farklı bölgelerin özgünlüklerinin göz ardı edilmiş olması da olası. Bunu zaman gösterecek.
- Yenilikçilik ve KOBİ’lerin desteklenmesi: Kanun, küçük ve orta ölçekli işletmelerin yapay zeka teknolojilerine erişimini kolaylaştırmayı ve yenilikçiliği teşvik etmeyi hedefliyor. Bu da iyimser düşünürsek, pazarda çeşitliliğin artacağını müjdeleyen, olumlu bir madde.
- Sosyal zarardan kaçınma: Yapay zeka sistemlerinin geliştirilmesi ve kullanılmasında, bireylerin güvenliği ve refahı için potansiyel riskler dikkate alınmalı diyor AB fakat bu, toplumsal refahı artırırken, radikal inovasyonları da kısıtlayabilir.
- Ayrımcılığın önlenmesi: Yapay zeka sistemleri, bireylerin ırk, din, cinsiyet, yaş, cinsel yönelim gibi özellikleri temelinde ayrımcılık yapmamalı. Bu, eşitlik ve adaleti teşvik ederken, algoritmik karmaşıklığı artırabilir.
Koruma tedbirleri ve yasaklar
Yasa, yapay zekanın kötüye kullanımına karşı kritik güvenceler de getirmekte. Biyometrik tanımlamanın kolluk kuvvetleri tarafından kullanımını sınırlandırmakta, kullanıcı açıklarından yararlanan sosyal puanlama ve yapay zeka sistemlerini; ek olarak ırk veya cinsel yönelim gibi hassas özellikleri kullanan biyometrik kategorizasyon sistemlerini yasaklamakta.
Genel AI sistemlerinde şeffaflık
Genel yapay zeka sistemleri, teknik dokümantasyon, AB telif hakkı yasasına uygunluk ve eğitim içeriği hakkında özetler dâhil olmak üzere şeffaflık gerekliliklerine uymalıdır. Sistemik riske sahip yüksek etkili modeller, model değerlendirmelerinden, risk değerlendirmelerinden geçmeli ve olaylar ve enerji verimliliği hakkında rapor vermelidir.
AB Yapay Zeka Yasası, AB’nin dijital stratejisinin önemli bir parçası olarak, bölge genelinde yapay zeka teknolojilerinin uyumlu ve sorumlu bir şekilde geliştirilmesini teşvik etmeyi amaçlamakta. Bu kanunun uygulanması, AB içinde ve uluslararası düzeyde yapay zeka teknolojilerinin gelişimine önemli bir yön verecektir.
Panopticon’dan günümüze
Gözetim toplumu, bireylerin veya grupların devlet veya özel sektör tarafından izlendiği bir toplumsal yapıdır. Tarih boyunca farklı yöntemlerle uygulanan gözetim, günümüzde yapay zeka teknolojileri sayesinde daha karmaşık ve yaygın bir hale geldi. Bu durum, bireylerin özgürlükleri ve mahremiyet hakları açısından yeni sorunları da beraberinde getiriyor.
Gözetim toplumu kavramı, ilk olarak 18. yüzyılda İngiliz filozof Jeremy Bentham tarafından ortaya atıldı. Bentham, merkezi bir gözetleme kulesinin etrafında yer alan hücrelerden oluşan bir hapishane modeli tasarlayarak buna Panoptikon adını verdi. Gözetleme kulesinden tüm hücrelerin sürekli olarak izlenebilmesine olanak tanıyan bu tasarım sayesinde disiplinin sağlanması amaçlanıyordu. Panoptikon, modern gözetim toplumlarının temelini oluşturmasıyla biliniyor.
Günümüzde, akıllı şehirler, trafik ve güvenlik kameraları, yüz tanıma teknolojileri gibi uygulamalar, bireylerin hareketlerini ve davranışlarını sürekli olarak izleyerek Panoptikon benzeri bir gözetim ağı yapısını akıllara getiriyor.
Yapay zeka teknolojileri, gözetim toplumunun daha da yaygınlaşmasına yol açabilecek bir potansiyel barındırıyor. Yapay zeka destekli gözetim sistemleri daha doğru bir şekilde veri toplayabildiğinden, devletlerin ve özel sektörün bireylerin yaşamları hakkında daha fazla bilgi elde etmesini sağlıyor.
Yapay zeka destekli gözetim sistemlerinin bireysel özgürlükler ve mahremiyet hakları üzerindeki etkileri bu yasayla sınırlanmaya çalışılsa da sadece Avrupa’da bu kanunun kabul edilmesi dünya için yetersiz; acaba diktatörlüğün hüküm sürdüğü coğrafyalarda yapay zeka ile toplum gözetimi uygulamaları nasıl kullanılacak. Bazıları, bu sistemlerin güvenliği ve düzeni sağlamak için gerekli olduğunu savunurken, diğerleri ise bu sistemlerin bireysel özgürlükleri ve mahremiyeti ihlal ettiğini iddia ediyor.
AB Yapay Zeka Uyum Yasası, bu tehditleri azaltmaya yardımcı olabilecek bir adım. Yeni yasanın, yapay zeka destekli gözetim sistemlerinin şeffaflığını ve hesap verebilirliğini artırmaya yardımcı olabileceği düşünülüyor ki, yasanın detaylarını okuyunca, bu açıdan oldukça üzerine düşünülmüş olduğunu görebiliyoruz. Ancak, yasanın etkin bir şekilde uygulanması ve gözetim toplumunun olumsuz etkilerinin önlenmesi için bu tür yasaların dünya çapında yaygınlaşması ve bunun için de daha fazla çaba sarf edilmesi şart.
AB, yapay zeka teknolojilerinin getirdiği bu yeni gözetim biçimlerine karşı “Açıklama Hakkı” gibi yeni düzenlemeler getirmiş durumda. Bu düzenlemeler, kullanıcıların algoritmaların nasıl karar verdiğini sorma, bu kararlara itiraz etme ve vazgeçme hakkını içeriyor. Bu da yapay zeka destekli gözetim sistemlerinin şeffaflığını artırmayı ve bireylerin mahremiyet haklarını korumayı amaçlıyor.
AI yasasının olası etkileri
2024 yılında bizi neler bekliyor bilmiyoruz ama bildiğimiz şeyler var; 2024 yılında geçmişten gelen jeopolitik sorunlar yüzünden çatışmalar devam edecek gibi görünüyor. ABD seçimlerinin yanı sıra birçok ülkede seçimler yapılacak ve dünya çapında 2 milyar kişi oy kullanacak. Her şey değişebilir. Bu demokrasinin, dünyanın geleceğinin belirleneceği bir yıl olacağı düşüncesi yaratıyor.
Gözetim toplumu ve yapay zeka teknolojilerinin gelişimi, bireylerin özgürlükleri ve mahremiyet hakları açısından önemli sorunları beraberinde getiriyor. AB’nin Yapay Zeka Uyum Yasası gibi düzenlemeler, bu teknolojilerin etik ve yasal çerçevesini belirlemeye çalışıyor ve bireylerin haklarını korumayı amaçlıyor. Ancak bu teknolojilerin getirdiği değişiklikler ve etkileri, toplumun her kesiminde sürekli bir tartışma konusu olmaya devam edecek.
Şimdilik OpenAI, Microsoft, Google ve Meta gibi büyük yapay zeka oyuncularının, özellikle ABD’deki mevzuat belirsizliğiyle mücadele ederken, muhtemelen üstünlük için savaşmaya devam edeceklerini söyleyebiliriz. Yasa, AB içinde ve uluslararası düzeyde yapay zeka teknolojilerinin gelişimine yön veren önemli bir adım olarak kabul edilmeli. Geleceği hayal ederken, yapay zekanın insan toplumuna sorunsuz bir şekilde entegre olduğu bir dünya düşünürüz genellikle. Bu dünyada, Yapay zeka, insanların günlük yaşamlarını kolaylaştıran, onlara yaratıcılıklarını ifade etme ve daha zengin bir yaşam sürme fırsatı veren bir araç olarak işlev görür. Yapay zeka, insanların karar verme süreçlerine yardımcı olur, ancak insan özgürlüğü ve yaratıcılığına saygı duyar. Bu senaryoda, yapay zeka ve insanlar arasındaki sınırlar, karşılıklı anlayış ve iş birliği ile belirlenir.
Asimov’un Üç Robot Yasası bu yolculuğun sadece başlangıcıydı. AB Yapay Zeka Yasası ise yapay zekanın gelişimi ve insanlık için çok büyük bir adım. Bu adım hem büyük fırsatlar hem de önemli sorumluluklar getiriyor. Yapay zekanın insan yaşamını zenginleştirmesi ve uyum içinde çalışması için çaba göstermek gerekiyor.
Bu yazı Digital Report Dergisinin 18. sayısında yayınlanmıştır.