Bilgiye dayalı kararlar alarak insan hatasını asgarîye indiren algoritmalar ve yapay zeka, kimi zaman cinsiyetçi ya da ırkçı sonuçlara da imza atıyor. Ancak görünen o ki, burada suç makinelerin değil, eksik takım arkadaşlarının…
Algoritmalar otomobil sürüyor, suçluları tespit ediyor, banka hesaplarını kontrol ediyor ve arada sırada da sakarlık yapıyorlar. Bu hikayelerin sayısı artarken, bazıları gerçekten acı verici.
Algoritmayı suçlamak herkesin kolayına geliyor
Amazon’un işe alımda kullandığı yapay zekanın özellikle erkek adayları tavsiye etmesi, Google görüntü tanımanın siyahî kişileri gorillerle karıştırması ve Asyalı kişilere gözlerini açmalarını önermesi bunlardan sadece ikisi. YouTube ise ABD’ye düzenlenen 9 Eylül saldırılarını Notre Dame Kilisesi’nin yangınıyla kategorize etmesi ise sadece kötü bir algoritmayla açıklanabilir mi?
Algoritmalara yönelik eleştirilere son ek ise arama motorlarının otomatik tamamlama özelliğinde geldi. Microsoft’un arama motoru İngilizce kadınların yapabilecekleri yazıldığında bunu “otomobil süremez” ile tamamlaması örneği çarpıcı nitelikteki sayısız benzerinden birisi.
Bu konuda hatayı algoritmalara yüklemek, kolaya kaçmak anlamına geliyor.
Ayrımcılığın merkezinin her zaman insan olduğunu unutmamalı, teknolojiyi suçlamaktan vazgeçmeliyiz. Bu yaklaşımın sebebini anlamak için, öncelikle algoritmaların nasıl işlediğini bilmemizde fayda var. Algoritma, basit bir anlatımla, belirli bir problemi çözmek için oluşturulan yönergeler dizisidir. Bir reçete olarak da görebileceğimiz algoritmalar, belirli bir işlemin nasıl yapılacağını tanımlarlar. Bugün her köşeden fışkıran yapay zeka ise algoritma tabanlıdır ve akıllı davranışı simüle eder.
Ayrımcılığı insanlardan (ve verilerden) öğreniyorlar
Makineler, artık bilgiye dayalı kararlar almakla görevlendiriliyor. Bunun için de makineye bilgi yüklemesi yapılıyor. Teknoloji bu bilgiler içindeki korelasyonları görerek, bu bilgiye dayanan tavsiyeler oluşturuyor. İşte bu akış, bize yanlı sonuçların nerede olduğunu gösteriyor. Örneğin işe alınacak uygun bir çalışanı belirlemek için geçmişteki işe almalara bakarsak, daha çok erkeğin işe alındığını görebiliriz. Algoritmanın da bundan etkilenmemesi, ancak bu konuda eşitlik sağlayacak bir yönergenin eklenmesiyle mümkün olabilir. Sistemi ne ile beslediğiniz, bu noktada büyük önem kazanıyor.
Irkçı davranan yüz tanıma sistemi için de problemin algoritmada olmadığını rahatlıkla düşünebiliriz. Burada sorgulanması gereken, görsellerin seçiminden çok, makinenin hangi görsellerle beslendiği. Yapay zekanın problem çözmede insanlarla benzer ya da daha iyi olması iddiası, birçok durumda onu temize çıkarmaya yetmiyor. Sosyologlar arasındaki yaygın bir görüş ise teknolojinin toplumu kopyaladığı yönünde. Böylece ayrımcılığın ne kadar akut bir problem olduğunu da görmüş oluyoruz.
Bunun Google gibi arama motoru hizmeti sunan şirketler için olabildiğince ayrımcı olmayan içerikler göstermeleri adına bir eğitim olduğunu söylemek mümkün.
Google adım atacak
Benzerliğe göre filtrelenen arama sonuçları, insanların daha çok tıkladıklarını daha üstte gösteriyor. Google’ın bu sonuçlardan öğrendiklerini uygulaması ise enteresan örneklerle sabit: Irkçı ve stereotipleştirici yaklaşımda “Siyahî kadınlar neden böyle” otomatik tamamlaması kadar, herhangi bir ülkedeki kadın politikacılarla ilgili uygunsuz tamamlamalar genellikle şikayet üzerine kaldırıyor. Ancak Google, bu durumu düzelteceğine dair geçen yılın Haziran ayında yaptığı açıklamayla umut verdi ve yazılımın “adil olmayan önyargılar”a kapılmaması, ten rengi, cinsiyet, cinsel yönelim ya da gelire göre ayrım yapmaması için dikkatle izleneceğini belirtti.
Uzun vadede sivil yöntemlerle de çözülebilir
Bu işi şirketlere bırakmadan temizlemek isteyenler de var. Örneğin İsveçli tasarımcı Johanna Burai, ellerle ilgili arama sonuçlarında beyazların ellerinin gözükmesine kafayı takınca, web’deki beyaz normunu kırmak için 2015’te “World White Web” adlı bir proje başlatmış.
Açtığı web sitesine farklı ten renginde yüzlerce el fotoğrafı yükleyen ve bunları paylaşıma açan tasarımcı, böylece uzun vadede arama sonuçlarına denge getirmek istiyor.
Gelecekte nasıl adil olabilir?
İyi ama yapay zeka teknolojilerinin gelecekte adil kararlar alacağından nadsıl emin olabiliriz? Öncelikle şunu anlamak gerek: Bu bir yeterlilik problemi ve teknolojinin nasıl çalıştığını anlamak, ayrımcılığı önleyebilmek için önem taşıyor. Daha önce sistemlere yüklenen bazı veri dizilerinde cinsiyet ve ten rengi konusunda yeterli örnek olmadığı görülmüştü.
Algoritmalar da geçmiş verilerde temsili değişkenlerden aynı ayrımcı sonuçları çıkarıyorlardı. Bu sorunları aşmak için çeşitlendirilmiş veri dizileri, özenle hazırlanmış bir eğitim konsepti ve algoritmayı sürekli kontrol etmek gerekiyor.
Yapay zekanın ardında sadece bir geliştirici ve veri bilimci bulunurken, sosyolog, antropolog, etnolog, siyaset bilimcilerden oluşan bir kontrol ekibi oluşturmak da bu tip sonuçlarla karşılaşmamak için elzem gözüküyor. Zira bu bir teknoloji problemi değil, sosyo teknik bir problem.
Bu yazı, Digital Report dergisinin 2. sayısında yayımlanmıştır.