Facebook, ırkçı davranan yapay zeka özelliğini askıya aldı ve özür diledi. The New York Times’ın aktardığına göre, “Siyahi erkekleri “primat” olarak etiketleyen yapay zeka” hatası 27 Haziran’da İngiliz Daily Mail gazetesinde bir videoda sorun meydana gelmesiyle başladı.
Facebook özür diledi ve halkın tepkisinin bir sonucu olarak yapay zekanın çalışmasını değerlendirmek için öneriler işlevini devre dışı bıraktı.
Bir kullanıcıya, siyahi biriyle beyaz bir adamın tartışırken görüldüğü bir videoyu primatlarla ilgili bir video olarak önerildi. İngiliz medyasında yer alan haberlere göre, beyaz erkek diğer kişiye tacizde bulundu ve polis çağrılmak zorunda kaldı. Ancak, videonun konusu ne olursa olsun Facebook videodan sonra şu mesajı önerdi: “Primatlar hakkındaki videoları izlemeye devam etmek istiyor musunuz?”
Facebook’a ilk tepki Daily Mail’dan geldi. Daha sonrasında Facebook, The New York Times’a yaptığı açıklmada özür diledi: “Daha önce de söylediğimiz gibi, yapay zekada ilerleme kaydetmiş olsak da, mükemmel değil ve yapılacak daha çok iş var”.
WhatsApp ve Instagram’ın da sahibi olan şirket, yaşananları incelemek ve tekrar olmasını engellemek için çekirdek sosyal ağındaki öneriler işlevini devre dışı bıraktı.
Diğer hatalar
New York Times siber güvenlik yazarı Nicole Perlroth bu olaya yanıt olarak, “Her gün sadece yapay zekaya güvenmenin sınırlarını, önyargılarını ve saf aptallığını görüyoruz. Yine de kendimize kobay olmamıza izin vermeye devam ediyoruz” ifadelerini kullandı.
Son haftalarda, Twitter’da da benzer bir durum söz konusu oldu: Akıllı algoritmaları genç, beyaz insanların fotoğraflarını destekliyor.
Yapay zeka kullanan programlar, işlevleri eğitmek için sıklıkla bir dizi örnek veya parametreye güvendikleri için önyargılıdır. Örneklem sınırlıysa ve bir ırk veya cinsiyetten çok sayıda görüntü içeriyorsa, yapay zekanın bu kriterlere uymayan insanlığın geri kalanını tespit etmesi zor bir işlemdir.