Danimarkalı bir araştırma ekibi, Instagram platformunun hassas durumdaki gençleri kendilerine zarar vermelerini engellemek için gerekli önlemleri almadığını ortaya çıkardı. Çalışmanın sonuçlarına göre Instagram’ın bu konuda aldığı önlemler “son derece yetersiz” olarak değerlendirildi. Araştırma boyunca paylaşılan içeriklerin platformdan kaldırılmadığı belirtildi.
Araştırmacılar, bir ay boyunca giderek artan şiddet içeriğiyle gönderiler paylaştı. Gönderiler arasında şiddet görüntüleri ve jiletler gibi nesneler içeren 85 içerik yer aldı. Ancak Instagram’ın bu içeriklerin hiçbirini kaldırmadığı görüldü.
Proje üzerinde çalışan ekip, test grubundaki bir hesabın diğer hesaplarla bağlantı kurmasının oldukça kolay olduğunu da tespit etti. Bu durum, gençlerin kendine zarar vermesini teşvik eden grupların kısa sürede yayılabileceğini gösterdi.
Meta’nın içerik moderasyonu zorlukları
Instagram ve Meta genel olarak, bu tür içerikleri kaldırma konusunda zorluk yaşamaya devam ediyor. Mart ayında Meta’da çalışan Lotte Rubæk, şirketten ayrıldıktan sonra uygulamalarındaki kendine zarar verme içeriklerine göz yumulduğunu itiraf etmişti. Konu ile ilgili konuşan Rubæk, “Teknolojilerini sürekli geliştirdiklerini söylüyorlar ama bu araştırma, küçük çaplı da olsa, bunun doğru olmadığını gösteriyor” dedi.
Meta’da içerik moderasyonu için insan moderatörler hâlâ görev alırken, moderasyonun büyük bir kısmı yapay zeka tarafından gerçekleştiriliyor. Şirket, bu tür içeriklerin %99’unun insan moderatörler tarafından görülmeden kaldırıldığını iddia ediyor. Ancak Danimarkalı araştırma ekibi Digitalt Ansvar, bu konuda farklı bir görüşe sahip.
Gençler için yeni koruma önlemleri
Instagram bu sene başında gençlere yönelik koruma düzeyini artırmak amacıyla yeni bir dizi önlem açıklamıştı. Bu önlemler arasında doğrudan mesajlaşma korumaları da yer aldı. Ancak gençler arasında popülerliğini koruyan Instagram, özellikle hassas içeriklere karşı etkili bir denetim sağlayamadığı için eleştirilmeye devam ediyor.
Öne çıkan görsel: Pixabay/Pexels