Apple, iCloud’da çocuk istismarı materyallerini (CSAM) taramak için geliştirdiği sistemden vazgeçmesi nedeniyle büyük bir dava ile karşı karşıya. Bu dava, bir kadının, çocukken yaşadığı istismar nedeniyle Apple’ı hedef alarak açtığı dava ile gündeme geldi. Kadın, kendisi ile ilgili paylaşılan rahatsız edici görüntülerin hala dolaşımda olduğunu öne sürüyor. Davada Apple’ın 2021’de duyurduğu güvenlik önlemlerini hayata geçirmediğini iddia edilerek tazminat talep ediliyor.
Davanın detaylarına göre Apple, 2021 yılında iCloud fotoğraflarındaki çocuk istismarı materyallerini taramak için bir sistem geliştireceğini açıklamıştı. Bu sistemin, kaybolmuş ve istismara uğramış çocuklara yönelik ulusal merkez gibi kuruluşlardan elde edilen dijital imzaları kullanarak tanınmış CSAM içeriğini tespit edeceği kaydedilmişti. Ancak, gizlilik konusunda gelen itirazlar nedeniyle Apple, bu planlardan vazgeçti.
Davaya bakan Avukat James Marsh, bu davadan dolayı yüksek ihtimalle 2,680 mağdurun tazminat alma potansiyeli olduğunu belirtti.
Apple’ın, davanın detaylarına ilişkin yaptığı açıklamada ise, “Çocuk istismarı materyalleri korkunç bir olgu ve çocukları tehlikeye atanlarla mücadele etmeye kararlıyız. Tüm kullanıcılarımızın güvenliğini ve gizliliğini tehlikeye atmadan bu suçlarla mücadele etme konusunda acil ve aktif olarak yenilikler yapıyoruz,” ifadeleri kullanıldı. Şirket, gelecek planları arasında çocukların istismara uğramasını önlemeyi hedefleyen önlemler geliştirdiklerini bildirdi.
Şu an için Apple, konuya karşı çeşitli önlemler aldığını ifade etse devtepkilerin ve davaların artması karşısında bu sürecin nasıl ilerleyeceği merak konusu.