Apple, CSAM Tarayıcı Sistemi Nedeniyle Dava Ediliyor
Apple, iCloud fotoğraflarını çocuk istismarı içeriği (CSAM) için tarayacak bir sistemi uygulamama kararı nedeniyle dava ediliyor. Dava, Apple’ın mağdurların travmalarını yeniden yaşamalarına neden olacak şekilde bu tür materyalin yayılmasını önlemek için yeterince çaba göstermemesi iddiasında bulunuyor.
Hükümet Gözetimi Eleştirisi
Apple, 2021 yılında CSAM içeriğini tespit edecek bir sistem duyurmuş ancak güvenlik ve gizlilik savunucularının hükümet gözetimi endişeleriyle karşılaşmış ve bu planları askıya almıştı.
Binlerce Mağdur ve Dava
Dava, bebekken akrabası tarafından istismara uğrayan ve görüntüleri çevrimiçi paylaşılan 27 yaşındaki bir kadın tarafından açıldı. Kadın, hala bu görüntülere maruz kaldığını belirterek, kolluk kuvvetlerinden sürekli suçlayıcı bildirimler aldığını ifade etti. Dava avukatı James Marsh, bu kadının yanı sıra tazminat talep edebilecek 2.680 potansiyel mağdur daha olduğunu belirtti.
Apple, konuyla ilgili yaptığı açıklamada, suçlarla mücadelede güvenlik ve gizliliği gözeten yenilikler yapmaya devam ettiklerini belirtti. Bu doğrultuda, 9 yaşındaki bir kız çocuğu ve vasisinin iCloud’daki CSAM içeriğiyle ilgili dava açmasıyla gündeme gelmişti.