Apple, Eleştiri Toplayan CSAM Tespitinin Nasıl Çalışacağını Açıkladı
Apple, eleştiri toplayan ve çocuk istismarına karşı kullanacağını söylediği yeni CSAM tespit sisteminin nasıl çalışacağı hakkında yeni açıklamalar yaptı.
Apple, geçtiğimiz günlerde kullanıcıların iCloud fotoğraflarında
çocuklara yönelik cinsel istismarla ilgili görselleri tarayabilen
yeni bir çocuk güvenliği özelliğini kullanıma sundu. Ancak,
genellikle olduğu gibi, bu kararı mahremiyet savunucularından gelen
ciddi eleştiriler izledi.
Eleştiriyi ele alan Reuters, teknoloji devinin bunu nasıl yapacağını açıkladı. Buna göre, "birden fazla ülkedeki ticaret odaları tarafından işaretlenen" görüntüler taranacak ve zararlı içerik bu şekilde belirlenecek. Otomatik tarama sistemi, bir insan incelemecinin sorunu yönetebilmesi için yalnızca 30 resimlik bir başlangıç eşiğini geçtiğinde Apple'ı uyaracak.
Firma, gelecekte bu sayının mutlaka azaltılacağını söyledi. Ayrıca, görüntü tanımlayıcı listesinin evrensel olduğunu ve uygulanacağı her cihaz için aynı olacağını da açıkça belirtti.
Teknoloji devi, ilk duyurularla ilgili "karışıklık" olduğunu ve
ayrıca programın "hala geliştirme aşamasında" olduğunu da sözlerine
ekledi.