Apple, eleştirmenlerin tepkisini takiben “iyileştirmeler yapmak için” Çocukların Cinsel İstismarı Malzemesi (CSAM) tespit araçlarının kullanıma sunulmasını geciktirdiğini söylüyor. Özellikler arasında, gizlilik savunucuları arasında endişeye neden olan bilinen CSAM için iCloud Fotoğrafları’nı analiz eden bir özellik yer alıyor.
“Geçen ay, çocukları işe almak ve sömürmek için iletişim araçlarını kullanan yırtıcılardan korumaya yardımcı olmayı amaçlayan özelliklere yönelik planlarımızı duyurduk. Apple 9to5Mac’e yaptığı açıklamada, “Müşterilerden, savunuculuk gruplarından, araştırmacılardan ve diğerlerinden gelen geri bildirimlere dayanarak, önümüzdeki aylarda girdi toplamak ve yapmak için ek zaman ayırmaya karar verdik” dedi. bu kritik öneme sahip çocuk güvenliği özelliklerini yayınlamadan önce iyileştirmeler.”
Apple, CSAM algılama sistemlerini, yani iOS 15, iPadOS 15 ve macOS Monterey’i yaklaşan işletim sistemi güncellemelerinin bir parçası olarak kullanıma sunmayı planlıyordu. Şirketin önümüzdeki haftalarda bunları piyasaya sürmesi bekleniyor. Apple, yapabileceği iyileştirmeler hakkında ayrıntıya girmedi. Engadget, yorum için şirketle iletişime geçti.
Geliştiriliyor…