Şirket, tartışmalı sistemin yeni yüklemelerle sınırlı kalmamasına rağmen, Apple, olası çocuk istismarı görüntüleri için iCloud Fotoğrafları kitaplıklarını yalnızca 2021’de taramaya başlayabilir. Geçen hafta duyurulan yeni özellik, bazı gizlilik savunucularını endişelendiren bir hareketle olası çocuk cinsel istismarı materyallerini (CSAM) otomatik olarak işaretlemek için AI’ya güvenecek.
Tartışmanın bir kısmı, Apple’ın aynı anda iki çocuk koruma odaklı lansmanı duyurma kararıyla geldi. Apple, iCloud Fotoğrafları tarama sistemine ek olarak, ebeveynlere, çocuklarının mesaj konuşmalarında potansiyel olarak rahatsız edici görüntüleri otomatik olarak bulanıklaştırma olanağı da sunacak.
ICloud Fotoğrafları CSAM taraması için Apple, bir kullanıcının bulut galeri hizmetine yüklemeyi seçtiği görüntülerle karşılaştırmak için okunamayan karmaları (bilinen CSAM görüntülerini temsil eden sayı dizileri) kullanır.
Apple, sistemle ilgili yeni bir SSS’de şu açıklamayı yaptı:
“Aldığımız yeni kararı, çocuk güvenliği kuruluşları tarafından alınan ve CSAM olduğu doğrulanan görüntülere dayanmaktadır. Apple, kriptografinin yeni uygulamalarını kullanarak CSAM görüntüleriyle eşleşen fotoğraf koleksiyonlarını depolayan iCloud Fotoğrafları hesapları hakkında bilgi edinmek için kullanabilir ve daha sonra yalnızca CSAM olarak bilinen fotoğraflar hakkında bilgi edinebilir.”
Apple yeni özelliği ne zaman uygulamaya sokacak?
Apple’a göre sistem, iOS 15, iPadOS 15, watchOS 8 ve macOS Monterey’in piyasaya sürüldüğü bu yılın sonlarına kadar faaliyete geçmeyecek. Ancak bu, şimdi ve o zaman arasında iCloud Photos’a yüklenen veya aslında yeni sistemin duyurusundan önce hizmete yüklenen görüntülerin taranmayacağı anlamına gelmiyor gibi görünüyor.
Bir Apple temsilcisi bugün CNBC’ye verdiği demeçte, iCloud Photos’a önceden yüklenmiş olan görüntülerin de işleneceğini söyledi. Ancak bu yine de yerel, iPhone üzerinde taramaya bağlı olacaktır. İCloud Photos’a yüklenmek üzere işaretlenmeyen fotoğraf kitaplıkları, yeni araç tarafından CSAM içeriği açısından incelenmeyecek ve şirket, “iCloud Photos’u devre dışı bırakan kullanıcılar için sistemin çalışmadığını” ekliyor.
Yeni sistem, CSAM içeriğini otomatik olarak tespit edecek şekilde tasarlanmış olsa da doğrudan kolluk kuvvetlerine rapor veremez. Şirket, “Apple, öğrendiği her durumu uygun yetkililere bildirmekle yükümlü” olsa da işaretlenen herhangi bir olay önce bir insan moderatör tarafından kontrol edilecektir. Ancak bu inceleme süreci onayladıktan sonra bir rapor hazırlanacaktır.