Mobil

Apple şirketinin bu kararı çok konuşulacak

Apple şirketinin bu kararı çok konuşulacak

 

Apple şirketi, çocuk istismarını engelleyebilme amacıyla çok daha yeni bir adım atma kararı aldı. CSAM adına sahip bir sistem geliştirmiş olan firma, iCloud platformuna yüklenmiş olan fotoğrafları özel bir veri tabanıyla karşılaştırmış olacak. Eğer telefonda yer alan görüntülerle çocuk istismarının görüntülerinden meydana gelen veri tabanı üzerinde bir benzerlik tespit edilecek olursa, bu olay adli makamlara bildirilmiş olacak.

Amerika Birleşik Devletleri’nde merkezi bulunan teknoloji devlerinden Apple şirketi, dünya üzerindeki en büyük tehlikelerden biri olarak öne çıkan çocuk istismarına karşı çok daha yeni ve fazlasıyla önemli bir karar almış olduğu konusunda açıklamalarda bulundu. Firma aracılığıyla yapılmış olan özel açıklamalara bakılırsa iPhone cihazları bundan böyle, çocuk istismar görüntüsünü içerip içermemekte olduğunun tespit edilmesi adına otomatik bir şekilde taranmış olacak. Fakat söz konusu bu sistem, iCloud’a otomatik bir şekilde yüklenmiş olan fotoğraflar için geçerli durumda bulunacak.

Apple şirketinin uygulamaya koymuş olduğu bu yeni sistem, bir iPhone üzerinde çocuk istismarına yönelik olarak bir görüntü yakalayacak olursa, direkt olarak kolluk kuvvetlerine bildirim yapılmış olacak. Apple şirketi bunun sayesinde, çocuk istismarının kısmi bir şekilde de olsa önüne geçebilmiş olacak. Fakat Apple şirketinin ‘CSAM’ adına sahip olan güvenlik sistemi, daha şu zamanlarda bile bazı kesimler aracılığıyla eleştirilmeye başlanmış durumda.

Etiketler

teknologram

Teknologram.com sitesi içeriği tamamen bilgi amaçlı olup Teknoloji hakkında güncel hayata dair merak edilen tüm konuları ele alan ve en doğru bilgileri en güncel haliyle okuyucularına ulaştırmayı amaçlayan teknoloji sitesi.

İlgili Makaleler

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Close
Close