elma bugün açıklandı lansmanı ile bu iOS 15 ve iPad 15 , taramaya başlayacak iCloud Fotoğrafları ABD'de bilinen Çocuk Cinsel İstismar Materyallerini (CSAM) aramak ve bulguları Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi'ne (NCMEC) bildirmeyi planlıyor.
Apple planlarını detaylandırmadan önce, CSAM girişiminin haberleri sızdırıldı ve güvenlik araştırmacıları, Apple'ın yeni görüntü tarama protokolünün gelecekte nasıl kullanılabileceğine dair endişelerini dile getirmeye başladılar. Finansal Zamanlar .
Apple, bilinen CSAM görüntülerini bir kullanıcının fotoğraflarıyla karşılaştırmak için bir 'NeuralHash' sistemi kullanıyor. iPhone iCloud'a yüklenmeden önce. Bir eşleşme varsa, o fotoğraf bir kriptografik güvenlik fişi ile yüklenir ve belirli bir eşikte, kişinin cihazlarında CSAM olup olmadığını kontrol etmek için bir inceleme tetiklenir.
macbook pro nasıl başlatılır
Şu anda, Apple çocuk istismarını aramak için görüntü tarama ve eşleştirme teknolojisini kullanıyor, ancak araştırmacılar gelecekte, hükümet karşıtı işaretler gibi daha ilgili diğer görüntü türlerini taramak için uyarlanabileceğinden endişe ediyor. protestolar
Bir dizi tweette, Johns Hopkins kriptografi araştırmacısı Matta Yeşil CSAM taramasının 'gerçekten kötü bir fikir' olduğunu çünkü gelecekte iCloud'a yüklenen içerik yerine uçtan uca şifrelenmiş fotoğrafları taramaya genişleyebileceğini söyledi. Çocuklar için elma NS uçtan uca şifrelenmiş iMessage'larda doğrudan müstehcen içeriği arayan ayrı bir tarama özelliği uygulamak.
Green ayrıca, birisinin CSAM ile bir hash paylaşan ve yanlış bir bayrakla sonuçlanabilecek zararsız bir dosya gönderdiği potansiyel 'çarpışmalar' olabileceğinden, Apple'ın kullanmayı planladığı hash'lerle ilgili endişelerini dile getirdi.
Apple, kendi adına, hesapların yanlış bir şekilde işaretlenmediğinden emin olmak için tarama teknolojisinin 'son derece yüksek bir doğruluk düzeyine' sahip olduğunu ve raporların bir kişinin iCloud hesap devre dışı bırakılır ve NCMEC'e bir rapor gönderilir.
Green, Apple'ın uygulamasının diğer teknoloji şirketlerini benzer teknikleri benimsemeye zorlayacağına inanıyor. 'Bu barajı kıracak' diye yazdı. 'Hükümetler bunu herkesten talep edecek.' Teknolojiyi 'baskıcı rejimlerin kullandığı araçlarla' karşılaştırdı.
Bunlar kötü şeyler. Özellikle çocuk pornosunun tarafında olmak istemiyorum ve terörist değilim. Ancak sorun şu ki, şifreleme gizlilik sağlayan güçlü bir araçtır ve birinin gönderdiği her görüntüyü incelerken gerçekten güçlü bir gizliliğe sahip olamazsınız. — Matthew Green (@matthew_d_green) 5 Ağustos 2021
Daha önce Facebook'ta çalışan güvenlik araştırmacısı Alec Muffett, Apple'ın bu tür görüntü taramayı uygulama kararının 'bireysel gizlilik için büyük ve geriletici bir adım' olduğunu söyledi. 'Apple, 1984'ü etkinleştirmek için mahremiyete geri dönüyor' dedi.
Cambridge Üniversitesi'nde güvenlik mühendisliği profesörü olan Ross Anderson, bunu cihazların 'dağıtılmış toplu gözetlemeye' yol açabilecek 'kesinlikle korkunç bir fikir' olarak nitelendirdiğini söyledi.
Birçoğunun Twitter'da belirttiği gibi, birçok teknoloji şirketi halihazırda CSAM için görüntü taraması yapıyor. Google, Twitter, Microsoft, Facebook ve diğerleri, bilinen çocuk istismarı resimlerini aramak ve bildirmek için resim karma yöntemlerini kullanır.
Google'ın çocuk istismarı görüntüleri için görüntüleri taradığını merak ediyorsanız, sekiz yıl önce yazdığım hikayede bunu yanıtladım: **2008'DEN BERİ** bunu yapıyor. Belki hepiniz oturun ve şapkalarınızı takın. pic.twitter.com/ruJ4Z8SceY - Charles Arthur (@charlesarthur) 5 Ağustos 2021
Ayrıca şunu da belirtmekte fayda var ki Apple çoktan bazı içeriği taramak Yeni CSAM girişiminin kullanıma sunulmasından önceki çocuk istismarı görüntüleri için. 2020'de Apple gizlilik şefi Jane Horvath, Apple'ın yasadışı görüntüleri aramak için tarama teknolojisi kullandığını ve ardından CSAM kanıtı tespit edilirse hesapları devre dışı bıraktığını söyledi.
çalma listesi spotify'dan apple müziğe nasıl taşınır
2019 yılında elma gizlilik politikalarını güncelledi yüklenen içeriği 'çocukların cinsel istismarına yönelik materyaller de dahil olmak üzere potansiyel olarak yasa dışı içerik' için tarayacağını belirtmek isteriz, bu nedenle bugünün duyuruları tamamen yeni değildir.
Not: Bu konuyla ilgili tartışmanın siyasi veya sosyal doğası gereği, tartışma başlığı sayfamızda yer almaktadır. Siyasi haberler forum. Tüm forum üyeleri ve site ziyaretçileri konuyu okuyabilir ve takip edebilir, ancak gönderiler en az 100 gönderiye sahip forum üyeleriyle sınırlıdır.
Etiketler: Apple gizliliği , Apple çocuk güvenliği özellikleri
Popüler Mesajlar