Apple Haberleri

Apple, Bilinen Cinsel İstismar Malzemesi İçin Kullanıcıların Fotoğraf Kitaplıklarını Tarama Dahil Yeni Çocuk Güvenliği Özelliklerini Tanıtıyor

5 Ağustos 2021 Perşembe 13:00 PDT, Joe Rossignol

bugün elma önizlenen yeni çocuk güvenliği özellikleri bu yıl içinde yazılım güncellemeleriyle platformlarına gelecek. Şirket, özelliklerin yalnızca ABD'de kullanıma sunulacağını ve zaman içinde diğer bölgelere genişletileceğini söyledi.





iphone iletişim güvenliği özelliği

İletişim Güvenliği

İlk olarak, iPhone, iPad ve Mac'teki Mesajlar uygulaması, cinsel içerikli fotoğraflar alırken veya gönderirken çocukları ve ebeveynlerini uyarmak için yeni bir İletişim Güvenliği özelliğine sahip olacak. Apple, Mesajlar uygulamasının resim eklerini analiz etmek için cihazdaki makine öğrenimini kullanacağını ve bir fotoğrafın müstehcen olduğu belirlenirse fotoğrafın otomatik olarak bulanıklaştırılacağını ve çocuğun uyarılacağını söyledi.



apple kredi kartından nasıl para çekilir

Bir çocuk, Mesajlar uygulamasında hassas olarak işaretlenmiş bir fotoğrafı görüntülemeye çalıştığında, fotoğrafın özel vücut parçaları içerebileceği ve fotoğrafın canını yakabileceği konusunda uyarılır. Çocuğun yaşına bağlı olarak, ebeveynleri, çocukları hassas fotoğrafı görüntülemeye devam ederse veya uyarıldıktan sonra başka bir kişiye cinsel içerikli bir fotoğraf göndermeyi seçerse, bildirim alma seçeneği de olacaktır.

Apple, yeni İletişim Güvenliği özelliğinin bu yıl iCloud'da aile olarak kurulan hesaplar için iOS 15, iPadOS 15 ve macOS Monterey güncellemelerinde geleceğini söyledi. Apple, iMessage konuşmalarının uçtan uca şifrelemeyle korunmasını sağlayarak özel iletişimleri Apple tarafından okunamaz hale getirdi.

Çocukların Cinsel İstismarı Malzemesi (CSAM) için Fotoğrafların Taranması

İkincisi, iOS 15 ve iPadOS 15 ile bu yıldan itibaren Apple, iCloud Fotoğrafları'nda saklanan bilinen Çocuk Cinsel İstismar Materyalleri (CSAM) görüntülerini tespit edebilecek ve Apple'ın bu durumları Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi'ne (NCMEC) bildirmesine olanak tanıyacak. , ABD kolluk kuvvetleriyle işbirliği içinde çalışan kar amacı gütmeyen bir kuruluş.

Apple, bilinen CSAM'i algılama yönteminin kullanıcı gizliliği göz önünde bulundurularak tasarlandığını söyledi. Apple, buluttaki görüntüleri taramak yerine, sistemin NCMEC ve diğer çocuk güvenliği kuruluşları tarafından sağlanan bilinen CSAM görüntü karmalarından oluşan bir veritabanıyla cihaz üzerinde eşleştirme yapacağını söyledi. Apple, bu veritabanını, kullanıcıların cihazlarında güvenli bir şekilde saklanan okunamaz bir karma kümesine dönüştüreceğini söyledi.

Apple'a göre NeuralHash adı verilen hash teknolojisi, bir görüntüyü analiz ediyor ve o görüntüye özgü benzersiz bir sayıya dönüştürüyor.

Apple, yeni bir 'Çocuklar için Genişletilmiş Korumalar' teknik incelemesinde, 'Karmanın ana amacı, aynı ve görsel olarak benzer görüntülerin aynı karma ile sonuçlanmasını sağlamak, birbirinden farklı olan görüntülerin farklı karmalara neden olmasını sağlamaktır' dedi. 'Örneğin, hafifçe kırpılmış, yeniden boyutlandırılmış veya renkliden siyah beyaza dönüştürülmüş bir görüntü, orijinaliyle aynı işlem görür ve aynı karmaya sahiptir.'

elma csam akış şeması
Bir görüntü iCloud Fotoğrafları'nda saklanmadan önce Apple, bu görüntü için okunamayan bilinen CSAM karmaları kümesine karşı bir cihaz eşleştirme işleminin gerçekleştirildiğini söyledi. Bir eşleşme varsa, cihaz bir kriptografik güvenlik fişi oluşturur. Bu kupon, görüntüyle birlikte iCloud Fotoğrafları'na yüklenir ve açıklanmayan bir eşleşme eşiği aşıldığında, Apple, CSAM eşleşmeleri için kuponların içeriğini yorumlayabilir. Ardından Apple, eşleşme olduğunu doğrulamak için her raporu manuel olarak inceler, kullanıcının iCloud hesabını devre dışı bırakır ve NCMEC'e bir rapor gönderir. Apple tam eşiğinin ne olduğunu paylaşmıyor, ancak hesapların yanlış bir şekilde işaretlenmemesi için 'son derece yüksek bir doğruluk düzeyi' sağlıyor.

Apple, bilinen CSAM'i tespit etme yönteminin mevcut tekniklere göre 'önemli gizlilik faydaları' sağladığını söyledi:

• Bu sistem, kullanıcı gizliliğini korurken iCloud Fotoğrafları hesaplarında saklanan bilinen CSAM'leri tanımlamanın etkili bir yoludur.
• Sürecin bir parçası olarak, kullanıcılar eşleştirme için kullanılan bilinen CSAM görüntüleri kümesi hakkında da hiçbir şey öğrenemezler. Bu, veritabanının içeriğini kötü amaçlı kullanımdan korur.
• Sistem, yılda bir trilyon hesapta birden çok düşük hata oranıyla son derece hassastır.
• Sistem, yalnızca iCloud Fotoğrafları'nda saklanan bilinen bir CSAM koleksiyonuna sahip kullanıcıları bildirdiği için, bulut tabanlı taramaya göre önemli ölçüde daha fazla gizliliği korur.

Apple'ın sisteminin altında yatan teknoloji oldukça karmaşıktır ve bir teknik özet daha fazla ayrıntı ile.

'Apple'ın çocuklar için genişletilmiş koruması oyunun kurallarını değiştiriyor. Ulusal Kayıplar Merkezi Başkanı ve CEO'su John Clark, Apple ürünlerini kullanan bu kadar çok insanla, bu yeni güvenlik önlemlerinin çevrimiçi ortamda baştan çıkarılan ve korkunç görüntüleri çocuklara yönelik cinsel istismar materyallerinde dolaşan çocuklar için hayat kurtarıcı bir potansiyeli olduğunu söyledi. & Sömürülen Çocuklar. Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezinde, bu suçla ancak çocukları korumaya kararlı olursak mücadele edilebileceğini biliyoruz. Bunu ancak Apple gibi teknoloji ortakları adım atıp özverilerini bildirdikleri için yapabiliriz. Gerçek şu ki, mahremiyet ve çocuk koruma bir arada var olabilir. Apple'ı alkışlıyor ve bu dünyayı çocuklar için daha güvenli bir yer haline getirmek için birlikte çalışmayı dört gözle bekliyoruz.'

Siri ve Arama'da Genişletilmiş CSAM Kılavuzu

iphone csam siri
Üçüncüsü, Apple, çocukların ve ebeveynlerin çevrimiçi ortamda güvende kalmasına ve güvenli olmayan durumlarla ilgili yardım almasına yardımcı olmak için ek kaynaklar sağlayarak Siri ve Spotlight Search'teki rehberliği cihazlar arasında genişleteceğini söyledi. Örneğin, Siri'ye CSAM'i veya çocuk istismarını nasıl bildirebileceklerini soran kullanıcılar, nerede ve nasıl rapor verecekleri konusunda kaynaklara yönlendirilecektir.

Apple'a göre, Siri ve Arama güncellemeleri bu yıl iOS 15, iPadOS 15, watchOS 8 ve macOS Monterey'e yapılacak bir güncellemeyle gelecek.

Not: Bu konuyla ilgili tartışmanın siyasi veya sosyal doğası gereği, tartışma başlığı sayfamızda yer almaktadır. Siyasi haberler forum. Tüm forum üyeleri ve site ziyaretçileri konuyu okuyabilir ve takip edebilir, ancak gönderiler en az 100 gönderiye sahip forum üyeleriyle sınırlıdır.

Etiketler: Apple gizliliği , Apple çocuk güvenliği özellikleri