Apple Haberleri

Craig Federighi, Apple Çocuk Güvenliği Özellikleriyle İlgili Karışıklığı Kabul Ediyor ve Koruma Önlemleriyle İlgili Yeni Ayrıntıları Açıklıyor

13 Ağustos 2021 Cuma 07:33 PDT, Hartley Charlton

Apple'ın yazılım mühendisliği kıdemli başkan yardımcısı Craig Federighi bugün şirketin tartışmalı planını savundu. çocuk güvenliği özellikleri ile önemli bir röportajda Wall Street Journal , Çocukların Cinsel İstismarı Malzemesi (CSAM) için kullanıcıların fotoğraf kitaplıklarını taramak için Apple'ın sisteminde yerleşik güvenlik önlemleri hakkında bir dizi yeni ayrıntı ortaya koyuyor.





craig wwdc 2021 gizlilik
Federighi, Apple'ın geçen haftaki sorunları ele aldığını itiraf etti duyuru Çocuklar için Mesajlar'daki müstehcen içeriğin ve içinde depolanan CSAM içeriğinin algılanmasıyla ilgili iki yeni özellikten zayıf iCloud Fotoğrafları kütüphaneler ve araçlar etrafındaki yaygın kafa karışıklığını kabul etti:

Bir şeylerin nasıl anlaşıldığı konusunda birçok mesajın oldukça kötü bir şekilde karıştığı gerçekten açık. Bunun herkes için biraz daha net bir şekilde ortaya çıkmasını diliyoruz çünkü yaptığımız şey hakkında çok olumlu ve güçlü hissediyoruz.



elma müziği mi yoksa spotify mı daha iyi

[...]

Geriye dönüp bakıldığında, bu iki özelliğin aynı anda tanıtılması bu tür bir kafa karışıklığının reçetesiydi. Onları aynı anda serbest bırakarak, insanlar teknik olarak onları birbirine bağladı ve çok korktu: Mesajlarıma ne oluyor? Cevap...mesajlarınızda hiçbir şey olmuyor.

İletişim Güvenliği özelliği, çocukların iMessage aracılığıyla müstehcen görüntüler göndermesi veya alması durumunda, izlemeden önce uyarılacağı, görüntünün bulanıklaştırılacağı ve ebeveynlerinin uyarılması için bir seçenek olacağı anlamına gelir. CSAM taraması ise, kullanıcıların fotoğraflarını iCloud'a yüklenmeden önce bilinen CSAM'in karma görüntüleri ile eşleştirmeye çalışır. CSAM tespit edilen hesaplar daha sonra Apple tarafından manuel olarak incelenecek ve Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi'ne (NCMEC) bildirilebilir.

macbook pro'da en iyi fiyat

Yeni özellikler, kullanıcılardan büyük miktarda eleştiriye maruz kaldı, güvenlik araştırmacıları , NS Electronic Frontier Foundation (EFF) ve Edward Snowden , Facebook'un eski güvenlik şefi , ve hatta Apple çalışanları .

Bu eleştirilerin ortasında Federighi, Apple'ın sisteminin hükümetler veya diğer üçüncü şahıslar tarafından 'birden fazla denetlenebilirlik' ile istismar edilmeye karşı korunacağını vurgulayarak ana endişe alanlarından birine değindi.


Federighi ayrıca, bir kullanıcının CSAM içeriği için yaklaşık 30 eşleşmeyi karşılaması gerekeceği gerçeği gibi sistemin güvenlik önlemleriyle ilgili bir dizi yeni ayrıntıyı da açıkladı. Fotoğraflar kitaplığı Apple uyarılmadan önce, bunun üzerine bu görüntülerin gerçek CSAM örnekleri gibi görünüp görünmediğini onaylayacaktır.

Yalnızca ve ancak, bilinen 30 çocuk pornografik görüntü eşleşmesi düzeyinde bir eşiği karşılarsanız, ancak o zaman Apple hesabınız hakkında herhangi bir şey biliyor ve bu görüntüler hakkında herhangi bir şey biliyor ve o noktada, yalnızca bu görüntüler hakkında biliyor, hakkında değil. diğer resimlerinizden herhangi biri. Bu bazı analizler yapmıyor çünkü sizde çocuğunuzun küvette bir resmi var mıydı? Ya da bu konuda, elinizde başka türden bir pornografi resmi var mıydı? Bu, kelimenin tam anlamıyla yalnızca bilinen belirli çocuk pornografik görüntülerinin tam parmak izleriyle eşleşir.

Ayrıca, eşleştirme işlemini bilgisayar üzerine yerleştirmenin güvenlik avantajına da dikkat çekti. iPhone ‌iCloud‌'nin sunucularında meydana gelmek yerine doğrudan.

[Telefonda] olduğu için güvenlik araştırmacıları, Apple'ın [telefon] yazılımında neler olup bittiğini sürekli olarak inceleyebilir. Dolayısıyla, bunun kapsamını bir şekilde genişletecek herhangi bir değişiklik yapıldıysa - bizim yapmamayı taahhüt ettiğimiz bir şekilde - doğrulanabilirlik var, bunun olduğunu fark edebilirler.

Federighi, kullanıcıların cihazlarındaki CSAM içeriğini eşleştirmek için kullanılan görüntülerin veritabanının, belirli bölgelerdeki siyasi içerik gibi başka materyallerin eklenmesiyle tehlikeye girip giremeyeceği sorulduğunda, Federighi, veritabanının birden fazla çocuk güvenliği kuruluşuna ait bilinen CSAM görüntülerinden oluşturulduğunu açıkladı, Sistemin kötüye kullanılmasına karşı koruma sağlamak için en az ikisi 'farklı yargı alanlarında' olmak.

apple airpod'ları android telefonla kullanabilir misin

Federighi'ye göre, bu çocuk koruma kuruluşları ve bağımsız bir denetçi, görüntü veritabanının yalnızca bu kuruluşlardan gelen içerikten oluştuğunu doğrulayabilecek.

Federighi'nin röportajı, çocuk güvenliği özelliklerinin açıklanmasına verilen karışık kamuoyu tepkisinin ardından Apple'ın şimdiye kadarki en büyük halkla ilişkiler tepkilerinden biri. kullanıcıların endişelerini gidermek , SSS yayınlamak ve endişeleri doğrudan ele almak medya ile röportajlar .

Etiketler: The Wall Street Journal , Craig Federighi , Apple çocuk güvenliği özellikleri