Apple Haberleri

Apple Çalışanları Şirket İçinde CSAM Tespit Planlarına İlişkin Endişeleri Artırıyor

13 Ağustos 2021 Cuma 12:43 PDT, Sami Fathi

Apple çalışanları şimdi Apple'ın tarama planları konusunda endişelerini dile getiren kişilerden oluşan koroya katılıyor. iPhone Bir rapora göre, CSAM veya çocuk cinsel istismarı materyali için kullanıcıların fotoğraf kitaplıklarının, teknolojinin kullanıcıların fotoğraflarını diğer içerik türleri için taramak için nasıl kullanılabileceği hakkında dahili olarak konuştuğu bildiriliyor. Reuters .





apple park drone haziran 2018 2
Buna göre Reuters , belirsiz sayıda Apple çalışanı, CSAM algılamasıyla ilgili endişeleri dile getirmek için dahili Slack kanallarına başvurdu. Özellikle çalışanlar, hükümetlerin Apple'ı CSAM dışında içerik bularak teknolojiyi sansür için kullanmaya zorlayabileceğinden endişe duyuyor. Bazı çalışanlar, Apple'ın sektör lideri gizlilik itibarına zarar vermesinden endişe ediyor.

Kimliğinin açıklanmamasını isteyen işçiler Reuters'e verdiği demeçte, Apple çalışanlarının bir hafta önce açıklanan planla ilgili 800'den fazla mesajla Apple'ın dahili Slack kanalını doldurduğunu söyledi. Günlerce süren tartışmayı gören işçilere göre, pek çok kişi, sansür veya tutuklamalar için başka materyaller arayan baskıcı hükümetler tarafından bu özelliğin istismar edilebileceğine dair endişelerini dile getirdi.



Apple'da geçmişteki güvenlik değişiklikleri de çalışanlar arasında endişe uyandırdı, ancak işçiler, yeni tartışmanın hacmi ve süresinin şaşırtıcı olduğunu söyledi. Bazı posterler, Apple'ın gizliliği koruma konusundaki lider itibarına zarar verdiğinden endişeleniyor.

Rapora göre, kullanıcı güvenliği ile ilgili görevlerde bulunan Apple çalışanlarının iç protestonun bir parçası oldukları düşünülmüyor.

o zamandan beri duyuru geçen hafta Apple, bu sonbaharda iOS 15 ve iPadOS 15 ile piyasaya sürülmesi beklenen CSAM algılama planları nedeniyle eleştiri yağmuruna tutuldu. Endişeler, esas olarak, teknolojinin baskıcı hükümetler ve rejimler tarafından gelecekteki uygulamalar için nasıl kaygan bir eğim sunabileceği etrafında dönüyor.

verizon bir satır maliyeti ekle 2017

Apple, CSAM materyalini tespit etmek için kullanılan cihaz teknolojisinin başka herhangi bir amaç için kullanılabileceği fikrine kesinlikle karşı çıktı. İçinde yayınlanan SSS belgesi şirket, hükümetlerin bu tür taleplerini şiddetle reddedeceğini söylüyor.

Hükümetler, Apple'ı karma listesine CSAM olmayan görüntüler eklemeye zorlayabilir mi?
Apple bu tür talepleri reddedecektir. Apple'ın CSAM algılama özelliği yalnızca, NCMEC ve diğer çocuk güvenlik gruplarındaki uzmanlar tarafından tanımlanan iCloud Fotoğrafları'nda depolanan bilinen CSAM görüntülerini algılamak için oluşturulmuştur. Daha önce, kullanıcıların gizliliğini bozan, devlet tarafından zorunlu kılınan değişiklikler oluşturma ve uygulama talepleriyle karşılaştık ve bu talepleri kararlılıkla reddettik. Gelecekte onları reddetmeye devam edeceğiz. Açık konuşalım, bu teknoloji iCloud'da depolanan CSAM'i tespit etmekle sınırlıdır ve hiçbir hükümetin onu genişletme talebini kabul etmeyeceğiz. Ayrıca Apple, NCMEC'e rapor vermeden önce insan incelemesi yapar. Sistemin, bilinen CSAM görüntüleriyle eşleşmeyen fotoğrafları işaretlediği bir durumda, hesap devre dışı bırakılmaz ve NCMEC'e herhangi bir rapor sunulmaz.

Bir açık mektup Apple'ı eleştiren ve şirkete CSAM tespitini dağıtma planını derhal durdurmaya çağıran bu yazının yazıldığı sırada 7.000'den fazla imza topladı. WhatsApp başkanı da var tartışmaya ağırlık verdi .

Etiketler: Apple gizliliği , Apple çocuk güvenliği özellikleri