Apple News

Az Apple új dokumentumban ismerteti a CSAM-észlelőrendszer biztonságát és adatvédelmét

2021. augusztus 13., péntek, 12:45 PDT, Joe Rossignol

Apple ma megosztott egy dokumentumot amely részletesebb áttekintést nyújt a gyermekbiztonsági funkciók, amelyeket a múlt héten jelentett be először , beleértve a tervezési elveket, a biztonsági és adatvédelmi követelményeket, valamint a fenyegetésmodellekkel kapcsolatos megfontolásokat.





iphone kommunikációs biztonsági funkció
Az Apple terve az iCloud Photos szolgáltatásban tárolt ismert, gyermekekkel való szexuális zaklatással kapcsolatos anyagok (CSAM) észlelésére különösen ellentmondásos volt és egyes biztonsági kutatók, a non-profit Electronic Frontier Foundation és mások aggodalmát váltotta ki amiatt, hogy a kormányok esetleg visszaélnek a rendszerrel a tömeges megfigyelés egyik formájaként.

A dokumentum ezeket az aggályokat kívánja kezelni, és megismétel néhány olyan részletet, amelyek korábban egy időben felmerültek interjú az Apple szoftvermérnöki vezetőjével, Craig Federighivel , beleértve azt is, hogy az Apple elvárja, hogy 30 ismert CSAM-kép kezdeti egyezési küszöbét állítsa be, mielőtt egy iCloud-fiókot megjelölne a vállalat kézi ellenőrzésére.



Az Apple azt is közölte, hogy az ismert CSAM-képek eszközön lévő adatbázisa csak azokat a bejegyzéseket tartalmazza, amelyeket egymástól függetlenül két vagy több, különálló szuverén joghatóság alatt működő, és nem ugyanazon kormány irányítása alatt álló gyermekbiztonsági szervezet nyújtott be.

A rendszert úgy alakították ki, hogy a felhasználónak ne kelljen bíznia az Apple-ben, semmilyen más egyedi entitásban, vagy akár az azonos szuverén joghatósághoz tartozó (azaz ugyanazon kormány irányítása alatt álló) esetlegesen összejátszó entitások csoportjában sem ahhoz, hogy biztos legyen abban, hogy a rendszer a hirdetett módon működik. Ez több egymásra épülő mechanizmuson keresztül érhető el, ideértve az eszközön történő végrehajtás céljából világszerte terjesztett egyetlen szoftverkép belső auditálhatóságát, amely követelmény, hogy az eszközön található titkosított CSAM-adatbázisban található észlelési képkivonatokat egymástól függetlenül két vagy több gyermekbiztonság biztosítsa. különálló szuverén joghatóságoktól származó szervezetek, és végül egy emberi felülvizsgálati folyamat a téves jelentések megelőzésére.

Az Apple hozzátette, hogy közzétesz egy támogatási dokumentumot a honlapján, amely tartalmazza a titkosított CSAM hash adatbázis gyökérkivonatát, amely minden Apple operációs rendszer minden verziójához tartozik, amely támogatja a funkciót. Ezenkívül az Apple azt mondta, hogy a felhasználók ellenőrizhetik az eszközükön található titkosított adatbázis gyökérkivonatát, és összehasonlíthatják azt a támogatási dokumentumban szereplő várt gyökérkivonattal. Erre nem adtak határidőt.

Egy feljegyzésben által szerzett Bloomberg Mark Gurman , az Apple azt mondta, hogy egy független könyvvizsgáló is felülvizsgálja a rendszert. A feljegyzés megjegyezte, hogy az Apple kiskereskedelmi alkalmazottai kérdéseket kaphatnak az ügyfelektől a gyermekbiztonsági funkciókkal kapcsolatban, amelyekhez kapcsolódnak egy GYIK, amelyet az Apple osztott meg a hét elején erőforrásként az alkalmazottak megválaszolhatják a kérdéseket, és nagyobb átláthatóságot és átláthatóságot biztosíthatnak az ügyfelek számára.

Az Apple eredetileg azt mondta, hogy az új gyermekbiztonsági funkciók az iPhone-ra, iPadre és Mac-re érkeznek majd a szoftverfrissítésekkel még ebben az évben, és a vállalat azt mondta, hogy ezek a funkciók csak a bevezetéskor lesznek elérhetők az Egyesült Államokban. A kritikák ellenére az Apple ma azt mondta, hogy nem változtatott ezen az időkereten a funkciók felhasználók számára történő bevezetésére.