Apple News

Craig Federighi elismeri az Apple gyermekbiztonsági funkciói körüli zavart, és elmagyarázza a biztonsági intézkedések új részleteit

2021. augusztus 13., péntek, 7:33 PDT, Hartley Charlton

Az Apple szoftverfejlesztésért felelős alelnöke, Craig Federighi ma megvédte a cég vitatott terveit. gyermekbiztonsági funkciók egy jelentős interjúban A Wall Street Journal , amely számos új részletet felfed az Apple azon rendszerébe épített biztosítékokról, amelyek segítségével szkennelhetők a felhasználói fotókönyvtárak a gyermekek szexuális zaklatását tartalmazó anyagok (CSAM) keresésére.





craig wwdc 2021 adatvédelem
Federighi elismerte, hogy az Apple kezelte a múlt heti ügyet közlemény a két új funkció közül rosszul, amelyek a Messages gyerekeknek programban való explicit tartalom észleléséhez és a iCloud fotók könyvtárakat, és elismerte az eszközök körüli széles körben elterjedt zavart:

Valóban egyértelmű, hogy sok üzenet eléggé összekeveredett a dolgok megértésének módját illetően. Szeretnénk, ha ez egy kicsit világosabban derült volna ki mindenki számára, mert nagyon pozitívan és erősen érezzük, amit csinálunk.



hogyan kell újratelepíteni az operációs rendszert a mac-ra

[...]

Utólag visszagondolva, ennek a két funkciónak az egyidejű bemutatása volt az effajta zűrzavar receptje. Azzal, hogy egyidejűleg kiadták őket, az emberek technikailag összekapcsolták őket, és nagyon megijedtek: mi történik az üzeneteimmel? A válasz...semmi nem történik az üzeneteivel.

A Kommunikációbiztonság funkció azt jelenti, hogy ha a gyerekek szókimondó képeket küldenek vagy kapnak az iMessage-en keresztül, a megtekintés előtt figyelmeztetést kapnak, a kép elmosódott lesz, és lehetőség nyílik a szüleik figyelmeztetésére. A CSAM-ellenőrzés viszont megkísérli párosítani a felhasználók fényképeit az ismert CSAM kivonatolt képeivel, mielőtt azok feltöltenének az iCloudba. Azokat a fiókokat, amelyekben CSAM-ot észleltek, ezután az Apple manuálisan felülvizsgálja, és bejelentheti őket a National Center for Missing and Exploited Children (NCMEC) felé.

hogy fog kinézni az iphone 14

Az új funkciókat sok kritika érte a felhasználók részéről, biztonsági kutatók , az Electronic Frontier Foundation (EFF) és Edward Snowden , A Facebook korábbi biztonsági vezetője , sőt még Apple alkalmazottak .

E kritikák közepette Federighi az egyik fő aggodalomra ad okot, és hangsúlyozta, hogy az Apple rendszere védve lesz attól, hogy a kormányok vagy más, „több szintű auditálhatósággal” rendelkező harmadik felek kihasználják.


Federighi számos új részletet is felfedett a rendszer biztosítékaival kapcsolatban, például azt a tényt, hogy a felhasználónak körülbelül 30 egyezést kell találnia a CSAM-tartalomhoz. Fényképek könyvtárat, mielőtt az Apple figyelmeztetést kapna, majd megerősíti, hogy ezek a képek a CSAM valódi példányainak tűnnek-e.

Akkor és csak akkor, ha eléri a 30 ismert gyermekpornográf kép egyezésének küszöbét, akkor az Apple csak akkor tud semmit az Ön fiókjáról, és tud valamit azokról a képekről, és akkor csak azokról a képekről tud, nem bármely más képét. Ez nem némi elemzést végez, mert volt-e képed a gyermekedről a fürdőkádban? Vagy ami azt illeti, volt képed valami másfajta pornográfiáról? Ez szó szerint csak bizonyos ismert gyermekpornográf képek pontos ujjlenyomataira vonatkozik.

Arra is rámutatott, hogy milyen biztonsági előnyökkel jár, ha az illesztési folyamatot a rendszerre helyezik iPhone közvetlenül, nem pedig az ‌iCloud‌ szerverein.

Mivel a [telefonon] van, a biztonsági kutatók folyamatosan be tudják nézni, mi történik az Apple [telefon] szoftverében. Tehát ha olyan változtatásokat hajtanak végre, amelyek valamilyen módon kiterjesztik ennek a hatókörét – olyan módon, ahogyan elköteleztük magunkat, hogy nem tesszük –, akkor ellenőrizhető, észrevehetik, hogy ez történik.

Arra a kérdésre, hogy a felhasználók eszközein lévő CSAM-tartalom egyeztetésére használt képek adatbázisát veszélyeztetheti-e más anyagok beillesztése, például bizonyos régiókban politikai tartalom, Federighi kifejtette, hogy az adatbázis több gyermekbiztonsági szervezet ismert CSAM-képeiből áll. legalább kettő „külön joghatóság alá tartozik”, a rendszerrel való visszaélések elleni védelem érdekében.

hogyan lehet elrejteni az üzeneteket az iphone 11 lezárási képernyőjén

Federighi szerint ezek a gyermekvédelmi szervezetek, valamint egy független ellenőr ellenőrizni tudják majd, hogy a képadatbázis csak ezektől a szervezetektől származó tartalomból áll-e.

Federighi interjúja az Apple eddigi legnagyobb PR-visszaszorításai közé tartozik a gyermekbiztonsági funkciók bejelentésére adott vegyes közvélemény után, de a cég többször is megpróbálta kezelni a felhasználók aggályait , GYIK közzététele és az aggodalmak közvetlen kezelése interjúk a médiával .

Címkék: The Wall Street Journal , Craig Federighi , Apple gyermekbiztonsági funkciók