Apple News

A biztonsági kutatók riasztást adnak az Apple iCloud-képek szkennelésére vonatkozó tervei miatt, de a gyakorlat már elterjedt

2021. augusztus 5., csütörtök, 14:04 PDT, Juli Clover

alma ma bejelentették hogy az elindításával iOS 15 és iPad 15 , megkezdi a beolvasást iCloud fotók az Egyesült Államokban, hogy felkutassák a gyermekekkel való szexuális zaklatással kapcsolatos ismert anyagokat (CSAM), és a tervek szerint jelentsék az eredményeket a National Center for Missing and Exploited Children (NCMEC) számára.





Gyermekbiztonsági funkció
Mielőtt az Apple részletezte terveit, a CSAM kezdeményezés hírei kiszivárogtak, és a biztonsági kutatók már elkezdték kifejezni aggodalmukat azzal kapcsolatban, hogy az Apple új képszkennelési protokollját miként lehetne a jövőben használni. Financial Times .

Az Apple „NeuralHash” rendszert használ az ismert CSAM-képek és a felhasználók fényképeinek összehasonlítására iPhone mielőtt feltöltik őket az iCloudba. Ha egyezés van, a fényképet titkosítási biztonsági utalvánnyal töltik fel, és egy bizonyos küszöbérték elérésekor a rendszer áttekintést indít annak ellenőrzésére, hogy az adott személy eszközén van-e CSAM.



hogyan lehet adatokat átvinni a régi iPhone-ról az új iPhone-ra

Jelenleg az Apple a képszkennelési és -egyeztetési technológiáját használja a gyermekbántalmazás keresésére, de a kutatók attól tartanak, hogy a jövőben másfajta, aggasztóbb képek, például kormányellenes táblák keresésére is adaptálhatják. tiltakozik.

Egy sor tweetben Johns Hopkins kriptográfiai kutató Matthew Green azt mondta, hogy a CSAM szkennelés „nagyon rossz ötlet”, mert a jövőben kiterjedhet a végpontok közötti titkosított fényképek szkennelésére is, nem csak az ‌iCloud‌-re feltöltött tartalomra. Gyerekeknek Apple van egy külön szkennelési funkció megvalósítása, amely közvetlenül az iMessagesben keresi a nyíltan szexuális tartalmat, amely végpontok között titkosított.

Green aggodalmának adott hangot az Apple által használni tervezett kivonatokkal kapcsolatban is, mivel előfordulhatnak „ütközések”, amikor valaki olyan ártalmatlan fájlt küld, amely megoszt egy hash-t a CSAM-mel, és hamis jelzést eredményezhet.

Az Apple a maga részéről azt állítja, hogy a szkennelési technológiája „rendkívül nagy pontossággal” rendelkezik, hogy megbizonyosodjon arról, hogy a fiókokat ne jelöljék meg helytelenül, és a jelentéseket manuálisan ellenőrzik, mielőtt a személy ‌iCloud‌ fiók le van tiltva, és jelentést küld az NCMEC-nek.

Green úgy véli, hogy az Apple megvalósítása más technológiai vállalatokat is hasonló technikák elfogadására késztet. „Ez át fogja szakítani a gátat” – írta. 'A kormányok mindenkitől megkövetelik.' A technológiát „az elnyomó rezsimek által bevetett eszközökhöz” hasonlította.


A biztonsági kutató, Alec Muffett, aki korábban a Facebooknál dolgozott, azt mondta, hogy az Apple döntése, hogy bevezeti ezt a fajta képszkennelést, „hatalmas és regresszív lépés volt az egyéni magánélet védelmében”. 'Az Apple visszavonja a magánélet védelmét, hogy lehetővé tegye 1984-et' - mondta.

Ross Anderson, a Cambridge-i Egyetem biztonsági mérnök professzora szerint ez egy „teljesen megdöbbentő ötlet”, amely az eszközök „elosztott tömeges megfigyeléséhez” vezethet.

Amint arra sokan rámutattak a Twitteren, több technológiai vállalat is végez már képszkennelést a CSAM számára. A Google, a Twitter, a Microsoft, a Facebook és mások képkivonatolási módszereket használnak a gyermekbántalmazás ismert képeinek megkeresésére és bejelentésére.


Azt is érdemes megjegyezni, hogy az Apple volt már bizonyos tartalmak szkennelése a gyermekbántalmazással kapcsolatos képekhez az új CSAM-kezdeményezés bevezetése előtt. 2020-ban az Apple adatvédelmi igazgatója, Jane Horváth azt mondta, hogy az Apple szűrési technológiát használt az illegális képek keresésére, majd letiltja a fiókokat, ha a CSAM bizonyítékát észleli.

mi jár az apple watch se

Az Apple 2019-ben frissítette adatvédelmi szabályzatát megjegyezni, hogy a feltöltött tartalmat megvizsgálná „potenciálisan illegális tartalomra, beleértve a gyermekek szexuális kizsákmányolását”, így a mai bejelentések nem teljesen újak.

Megjegyzés: A témával kapcsolatos vita politikai vagy társadalmi jellege miatt a vitaszál a mi oldalunkon található Politikai hírek fórum. A fórum minden tagja és látogatója elolvashatja és követheti a szálat, de a hozzászólások csak a legalább 100 bejegyzéssel rendelkező fórumtagokra korlátozódnak.

Címkék: Apple adatvédelem , Apple gyermekbiztonsági funkciók