Apple News

Egyetemi kutatók, akik CSAM-szkennelő rendszert építettek, arra ösztönzik az Apple-t, hogy ne használja a „veszélyes” technológiát

2021. augusztus 20., péntek, 6:48 PDT, Sami Fathi

Tisztelt egyetemi kutatók kongatják a vészharangot az Apple szkennelési tervei mögött meghúzódó technológia miatt iPhone a felhasználók fotótárai a CSAM-hoz vagy a gyermekek szexuális zaklatását használó anyagokhoz, és „veszélyesnek” nevezik a technológiát.





alma magánélet
Jonanath Mayer, a Princetoni Egyetem számítástechnikai és közügyek adjunktusa, valamint Anunay Kulshrestha, a Princetoni Egyetem Információs Technológiai Politikai Központjának kutatója. írt egy op-ed számára A Washington Post , felvázolják tapasztalataikat az épületképfelismerő technológiával kapcsolatban.

A kutatók két évvel ezelőtt elindítottak egy projektet a CSAM azonosítására a végpontok közötti titkosított online szolgáltatásokban. A kutatók megjegyzik, hogy szakterületükhöz képest „ismerik a végpontok közötti titkosítás értékét, amely megvédi az adatokat a harmadik felek hozzáférésétől”. Szerintük ez az aggodalom az, ami elborzasztja őket a „titkosított platformokon elterjedő” CSAM miatt.



hogyan készítsünk képernyőképet ipaddal

Mayer és Kulshrestha azt mondta, hogy középutat szeretnének találni a helyzet megoldására: olyan rendszert kell építeni, amelyet az online platformok használhatnak a CSAM megtalálására és a végpontok közötti titkosítás védelmére. A kutatók megjegyzik, hogy a terület szakértői kételkedtek egy ilyen rendszer lehetőségében, de sikerült kiépíteniük, és közben észrevettek egy jelentős problémát.

Igyekeztünk feltárni egy lehetséges középutat, ahol az online szolgáltatások azonosíthatnák a káros tartalmakat, miközben egyébként megőrizték a végpontok közötti titkosítást. A koncepció egyértelmű volt: ha valaki olyan anyagot oszt meg, amely egy ismert káros tartalom adatbázisának felel meg, a szolgáltatás figyelmeztetést kap. Ha egy személy ártatlan tartalmat oszt meg, a szolgáltatás semmit sem tanulna. Az emberek nem tudták elolvasni az adatbázist, és nem tudták meg, hogy a tartalom megegyezik-e, mivel ezek az információk felfedhetik a bűnüldözési módszereket, és segíthetnek a bűnözőknek elkerülni a felderítést.

Hozzáértő megfigyelők azzal érveltek, hogy egy olyan rendszer, mint a miénk, távolról sem kivitelezhető. Sok téves indítás után megépítettünk egy működő prototípust. De szembetűnő problémába ütköztünk.

Amióta az Apple bejelentette a funkciót, a vállalatot bombázzák aggodalmakkal hogy a CSAM észlelésének hátterében álló rendszer az elnyomó kormányok kérésére más formájú fotók észlelésére is használható. Az Apple határozottan visszalépett egy ilyen lehetőség ellen, mondván, hogy elutasít minden ilyen kérést a kormányoktól.

Mindazonáltal széles körben elterjedtek az aggodalmak a CSAM-felderítésre használt technológia jövőbeli következményeivel kapcsolatban. Mayer és Kulshrestha azt mondta, hogy „megzavarták” az aggodalmaik, hogy a kormányok miként használhatják a rendszert a CSAM-on kívüli tartalmak észlelésére.

hogyan nevezhet át több fájlt egyszerre mac

Egy külföldi kormány például szolgálatot kényszeríthet olyan emberekre, akik rosszindulatú politikai beszédet osztanak meg. Ez nem hipotetikus: a WeChat, a népszerű kínai üzenetküldő alkalmazás már tartalomegyeztetést használ a disszidens anyagok azonosítására. India idén olyan szabályokat fogadott el, amelyek előírhatják a kormányzati politikát kritikus tartalmak előzetes átvilágítását. Oroszország a közelmúltban megbírságolta a Google-t, a Facebookot és a Twittert, mert nem távolították el a demokráciapárti tiltakozó anyagokat.

Más hiányosságokat is észleltünk. A tartalomegyeztetési folyamatnak hamis pozitív eredményei lehetnek, és a rosszindulatú felhasználók megjátszhatják a rendszert, hogy ártatlan felhasználókat vizsgáljanak meg.

Annyira megzavartak bennünket, hogy megtettünk egy olyan lépést, amilyet a számítástechnikai szakirodalomban még nem tapasztaltunk: óva intettünk saját rendszertervezésünktől, további kutatásokat sürgetve a súlyos hátrányok enyhítésére....

Az Apple továbbra is kezeli a felhasználók aggályait a tervei miatt, további dokumentumok közzététele és egy GYIK oldal . Az Apple továbbra is úgy gondolja, hogy a CSAM észlelési rendszere, amely a felhasználó eszközén fog megjelenni, megfelel a régóta fennálló adatvédelmi értékeinek.

Címkék: Apple adatvédelem , WashingtonPost.com , Apple gyermekbiztonsági funkciók