Apple News

Az Apple közzéteszi a GYIK-et a CSAM észlelésével és az üzenetek szkennelésével kapcsolatos aggályok kezelésére

2021. augusztus 9., hétfő, 2:50 PDT, Tim Hardwick

Az Apple közzétett egy GYIK-et „Expanded Protections for Children” címmel, amelynek célja, hogy eloszlassa a felhasználók adatvédelmi aggodalmait az új CSAM-felderítéssel kapcsolatban. iCloud fotók és kommunikációs biztonság a Messages szolgáltatásaihoz, amelyeket a vállalat múlt héten jelentették be .





alma magánélet
'Mióta bejelentettük ezeket a funkciókat, számos érdekelt fél, köztük az adatvédelmi szervezetek és a gyermekek biztonságával foglalkozó szervezetek támogatását fejezte ki az új megoldás mellett, és néhányan kérdésekkel fordultak' - olvasható a GYIK-ben. 'Ez a dokumentum ezeknek a kérdéseknek a megválaszolását szolgálja, és nagyobb egyértelműséget és átláthatóságot biztosít a folyamatban.'

Egyes megbeszélések elmosták a különbséget a két funkció között, és az Apple nagy erőfeszítéseket tesz ennek érdekében dokumentum megkülönböztetni őket, elmagyarázva, hogy a Messages kommunikációs biztonsága „csak a Családi megosztásban beállított gyermekfiókok Messages alkalmazásában küldött vagy fogadott képeken működik”, míg a CSAM-észlelés az ‌iCloud Photos‌ 'csak azokat a felhasználókat érinti, akik az ‌iCloud Photos‌ hogy tárolják a fotóikat… Nincs hatással az eszközön található egyéb adatokra.'



A GYIK-ből:

hogyan lehet feloldani a szöveg rögzítését iphone-on

Ez a két funkció nem ugyanaz, és nem ugyanazt a technológiát használják.

A Messages kommunikációs biztonságát úgy tervezték, hogy a szülők és a gyermekek további eszközöket biztosítsanak, amelyek megvédik gyermekeiket a nyíltan szexuális tartalmú képek küldésétől és fogadásától a Messages alkalmazásban. Csak a Családi megosztásban beállított gyermekfiókok Üzenetek alkalmazásában küldött vagy fogadott képeken működik. Elemezi a képeket az eszközön, és így nem változtatja meg az Üzenetek adatvédelmi biztosítékait. Amikor egy gyermekfiók nyíltan szexuális tartalmú képeket küld vagy fogad, a fotó elhomályosul, a gyermek pedig figyelmeztetést kap, hasznos forrásokkal látja el, és megnyugtatja, ha nem akarja megnézni vagy elküldeni a fényképet. További óvintézkedésként a kisgyermekeknek azt is elmondhatják, hogy biztonságuk érdekében a szüleik üzenetet kapnak, ha megtekintik.

A második funkció, a CSAM-észlelés az iCloud Photosban, úgy van kialakítva, hogy távol tartsa a CSAM-ot az iCloud Photos szolgáltatástól anélkül, hogy információt adna az Apple-nek azokról a fényképekről, amelyek nem egyeznek az ismert CSAM-képekkel. A CSAM-képek birtoklása a legtöbb országban illegális, beleértve az Egyesült Államokat is. Ez a funkció csak azokat a felhasználókat érinti, akik az iCloud Photos alkalmazást választották fotóik tárolására. Nem érinti azokat a felhasználókat, akik nem az iCloud Photos használatát választották. Nincs hatással az eszközön található egyéb adatokra. Ez a funkció nem vonatkozik az Üzenetekre.

A dokumentum többi része három részre oszlik (lent félkövéren szedve), a következő gyakran feltett kérdésekre válaszolva:

iphone xs max mikor jelent meg

miért nem limonádé az almazenén
    Kommunikációs biztonság az Üzenetek alkalmazásban
  • Ki használhatja a kommunikációs biztonságot az Üzenetek alkalmazásban?
  • Ez azt jelenti, hogy a Messages információkat oszt meg az Apple-lel vagy a bűnüldöző szervekkel?
  • Ez megszakítja a végpontok közötti titkosítást az Üzenetek szolgáltatásban?
  • Ez a funkció megakadályozza, hogy a bántalmazó otthonokban élő gyerekek segítséget kérjenek?
  • A szülők értesítést kapnak anélkül, hogy a gyermekeket figyelmeztetnék és választhatnának?
  • CSAM észlelése
  • Ez azt jelenti, hogy az Apple átvizsgálja a rajtam tárolt összes fényképet? iPhone ?
  • Letölti ez a CSAM képeket az ‌iPhone‌ összehasonlítani a fotóimmal?
  • Miért csinálja ezt most az Apple?
  • Biztonság a CSAM észleléséhez az iCloud Photos szolgáltatásban
  • A CSAM-észlelési rendszer az ‌iCloud Photos‌ a CSAM-on kívül más dolgok észlelésére is használható?
  • Kényszeríthetik a kormányok az Apple-t, hogy adjon hozzá nem CSAM képeket a hash-listához?
  • Lehet-e nem CSAM képeket „injektálni” a rendszerbe, hogy megjelöljék a CSAM-on kívüli fiókokat?
  • A CSAM észlelése az ‌iCloud Photos‌ ártatlan embereket hamisan megjelölni a bűnüldöző szervek előtt?

Az érdeklődő olvasók olvassák el a dokumentumot, hogy az Apple teljes válaszát megtalálják ezekre a kérdésekre. Érdemes azonban megjegyezni, hogy azoknál a kérdéseknél, amelyekre bináris igen/nem választ adunk, az Apple mindegyiket „Nem”-el kezdi, kivéve a következő három kérdést a „Biztonság a CSAM észleléséhez a ‌ iCloud Photos‌:'

Használható-e az iCloud Photos CSAM-érzékelő rendszere a CSAM-on kívüli dolgok észlelésére?
Eljárásunk célja ennek megakadályozása. Az iCloud Photos CSAM-észlelése úgy készült, hogy a rendszer csak az NCMEC és más gyermekbiztonsági szervezetek által biztosított CSAM-képkivonatokkal működjön. Ez a képkivonat-készlet a gyermekbiztonsági szervezetek által beszerzett és CSAM-ként hitelesített képeken alapul. Nincs automatikus jelentéstétel a bűnüldöző szervek felé, és az Apple emberi ellenőrzést végez, mielőtt jelentést tesz az NCMEC-nek. Ennek eredményeként a rendszert csak az iCloud Photos szolgáltatásban CSAM-ként ismert fényképek bejelentésére tervezték. A legtöbb országban, beleértve az Egyesült Államokat is, a képek egyszerű birtoklása bűncselekménynek minősül, és az Apple köteles minden olyan esetet jelenteni a megfelelő hatóságoknak, amelyekről tudomást szerezünk.

Kényszeríthetik a kormányok az Apple-t, hogy adjon hozzá nem CSAM képeket a hash-listához?
Az Apple visszautasít minden ilyen követelést. Az Apple CSAM-észlelési képessége kizárólag az iCloud Photosban tárolt ismert CSAM-képek észlelésére szolgál, amelyeket az NCMEC és más gyermekbiztonsági csoportok szakértői azonosítottak. Korábban is szembesültünk olyan követelésekkel, hogy olyan kormány által előírt változtatásokat hozzunk létre és alkalmazzunk, amelyek rontják a felhasználók magánéletét, és ezeket a követeléseket határozottan visszautasítottuk. A jövőben is visszautasítjuk őket. Tisztázzuk, ez a technológia az iCloudban tárolt CSAM észlelésére korlátozódik, és nem fogunk eleget tenni egyetlen kormánynak sem, hogy kiterjesszék. Ezenkívül az Apple emberi ellenőrzést végez, mielőtt jelentést készítene az NCMEC-nek. Abban az esetben, ha a rendszer olyan fotókat jelöl meg, amelyek nem egyeznek az ismert CSAM-képekkel, a fiók nem lesz letiltva, és nem küldenek jelentést az NCMEC-nek.

Lehet-e nem CSAM képeket „injektálni” a rendszerbe, hogy megjelöljék a CSAM-on kívüli fiókokat?
Eljárásunk célja ennek megakadályozása. Az egyeztetéshez használt képkivonatok a CSAM ismert, meglévő képeiből származnak, amelyeket gyermekbiztonsági szervezetek szereztek be és ellenőriztek. Az Apple nem ad hozzá az ismert CSAM-képkivonatok készletéhez. Ugyanaz a hash-készlet minden iPhone- és iPad-felhasználó operációs rendszerében tárolódik, így a mi tervezésünk szerint nem lehetségesek célzott támadások csak meghatározott személyek ellen. Végezetül, nincs automatikus jelentéstétel a bűnüldöző szervek felé, és az Apple emberi ellenőrzést végez, mielőtt jelentést tesz az NCMEC-nek. Abban a valószínűtlen esetben, ha a rendszer olyan képeket jelöl meg, amelyek nem egyeznek az ismert CSAM-képekkel, a fiókot nem tiltják le, és nem küldenek jelentést az NCMEC-nek.

Az Apple-t komoly bírálatok érték az adatvédelmi jogvédők, biztonsági kutatók, kriptográfiai szakértők, akadémikusok és mások részéről, amiért a technológia bevezetése mellett döntött. iOS 15 és iPad 15 , várhatóan szeptemberben.

Ennek eredménye egy nyílt levél kritizálja az Apple azon tervét, hogy az iPhone készülékeket az ‌iCloud Photos‌ és explicit képek a gyermeküzenetekben, amelyek írása óta több mint 5500 aláírást nyertek. Az Apple kritikát kapott a Facebook tulajdonában lévő WhatsApptól is, amelynek vezetője Will Cathcart hívtam 'rossz megközelítés és visszalépés az emberek magánéletének védelmében szerte a világon.' Tim Sweeney, az Epic Games vezérigazgatója is megtámadták a döntést, azt állítva, hogy „keményen megpróbálta” látni a lépést az Apple szemszögéből, de arra a következtetésre jutott, hogy „elkerülhetetlen, hogy ez az Apple által a bűnösség vélelme alapján telepített kormányzati kémprogram”.

„Bármilyen jó szándékú is az Apple, ezzel tömeges megfigyelést tesz az egész világra” mondott Edward Snowden prominens bejelentő, hozzátéve, hogy „ha ma képesek gyerekpornót keresni, holnap bármit kereshetnek”. A non-profit Electronic Frontier Foundation is kritizálta Az Apple tervei szerint 'még egy alaposan dokumentált, gondosan átgondolt és szűk hatókörű hátsó ajtó is hátsó ajtó'.

hogyan kell újraindítani egy iphone 12 pro max
Címkék: Apple adatvédelem , Apple gyermekbiztonsági funkciók