Apple News

Az Apple új gyermekbiztonsági funkciókat vezet be, beleértve a felhasználói fotókönyvtárak szexuális zaklatással kapcsolatos ismert anyagok keresését

2021. augusztus 5., csütörtök, 13:00 PDT, Joe Rossignol

Apple ma új gyermekbiztonsági funkciók előnézete amely még ebben az évben szoftverfrissítésekkel érkezik a platformjaira. A vállalat tájékoztatása szerint a funkciók csak a bevezetéskor lesznek elérhetők az Egyesült Államokban, és idővel más régiókra is kiterjesztik.





iphone kommunikációs biztonsági funkció

Kommunikációs biztonság

Először is, az iPhone, iPad és Mac Messages alkalmazás új kommunikációs biztonsági funkciót kap, amely figyelmezteti a gyerekeket és szüleiket, amikor szexuális tartalmú fényképeket kapnak vagy küldenek. Az Apple közölte, hogy a Messages alkalmazás az eszközön található gépi tanulást használja a képmellékletek elemzésére, és ha egy fényképről kiderül, hogy szexuális jellegű, a fotó automatikusan elmosódik, és a gyermek figyelmeztetést kap.





iphone 11 vs 12 kamerák összehasonlítása

Amikor egy gyermek megpróbál egy érzékenyként megjelölt fényképet megtekinteni az Üzenetek alkalmazásban, figyelmeztetést kap, hogy a fotó magán testrészeket tartalmazhat, és hogy a fénykép bántó lehet. A gyermek életkorától függően lehetőség lesz arra is, hogy a szülők értesítést kapjanak, ha gyermekük tovább nézi az érzékeny fotót, vagy ha figyelmeztetést követően úgy dönt, hogy szexuális tartalmú fotót küld egy másik ismerősnek.

Az Apple közölte, hogy az új kommunikációs biztonsági funkció az iOS 15, az iPadOS 15 és a macOS Monterey frissítéseiben még idén megjelenik az iCloudban családként beállított fiókokhoz. Az Apple gondoskodott arról, hogy az iMessage beszélgetések végpontok közötti titkosítással védettek maradjanak, így a privát kommunikációt az Apple olvashatatlanná teszi.

Fényképek szkennelése gyermekek szexuális zaklatását tartalmazó anyagok (CSAM) keresésére

Másodszor, az idei évtől az iOS 15 és iPadOS 15 operációs rendszerrel az Apple képes lesz észlelni az iCloud Photos szolgáltatásban tárolt ismert, gyermekekkel való szexuális zaklatással kapcsolatos anyagokat (CSAM), így az Apple jelentheti ezeket az eseteket az Eltűnt és Kizsákmányolt Gyermekek Nemzeti Központjának (NCMEC). , egy non-profit szervezet, amely együttműködik az amerikai bűnüldöző szervekkel.

Az Apple azt mondta, hogy az ismert CSAM észlelésére szolgáló módszerét a felhasználói adatvédelem szem előtt tartásával tervezték. A felhőben történő képek szkennelése helyett az Apple azt mondta, hogy a rendszer eszközön történő egyeztetést végez az NCMEC és más gyermekbiztonsági szervezetek által biztosított ismert CSAM-képkivonatok adatbázisával. Az Apple azt mondta, hogy tovább alakítja ezt az adatbázist olvashatatlan hash-készletté, amelyet biztonságosan tárolnak a felhasználók eszközein.

Az Apple szerint a NeuralHash nevű kivonatolási technológia elemzi a képet, és az adott képre jellemző egyedi számmá alakítja.

'A hash fő célja annak biztosítása, hogy az azonos és vizuálisan hasonló képek ugyanazt a hash-t eredményezzék, míg az egymástól eltérő képek különböző hasheket' - mondta az Apple az 'Expanded Protections for Children' című új fehér könyvében. 'Például egy enyhén levágott, átméretezett vagy színesről fekete-fehérre konvertált képet a rendszer az eredetivel azonosan kezel, és ugyanaz a hash.'

Apple csam folyamatábra
Mielőtt egy képet eltárolna az iCloud Photos szolgáltatásban, az Apple azt mondta, hogy a képhez az eszközön belüli egyeztetési folyamatot hajtanak végre az ismert CSAM-kivonatok olvashatatlan készletével szemben. Egyezés esetén a készülék létrehoz egy kriptográfiai biztonsági utalványt. Ezt az utalványt a képpel együtt feltöltik az iCloud Photos szolgáltatásba, és amint az egyezések nem nyilvános küszöbét túllépik, az Apple képes értelmezni a kuponok tartalmát a CSAM-egyezésekre. Az Apple ezután manuálisan átnéz minden jelentést, hogy megbizonyosodjon az egyezésről, letiltja a felhasználó iCloud-fiókját, és jelentést küld az NCMEC-nek. Az Apple nem közli, hogy mi a pontos küszöbértéke, de „rendkívül magas szintű pontosságot” biztosít, hogy a fiókok ne legyenek hibásan megjelölve.

Az Apple azt mondta, hogy az ismert CSAM észlelési módszere „jelentős adatvédelmi előnyöket” biztosít a meglévő technikákkal szemben:

• Ez a rendszer hatékony módszer az iCloud Photos-fiókokban tárolt ismert CSAM azonosítására, miközben védi a felhasználók adatait.
• A folyamat részeként a felhasználók semmit sem tudnak meg az ismert CSAM-képek készletéről, amelyet az egyeztetéshez használnak. Ez megvédi az adatbázis tartalmát a rosszindulatú felhasználástól.
• A rendszer nagyon pontos, rendkívül alacsony hibaaránnyal, évente kevesebb mint egy billió fiókhoz.
• A rendszer lényegesen jobban megőrzi a magánélet védelmét, mint a felhő alapú szkennelés, mivel csak azokat a felhasználókat jelenti, akik az iCloud Photosban tárolt ismert CSAM gyűjteményével rendelkeznek.

Az Apple rendszere mögött meghúzódó technológia meglehetősen összetett, és közzétette a műszaki összefoglaló további részletekkel.

„Az Apple kibővített gyermekek elleni védelme játékmódot jelent. Mivel nagyon sokan használnak Apple-termékeket, ezek az új biztonsági intézkedések életmentést jelentenek azoknak a gyerekeknek, akiket online csábítanak, és akikről szörnyű képeket terjesztenek a gyermekek szexuális zaklatását ábrázoló anyagokban” – mondta John Clark, a National Center for Missing elnök-vezérigazgatója. & Kizsákmányolt gyerekek. „Az Eltűnt és Kizsákmányolt Gyermekek Nemzeti Központjában tudjuk, hogy ez a bűncselekmény csak akkor küzdhető le, ha kitartóan elkötelezettek vagyunk a gyermekek védelme mellett. Ezt csak azért tudjuk megtenni, mert a technológiai partnerek, például az Apple, fellépnek, és ismertté teszik elkötelezettségüket. A valóság az, hogy a magánélet és a gyermekvédelem együtt létezhet. Üdvözöljük az Apple-t, és alig várjuk, hogy együtt dolgozhassunk, hogy biztonságosabb hellyé tegyük ezt a világot a gyermekek számára.

Kibővített CSAM-útmutató a Siriben és a Keresésben

iphone csam siri
Harmadszor, az Apple bejelentette, hogy kiterjeszti a Siri és a Spotlight Search útmutatásait az eszközökre, további forrásokat biztosítva a gyermekek és a szülők online biztonságának megőrzéséhez és a nem biztonságos helyzetekben való segítséghez. Például azok a felhasználók, akik megkérdezik a Sirit, hogyan jelenthetik be a CSAM-ot vagy a gyermekek kizsákmányolását, megkapják a jelentés benyújtásának helyére és módjára vonatkozó forrásokat.

Az Apple szerint a Siri és a Search frissítései még ebben az évben megjelennek az iOS 15, iPadOS 15, watchOS 8 és macOS Monterey frissítésében.

Megjegyzés: A témával kapcsolatos vita politikai vagy társadalmi jellege miatt a vitaszál a mi oldalunkon található Politikai hírek fórum. A fórum minden tagja és látogatója elolvashatja és követheti a szálat, de a hozzászólások csak a legalább 100 bejegyzéssel rendelkező fórumtagokra korlátozódnak.

Címkék: Apple adatvédelem , Apple gyermekbiztonsági funkciók