Apple-Uutiset

Apple esittelee uusia lasten turvaominaisuuksia, mukaan lukien käyttäjien valokuvakirjastojen skannaus tunnetun seksuaalisen hyväksikäytön materiaalin varalta

Torstai 5. elokuuta 2021 klo 13.00 PDT, kirjoittanut Joe Rossignol

Apple tänään esikatsellut uusia lasten turvaominaisuuksia joka tulee alustoilleen ohjelmistopäivitysten kanssa myöhemmin tänä vuonna. Yhtiö sanoi, että ominaisuudet ovat saatavilla Yhdysvalloissa vasta julkaisun yhteydessä, ja niitä laajennetaan ajan myötä muille alueille.





iphone-viestinnän turvaominaisuus

Viestintäturvallisuus

Ensinnäkin iPhonen, iPadin ja Macin Viestit-sovellus saa uuden viestintäturvallisuusominaisuuden, joka varoittaa lapsia ja heidän vanhempiaan vastaanottaessaan tai lähettäessään seksuaalista sisältöä. Apple sanoi, että Messages-sovellus käyttää laitteen koneoppimista analysoimaan kuvaliitteitä, ja jos valokuvan todetaan olevan seksuaalista, kuva hämärtyy automaattisesti ja lapsi saa varoituksen.



kuinka napsauttaa hiiren oikeaa painiketta maagisella hiirellä

Kun lapsi yrittää katsoa valokuvaa, joka on merkitty arkaluontoiseksi Viestit-sovelluksessa, hän saa varoituksen, että kuva saattaa sisältää yksityisiä ruumiinosia ja että kuva voi olla loukkaavaa. Lapsen iästä riippuen vanhemmilla on myös mahdollisuus saada ilmoitus, jos heidän lapsensa siirtyy katsomaan arkaluontoista kuvaa tai jos he päättävät lähettää varoituksen saatuaan seksuaalisen kuvan toiselle kontaktille.

Apple sanoi, että uusi viestintäturvaominaisuus tulee iOS 15:n, iPadOS 15:n ja macOS Montereyn päivityksissä myöhemmin tänä vuonna tileille, jotka on määritetty perheiksi iCloudissa. Apple varmisti, että iMessage-keskustelut pysyvät suojattuina päästä päähän -salauksella, jolloin Apple ei voi lukea yksityistä viestintää.

Kuvien skannaaminen lasten seksuaalista hyväksikäyttöä koskevan materiaalin (CSAM) varalta

Toiseksi, tästä vuodesta alkaen iOS 15:llä ja iPadOS 15:llä Apple pystyy havaitsemaan iCloud Photosiin tallennetut tunnetut lasten seksuaalisen hyväksikäytön materiaalit (CSAM), jolloin Apple voi ilmoittaa näistä tapauksista National Center for Missing and Exploited Children (NCMEC) -keskukselle. , voittoa tavoittelematon järjestö, joka toimii yhteistyössä Yhdysvaltain lainvalvontaviranomaisten kanssa.

Apple sanoi, että sen menetelmä tunnetun CSAM:n havaitsemiseksi on suunniteltu käyttäjien yksityisyyttä ajatellen. Kuvien skannaamisen sijaan pilvessä Apple sanoi, että järjestelmä suorittaa laitteiden täsmäytyksen NCMEC:n ja muiden lastensuojeluorganisaatioiden toimittaman tunnettujen CSAM-kuvahajautusten tietokannan kanssa. Apple sanoi, että se muuttaa tämän tietokannan edelleen lukukelvottomaksi tiivistejoukoksi, joka tallennetaan turvallisesti käyttäjien laitteisiin.

Hajautustekniikka, nimeltään NeuralHash, analysoi kuvan ja muuntaa sen tälle kuvalle ominaiseksi ainutlaatuiseksi numeroksi Applen mukaan.

'Hajautuksen päätarkoitus on varmistaa, että identtiset ja visuaalisesti samankaltaiset kuvat johtavat samaan tiivisteeseen, kun taas toisistaan ​​eroavat kuvat johtavat erilaisiin tiivisteisiin', Apple sanoi uudessa 'Expanded Protections for Children' -julkaisussa. 'Esimerkiksi kuva, jota on hieman rajattu, kokoa muutettu tai muutettu värillisestä mustavalkoiseksi, käsitellään samalla tavalla kuin alkuperäinen, ja siinä on sama tiiviste.'

Apple csam -vuokaavio
Ennen kuin kuva tallennetaan iCloud Photosiin, Apple sanoi, että kyseiselle kuvalle suoritetaan laitteella oleva täsmäytysprosessi tunnettujen CSAM-hajautusten joukkoa vastaan. Jos osuma löytyy, laite luo kryptografisen turvakupongin. Tämä kuponki ladataan iCloud Photos -palveluun kuvan mukana, ja kun julkistamaton osumien kynnys ylittyy, Apple pystyy tulkitsemaan kuponkien sisällön CSAM-osumille. Tämän jälkeen Apple tarkistaa jokaisen raportin manuaalisesti varmistaakseen, että se vastaa, poistaa käyttäjän iCloud-tilin käytöstä ja lähettää raportin NCMEC:lle. Apple ei kerro, mikä sen tarkka kynnys on, mutta varmistaa 'erittäin korkean tarkkuustason', jotta tilejä ei merkitä väärin.

Apple sanoi, että sen menetelmä tunnetun CSAM:n havaitsemiseksi tarjoaa 'merkittäviä tietosuojaetuja' olemassa oleviin tekniikoihin verrattuna:

• Tämä järjestelmä on tehokas tapa tunnistaa iCloud Photos -tileihin tallennettu tunnettu CSAM ja samalla suojata käyttäjien yksityisyyttä.
• Osana prosessia käyttäjät eivät myöskään voi oppia mitään tunnetuista CSAM-kuvista, joita käytetään täsmäämiseen. Tämä suojaa tietokannan sisältöä haitalliselta käytöltä.
• Järjestelmä on erittäin tarkka, ja sen virheprosentti on erittäin alhainen, alle yksi biljoonasta tilistä vuodessa.
• Järjestelmä säästää huomattavasti yksityisyyttä paremmin kuin pilvipohjainen skannaus, koska se raportoi vain käyttäjät, joilla on kokoelma tunnettuja CSAM-tiedostoja, jotka on tallennettu iCloud Photosiin.

Applen järjestelmän taustalla oleva tekniikka on melko monimutkainen, ja se on julkaissut a tekninen yhteenveto lisätiedoilla.

'Applen laajennettu suoja lapsille on pelin muuttaja. Koska niin monet ihmiset käyttävät Applen tuotteita, näillä uusilla turvatoimilla on hengenpelastuspotentiaalia lapsille, joita houkutellaan verkossa ja joiden kauhistuttavia kuvia levitetään lasten seksuaalista hyväksikäyttöä koskevassa materiaalissa', sanoi John Clark, National Center for Missing -keskuksen presidentti ja toimitusjohtaja. & Ristetyt lapset. 'National Center for Missing & Exploited Children tiedämme, että tätä rikosta voidaan torjua vain, jos olemme lujasti sitoutuneet suojelemaan lapsia. Voimme tehdä tämän vain, koska teknologiakumppanit, kuten Apple, tehostavat ja ilmoittavat omistautumisestaan. Tosiasia on, että yksityisyys ja lastensuojelu voivat olla rinnakkain. Onnittelemme Applea ja odotamme innolla yhteistyötä tehdäksemme tästä maailmasta turvallisemman paikan lapsille.

Laajennettu CSAM-opastus Sirissä ja haussa

iphone csam siri
Kolmanneksi Apple sanoi, että se laajentaa Siri- ja Spotlight Search -ohjeistusta eri laitteissa tarjoamalla lisäresursseja, jotka auttavat lapsia ja vanhempia pysymään turvassa verkossa ja saamaan apua vaarallisiin tilanteisiin. Esimerkiksi käyttäjät, jotka kysyvät Siriltä, ​​kuinka he voivat ilmoittaa CSAM:sta tai lasten hyväksikäytöstä, ohjataan resursseihin, joissa kerrotaan, missä ja miten he voivat tehdä ilmoituksen.

Applen mukaan Sirin ja Searchin päivitykset tulevat myöhemmin tänä vuonna iOS 15:n, iPadOS 15:n, watchOS 8:n ja macOS Montereyn päivityksenä.

Huomautus: Tätä aihetta koskevan keskustelun poliittisen tai sosiaalisen luonteen vuoksi keskusteluketju sijaitsee osoitteessamme Poliittiset uutiset foorumi. Kaikki foorumin jäsenet ja sivuston vierailijat ovat tervetulleita lukemaan ja seuraamaan viestiketjua, mutta lähettäminen on rajoitettu foorumin jäsenille, joilla on vähintään 100 viestiä.

Tunnisteet: Applen tietosuoja , Applen lasten turvaominaisuudet