Apple-Uutiset

Craig Federighi myöntää hämmennyksen Applen lasten turvaominaisuuksien ympärillä ja selittää uusia yksityiskohtia suojatoimista

Perjantai 13. elokuuta 2021 klo 7.33 PDT, kirjoittanut Hartley Charlton

Applen ohjelmistosuunnittelusta vastaava varatoimitusjohtaja Craig Federighi on tänään puolustanut yhtiön kiistanalaista suunnitelmaa. lasten turvaominaisuudet merkittävässä haastattelussa Wall Street Journal , joka paljastaa useita uusia yksityiskohtia suojatoimista, jotka on rakennettu Applen järjestelmään, jolla käyttäjien valokuvakirjastot tarkistetaan lasten seksuaalisen hyväksikäytön materiaalin (CSAM) varalta.





craig wwdc 2021 yksityisyys
Federighi myönsi, että Apple oli hoitanut viime viikon ilmoitus kahdesta uudesta ominaisuudesta huonosti, jotka liittyvät seksuaalisen sisällön havaitsemiseen Messages lapsille -sovelluksessa ja CSAM-sisältöön, joka on tallennettu iCloud-kuvat kirjastoja ja myönsi laajan hämmennyksen työkalujen ympärillä:

On todella selvää, että monet viestit sekoitettiin melko pahasti sen suhteen, miten asiat ymmärrettiin. Toivomme, että tämä olisi tullut hieman selvemmin kaikille, koska olemme erittäin positiivisia ja vahvasti tekemisissämme.



voitko jakaa Apple Music -soittolistoja

[...]

Jälkikäteen ajatellen näiden kahden ominaisuuden esitteleminen samanaikaisesti oli resepti tällaiseen sekaannukseen. Julkaisemalla ne samaan aikaan ihmiset liittivät ne teknisesti ja pelästyivät suuresti: mitä viesteilleni tapahtuu? Vastaus on, että viesteilläsi ei tapahdu mitään.

Viestintäturvaominaisuus tarkoittaa, että jos lapset lähettävät tai vastaanottavat ilkeitä kuvia iMessagen kautta, heitä varoitetaan ennen sen katselemista, kuva sumennetaan ja heidän vanhemmilleen on mahdollisuus saada varoitus. CSAM-skannaus puolestaan ​​yrittää yhdistää käyttäjien valokuvat tunnetun CSAM:n hajautettuihin kuviin ennen kuin ne ladataan iCloudiin. Apple tarkastaa sitten manuaalisesti tilit, joilla on havaittu CSAM, ja niistä voidaan ilmoittaa National Center for Missing and Exploited Children (NCMEC).

kuinka tehdä hard reset omenakellossa

Uudet ominaisuudet ovat saaneet paljon kritiikkiä käyttäjiltä, turvallisuustutkijat , Electronic Frontier Foundation (EFF) ja Edward Snowden , Facebookin entinen turvallisuuspäällikkö , ja jopa Applen työntekijät .

Tämän kritiikin keskellä Federighi käsitteli yhtä tärkeimmistä huolenaiheista ja korosti, että Applen järjestelmä on suojattu hallitusten tai muiden kolmansien osapuolien hyväksikäyttämiseltä, jolla on 'useita tarkastettavuustasoja'.


Federighi paljasti myös useita uusia yksityiskohtia järjestelmän suojatoimista, kuten sen, että käyttäjän on löydettävä noin 30 osumaa CSAM-sisällön osalta. Kuvat kirjasto ennen kuin Apple saa varoituksen, minkä jälkeen se vahvistaa, näyttävätkö nämä kuvat olevan aitoja CSAM-esineitä.

Jos ja vain jos täytät kynnyksen jotain, joka on luokkaa 30 tiedossa olevaa lapsipornografista kuvaa, vain silloin Apple tietää mitään tilistäsi ja tietää mitään näistä kuvista, ja siinä vaiheessa hän tietää vain niistä kuvista, ei muita kuviasi. Tämä ei tee analyysiä, sillä oliko sinulla kuva lapsestasi kylpyammeessa? Tai oliko sinulla kuva jostain muusta pornografiasta? Tämä vastaa kirjaimellisesti vain tiettyjen tunnettujen lapsipornografisten kuvien tarkkoja sormenjälkiä.

Hän huomautti myös turvallisuusedun, joka liittyy täsmäytysprosessin asettamiseen iPhone suoraan sen sijaan, että se tapahtuisi ‌iCloudin‌in palvelimilla.

Koska se on [puhelimessa], tietoturvatutkijat pystyvät jatkuvasti tutkimaan, mitä Applen [puhelin]-ohjelmistossa tapahtuu. Joten jos tehtiin muutoksia, jotka laajentaisivat tämän soveltamisalaa jollain tavalla – tavalla, jota olimme sitoutuneet olemaan tekemättä – on todennettavissa, he voivat havaita, että niin tapahtuu.

Kysyttäessä, voisiko käyttäjien laitteilla olevan CSAM-sisällön vastaavuuteen käytettyjen kuvien tietokanta vaarantua, jos siihen on lisätty muuta materiaalia, kuten poliittista sisältöä tietyillä alueilla, Federighi selitti, että tietokanta on rakennettu useiden lastensuojeluorganisaatioiden tunnetuista CSAM-kuvista. vähintään kaksi on 'erillään lainkäyttöalueilla' suojatakseen järjestelmän väärinkäyttöä.

on iphone 8 vesitiivis

Federighin mukaan nämä lastensuojelujärjestöt sekä riippumaton tarkastaja voivat varmistaa, että kuvatietokanta koostuu vain näiden tahojen sisällöstä.

Federighin haastattelu on yksi suurimmista Applen PR-iskuista tähän mennessä sen jälkeen, kun yleisö on vastannut ristiriitaisesti lasten turvaominaisuuksien ilmoitukseen, mutta yhtiö on myös toistuvasti yrittänyt vastata käyttäjien huolenaiheisiin , julkaisemalla UKK ja huolenaiheisiin puuttuminen suoraan haastattelut tiedotusvälineille .

Tunnisteet: The Wall Street Journal , Craig Federighi , Applen lasten turvaominaisuudet