Apple-Uutiset

Tietoturvatutkijat hälyttävät Applen suunnitelmista skannata iCloud-kuvia, mutta harjoittelevat jo laajalti

Torstai 5. elokuuta 2021 klo 14.04 PDT, kirjoittanut Juli Clover

Omena tänään ilmoitettu että käynnistettäessä iOS 15 ja iPad 15 , se aloittaa skannauksen iCloud-kuvat Yhdysvalloissa etsimään tunnettua lasten seksuaalista hyväksikäyttöä koskevaa materiaalia (CSAM) ja aikovat raportoida havainnoista National Center for Missing and Exploited Children (NCMEC).





Lasten turvaominaisuus
Ennen kuin Apple kertoi suunnitelmistaan, uutiset CSAM-aloitteesta vuotivat, ja tietoturvatutkijat ovat jo alkaneet ilmaista huolensa siitä, kuinka Applen uutta kuvanskannausprotokollaa voitaisiin käyttää tulevaisuudessa. Financial Times .

Apple käyttää NeuralHash-järjestelmää vertaamaan tunnettuja CSAM-kuvia käyttäjän kuviin iPhone ennen kuin ne ladataan iCloudiin. Jos osuma löytyy, valokuva ladataan kryptografisen turvakupongin kera, ja tietyn kynnyksen saavuttaessa käynnistetään tarkistus sen tarkistamiseksi, onko henkilön laitteissa CSAM.



kuinka estää Apple Watchin syttyminen yöllä

Tällä hetkellä Apple käyttää kuvien skannaus- ja täsmäytystekniikkaansa lasten hyväksikäytön etsimiseen, mutta tutkijat pelkäävät, että tulevaisuudessa sitä voidaan mukauttaa etsimään muita enemmän huolestuttavia kuvia, kuten hallituksen vastaisia ​​kylttejä protesteja.

Tweettien sarjassa Johns Hopkinsin kryptografiatutkija Matthew Green sanoi, että CSAM-skannaus on 'todella huono idea', koska se voisi tulevaisuudessa laajentaa skannaamaan päästä päähän salattuja valokuvia pelkän ‌iCloudiin‌in ladatun sisällön sijaan. Lapsille Apple On ottaa käyttöön erillisen skannausominaisuuden, joka etsii seksuaalista sisältöä suoraan iMessagesista, jotka ovat päästä päähän -salattuja.

Green ilmaisi myös huolensa tiivisteistä, joita Apple aikoo käyttää, koska siellä saattaa olla 'törmäyksiä', joissa joku lähettää vaarattoman tiedoston, joka jakaa hajautusarvon CSAM:n kanssa ja voi johtaa väärään liputukseen.

Apple puolestaan ​​sanoo, että sen skannausteknologialla on 'erittäin korkea tarkkuus' varmistaakseen, ettei tilejä ole merkitty väärin, ja raportit tarkistetaan manuaalisesti ennen kuin henkilön ‌iCloud‌ tili poistetaan käytöstä ja raportti lähetetään NCMEC:lle.

Green uskoo, että Applen käyttöönotto pakottaa muut teknologiayritykset ottamaan käyttöön samanlaisia ​​tekniikoita. 'Tämä rikkoo padon', hän kirjoitti. 'Hallitukset vaativat sitä kaikilta.' Hän vertasi tekniikkaa 'välineisiin, joita sortohallitukset ovat käyttäneet'.


Tietoturvatutkija Alec Muffett, joka työskenteli aiemmin Facebookissa, sanoi, että Applen päätös ottaa käyttöön tällainen kuvaskannaus oli 'valtava ja regressiivinen askel yksilön yksityisyyden kannalta'. 'Apple kävelee takaisin yksityisyyteen mahdollistaakseen vuoden 1984', hän sanoi.

Cambridgen yliopiston turvallisuustekniikan professori Ross Anderson sanoi, että se on 'täysin kauhistuttava idea', joka voisi johtaa laitteiden 'hajautettuun joukkovalvontaan'.

Kuten monet ovat huomauttaneet Twitterissä, useat teknologiayritykset tekevät jo kuvien skannausta CSAM:ia varten. Google, Twitter, Microsoft, Facebook ja muut käyttävät kuvien hajautusmenetelmiä etsiäkseen ja ilmoittaakseen tunnettuja kuvia lasten hyväksikäytöstä.


On myös syytä huomata, että Apple oli jo skannata jotain sisältöä lasten hyväksikäyttökuville ennen uuden CSAM-aloitteen käyttöönottoa. Vuonna 2020 Applen tietosuojavastaava Jane Horvath sanoi, että Apple käytti seulontatekniikkaa etsiäkseen laittomia kuvia ja poistaa sitten tilit käytöstä, jos todisteita CSAM:sta havaitaan.

kuinka tarkistaa powerbeats pron lataus

Apple vuonna 2019 päivitti tietosuojakäytäntönsä Huomaa, että se tarkistaisi ladatun sisällön 'mahdollisesti laittoman sisällön, mukaan lukien lasten seksuaaliseen hyväksikäyttöön liittyvän materiaalin' varalta, joten tämänpäiväiset ilmoitukset eivät ole täysin uusia.

Huomautus: Tätä aihetta koskevan keskustelun poliittisen tai sosiaalisen luonteen vuoksi keskusteluketju sijaitsee osoitteessamme Poliittiset uutiset foorumi. Kaikki foorumin jäsenet ja sivuston vierailijat ovat tervetulleita lukemaan ja seuraamaan viestiketjua, mutta lähettäminen on rajoitettu foorumin jäsenille, joilla on vähintään 100 viestiä.

Tunnisteet: Applen tietosuoja , Applen lasten turvaominaisuudet