Forklart: Hvordan Apple vil skanne etter bilder av utnyttelse av barn på enheter, og hvorfor det hever øyenbrynene
Forventet å gå live i USA til å begynne med, inkluderer funksjonene bruk av ny teknologi for å begrense spredningen av CSAM på nettet, spesielt via Apple-plattformen.

Apple har annonsert det programvareoppdateringer senere i år vil bringe nye funksjoner som vil bidra til å beskytte barn mot rovdyr som bruker kommunikasjonsverktøy for å rekruttere og utnytte dem, og begrense spredningen av materiale for seksuelle overgrep mot barn (CSAM).
Forventet å gå live i USA til å begynne med, inkluderer funksjonene bruk av ny teknologi for å begrense spredningen av CSAM på nettet, spesielt via Apple-plattformen.
Deretter vil det være beskyttelse på enheten for barn fra å sende eller motta sensitivt innhold, med mekanismer for å varsle foreldre i tilfelle brukeren er under 13 år. Apple vil også gripe inn når Siri eller Search brukes til å slå opp CSAM-relaterte emner .
Hvilken teknologi gjør Apple for å hindre spredning av CSAM på nettet?
I et blogginnlegg forklarte Apple at de vil bruke kryptografiapplikasjoner via iOS og iPadOS for å matche kjente CSAM-bilder lagret på iCloud Photo. Teknologien vil matche bilder på en brukers iCloud med kjente bilder levert av barnesikkerhetsorganisasjoner. Og dette gjøres uten å faktisk se bildet og kun ved å se etter det som er som en fingeravtrykksmatch. I tilfelle det er kamper som krysser en terskel, vil Apple rapportere disse tilfellene til National Center for Missing and Exploited Children (NCMEC).
Apple presiserte at teknologien deres holder brukernes personvern i tankene, og derfor blir databasen forvandlet til et uleselig sett med hashes som er sikkert lagret på brukernes enheter. Den la til at før et bilde lastes opp til iCloud, vil operativsystemet matche det mot de kjente CSAM-hashene ved å bruke en kryptografisk teknologi kalt private set intersection. Denne teknologien vil også avgjøre en kamp uten å avsløre resultatet.
På dette tidspunktet oppretter enheten en kryptografisk sikkerhetskupong med kampresultatet og ekstra krypterte data og lagrer den til iClouds med bildet. Threshold secret delingsteknologi sikrer at disse kupongene ikke kan tolkes av Apple med mindre iCloud Photos-kontoen krysser en terskel for kjent CSAM-innhold. Denne terskelen, hevdet bloggen, er satt på plass for å gi et ekstremt høyt nivå av nøyaktighet og sikrer mindre enn én på én billion sjanse per år for feil flagging av en gitt konto. Så et enkelt bilde vil neppe utløse et varsel.
Men hvis terskelen overskrides, kan Apple tolke innholdet i sikkerhetskupongene og manuelt gjennomgå hver rapport for en kamp, deaktivere brukerens konto og sende en rapport til NCMEC. Apple sa at brukere vil kunne anke hvis de tror de har blitt feilaktig flagget.
jack svart nettoverdi
Hvordan fungerer de andre funksjonene?
Apples nye kommunikasjonssikkerhet for meldinger vil gjøre et sensitivt bilde uskarpt og advare et barn om innholdet. Hvis aktivert fra backend, kan barnet også bli fortalt at foreldrene deres har blitt varslet om meldingen de har sett. Det samme vil gjelde dersom barnet bestemmer seg for å sende en sensitiv melding. Apple sa at Messages vil bruke maskinlæring på enheten for å analysere bildevedlegg og avgjøre om et bilde er seksuelt eksplisitt og at Apple ikke vil få tilgang til meldingene. Funksjonen kommer som en oppdatering på kontoer som er satt opp som familier i iCloud for de nyeste operativsystemversjonene.
Med oppdateringen, når en bruker prøver å slå opp potensielle CSAM-emner, vil Siri og Search forklare hvorfor dette kan være skadelig og problematisk. Brukere vil også få veiledning om hvordan de skal rapportere om utnyttelse av barn hvis de ber om det.
| Forklart: Hvordan og hvorfor Google vil tilby mer beskyttelse til barn på nettet
Hvorfor gjør Apple dette, og hva er bekymringene?
Store teknologiselskaper har i årevis vært under press for å slå ned på bruken av deres plattform for utnyttelse av barn. Mange rapporter har i løpet av årene understreket hvordan nok ikke ble gjort for å stoppe teknologien fra å gjøre CSAM-innhold mer tilgjengelig.
Apples kunngjøring har imidlertid blitt møtt med kritikk, og mange har understreket hvordan dette er akkurat den typen overvåkingsteknologi mange regjeringer ønsker å ha og elsker å misbruke. At dette har kommet fra Apple, som lenge har vært personvernets vokter, har overrasket mange.
lyng mcdonalds mann
Også kryptografieksperter som Matthew Green fra Johns Hopkins University har uttrykt frykt for at systemet kan brukes til å ramme inn uskyldige mennesker som sender dem bilder ment å utløse kampene for CSAM. Forskere har vært i stand til å gjøre dette ganske enkelt, sa han til NPR, og la til at det er mulig å lure slike algoritmer.
Men The New York Times siterte Apples personvernsjef Erik Neuenschwander for å si at disse funksjonene ikke vil bety noe annerledes for vanlige brukere.
Hvis du lagrer en samling av CSAM-materiale, ja, dette er dårlig for deg, sa han til publikasjonen.
Nyhetsbrev| Klikk for å få dagens beste forklaringer i innboksen din
Har andre store teknologiselskaper lignende teknologier?
Ja. Faktisk er Apple en relativt sen aktør på scenen ettersom Microsoft, Google og Facebook har varslet rettshåndhevelsesbyråer om CSAM-bilder. Apple har ligget etter fordi enhver slik teknologi ville ha gått i strid med dens mye omtalte forpliktelse til brukernes personvern. Som et resultat, i 2020, da Facebook rapporterte 20,3 millioner CSAM-brudd til NCMEC, kunne Apple rapportere bare 265 tilfeller, rapporterte The New York Times.
Det er først nå den har vært i stand til å finne den teknologiske sweetspot for å gjøre dette uten å påvirke vanlige brukere, eller i det minste skremme dem. Imidlertid, som den første tilbakereaksjonen har vist, er det fortsatt et stramt løp.
Del Med Vennene Dine: