Kompensasjon For Stjernetegn
Betydende C -Kjendiser

Finn Ut Kompatibilitet Med Stjernetegn

Forklart: Hvorfor Apple utsetter programvaren sin som skanner etter bilder av overgrep mot barn

Mens flyttingen blir ønsket velkommen av barnevernsbyråer, hever talsmenn for digitalt personvern og bransjekolleger røde flagg som antyder at teknologien kan ha bredbaserte konsekvenser for brukernes personvern.

På dette filbildet er Apple-logoen opplyst i en butikk i sentrum av München, Tyskland (AP)

Etter kritikk fra personvernforkjempere og bransjekolleger, har Apple forsinket lanseringen av sin programvare som ville oppdage fotografier som viser overgrep mot barn på iPhones. Programmet ble annonsert i forrige måned og skulle lanseres i USA senere i år.





Hva er Apples programvare og hvordan ville det ha fungert?

Apple sa i forrige måned at de ville rulle ut en todelt mekanisme som skanner fotografier på enhetene sine for å se etter innhold som kan klassifiseres som materiale for seksuelle overgrep mot barn (CSAM). Som en del av mekanismen vil Apples verktøy neuralMatch se etter bilder før de lastes opp til iCloud – skylagringstjenesten – og undersøke innholdet i meldinger sendt på dens ende-til-ende krypterte iMessage-app. Meldinger-appen vil bruke maskinlæring på enheten for å advare om sensitivt innhold mens privat kommunikasjon holdes uleselig for Apple, sa selskapet.

neuralMatch sammenligner bildene med en database med bilder av overgrep mot barn, og når det er et flagg, vil Apples ansatte gjennomgå bildene manuelt. Når det er bekreftet for overgrep mot barn, vil National Center for Missing and Exploited Children (NCMEC) i USA bli varslet.



Hva var bekymringene?

Mens flyttingen blir ønsket velkommen av barnevernsbyråer, hever talsmenn for digitalt personvern og bransjekolleger røde flagg som antyder at teknologien kan ha bredbaserte konsekvenser for brukernes personvern. Det antas at det er nesten umulig å bygge et skanningssystem på klientsiden som bare brukes til seksuelt eksplisitte bilder sendt eller mottatt av barn, uten at en slik programvare blir tilpasset for annen bruk. Kunngjøringen hadde nok en gang satt søkelyset på regjeringer og rettshåndhevende myndigheter som søker en bakdør til krypterte tjenester. Will Cathcart, leder for ende-til-ende kryptert meldingstjeneste WhatsApp, hadde sagt: Dette er et Apple-bygd og operert overvåkingssystem som veldig enkelt kan brukes til å skanne privat innhold for alt de eller en regjering bestemmer seg for å kontrollere. Land der iPhones selges, vil ha forskjellige definisjoner på hva som er akseptabelt.

Også i Forklart| Hvis neste iPhone har satellitttilkobling, er dette teknologien Apple vil bruke

Hvorfor har Apple gått tilbake?

I en uttalelse sa Apple at det ville ta mer tid å samle tilbakemeldinger og forbedre foreslåtte barnesikkerhetsfunksjoner etter kritikken av systemet på personvern og andre grunner både i og utenfor selskapet.



Basert på tilbakemeldinger fra kunder, fortalergrupper, forskere og andre, har vi bestemt oss for å bruke ekstra tid i løpet av de kommende månedene for å samle inn innspill og gjøre forbedringer før vi slipper disse kritisk viktige barnesikkerhetsfunksjonene, heter det.

Ifølge Reuters hadde Apple spilt forsvar på planen i flere uker og hadde allerede tilbudt en rekke forklaringer og dokumenter for å vise at risikoen for falske oppdagelser var lav.




giada de laurentiis nettoverdi

Nyhetsbrev| Klikk for å få dagens beste forklaringer i innboksen din

Del Med Vennene Dine: