Kompensation For Stjernetegn
Subsity C Berømtheder

Find Ud Af Kompatibilitet Ved Hjælp Af Stjernetegn

Forklaret: Hvordan Apple vil scanne efter billeder af børneudnyttelse på enheder, og hvorfor det hæver øjenbrynene

Forventes at gå live i USA i første omgang, funktionerne inkluderer brug af ny teknologi til at begrænse spredningen af ​​CSAM online, især via Apple-platformen.

I et blogindlæg forklarede Apple, at det vil bruge kryptografiapplikationer via iOS og iPadOS til at matche kendte CSAM-billeder gemt på iCloud Photo.

Det har Apple meddelt softwareopdateringer senere i år vil bringe nye funktioner som vil hjælpe med at beskytte børn mod rovdyr, der bruger kommunikationsværktøjer til at rekruttere og udnytte dem, og begrænse spredningen af ​​materiale til seksuelt misbrug af børn (CSAM).





Forventes at gå live i USA i første omgang, funktionerne inkluderer brug af ny teknologi til at begrænse spredningen af ​​CSAM online, især via Apple-platformen.

Så vil der være beskyttelse på enheden for børn mod at sende eller modtage følsomt indhold med mekanismer til at advare forældre, hvis brugeren er under 13 år. Apple vil også gribe ind, når Siri eller Search bruges til at slå CSAM-relaterede emner op .



Hvilken teknologi gør Apple for at forhindre spredning af CSAM online?

I et blogindlæg forklarede Apple, at det vil bruge kryptografiapplikationer via iOS og iPadOS til at matche kendte CSAM-billeder gemt på iCloud Photo. Teknologien vil matche billeder på en brugers iCloud med kendte billeder leveret af børnesikkerhedsorganisationer. Og dette gøres uden egentlig at se billedet og kun ved at lede efter, hvad der ligner en fingeraftryksmatch. Hvis der er kampe, der krydser en tærskel, vil Apple rapportere disse tilfælde til National Center for Missing and Exploited Children (NCMEC).

Apple præciserede, at dets teknologi holder brugernes privatliv i tankerne, og derfor transformeres databasen til et ulæseligt sæt hashes, der er sikkert gemt på brugernes enheder. Det tilføjede, at før et billede uploades til iCloud, vil operativsystemet matche det med de kendte CSAM-hashes ved hjælp af en kryptografisk teknologi kaldet private set intersection. Denne teknologi vil også afgøre en kamp uden at afsløre resultatet.



På dette tidspunkt opretter enheden en kryptografisk sikkerhedsvoucher med kampresultatet og yderligere krypterede data og gemmer dem på iClouds med billedet. Threshold secret sharing-teknologi sikrer, at disse kuponer ikke kan fortolkes af Apple, medmindre iCloud Photos-kontoen krydser en tærskel for kendt CSAM-indhold. Denne tærskel, hævdede bloggen, er blevet sat på plads for at give et ekstremt højt niveau af nøjagtighed og sikrer mindre end én ud af én trillion chance om året for forkert markering af en given konto. Så et enkelt billede vil næppe udløse en advarsel.



Men hvis tærsklen overskrides, kan Apple fortolke indholdet af sikkerhedskuponerne og manuelt gennemgå hver rapport for en kamp, ​​deaktivere brugerens konto og sende en rapport til NCMEC. Apple sagde, at brugere vil kunne appellere, hvis de mener, at de er blevet fejlagtigt markeret.


nettoværdi ivana trump

Hvordan fungerer de andre funktioner?

Apples nye kommunikationssikkerhed til meddelelser vil sløre et følsomt billede og advare et barn om indholdets art. Hvis det er aktiveret fra backend, kan barnet også få at vide, at deres forældre er blevet advaret om den besked, de har set. Det samme gælder, hvis barnet beslutter sig for at sende en følsom besked. Apple sagde, at Messages vil bruge maskinlæring på enheden til at analysere vedhæftede billeder og afgøre, om et billede er seksuelt eksplicit, og at Apple ikke vil få adgang til beskederne. Funktionen kommer som en opdatering på konti, der er oprettet som familier i iCloud for de seneste versioner af operativsystemet.
Med opdateringen, når en bruger forsøger at slå potentielle CSAM-emner op, vil Siri og Search også forklare, hvorfor dette kan være skadeligt og problematisk. Brugere vil også få vejledning i, hvordan de indgiver en anmeldelse om udnyttelse af børn, hvis de beder om det.



Også i Forklaret| Forklaret: Hvordan og hvorfor Google vil tilbyde mere beskyttelse til børn online

Hvorfor gør Apple dette, og hvilke bekymringer bliver der rejst?

Store tech-virksomheder har i årevis været under pres for at slå ned på brugen af ​​deres platform til udnyttelse af børn. Mange rapporter har gennem årene understreget, hvordan der ikke blev gjort nok for at forhindre teknologi i at gøre CSAM-indhold tilgængeligt mere bredt.

Apples udmelding er dog blevet mødt med kritik, og mange har understreget, hvordan dette er præcis den slags overvågningsteknologi, mange regeringer gerne vil have og elske at misbruge. At dette er kommet fra Apple, som længe har været privatlivets vælgere, har overrasket mange.



Også kryptografieksperter som Matthew Green fra Johns Hopkins University har udtrykt frygt for, at systemet kunne bruges til at ramme uskyldige mennesker, der sender dem billeder, der har til formål at udløse kampene for CSAM. Forskere har været i stand til at gøre dette ret nemt, sagde han til NPR og tilføjede, at det er muligt at narre sådanne algoritmer.

Men The New York Times citerede Apples chief privacy officer Erik Neuenschwander for at sige, at disse funktioner ikke vil betyde noget anderledes for almindelige brugere.



Hvis du gemmer en samling af CSAM-materiale, ja, det er dårligt for dig, sagde han til publikationen.

Nyhedsbrev| Klik for at få dagens bedste forklaringer i din indbakke


hassel e etnicitet

Har andre store teknologivirksomheder lignende teknologier?

Ja. Faktisk er Apple en relativt sen deltager på scenen, da Microsoft, Google og Facebook har advaret retshåndhævende myndigheder om CSAM-billeder. Apple har haltet bagud, fordi enhver sådan teknologi ville være gået imod dens meget omtalte forpligtelse til brugernes privatliv. Som følge heraf kunne Apple i 2020, da Facebook rapporterede 20,3 millioner CSAM-overtrædelser til NCMEC, kun rapportere 265 tilfælde, rapporterede The New York Times.

Det er først nu, at det har været i stand til at finde det teknologiske sweetspot til at gøre dette uden at påvirke almindelige brugere eller i det mindste skræmme dem. Men som den indledende modreaktion har vist, er det stadig en gang på stram snor.

Del Med Dine Venner: