Management

Software-ontwikkeling
apple

Apple verwijdert stilletjes details over omstreden kinderporno-detectie

Apple ontkent dat plannen geannuleerd zijn.

© CC BY 2.0 - Flickr Håkan Dahlström
16 december 2021

Apple ontkent dat plannen geannuleerd zijn.

Apple heeft informatie over de controversiële detectiefunctie voor kinderporno in iCloud verwijderd. De iPhone-maker heeft de functie in augustus aangekondigd, maar is toen al snel overstelpt met kritiek. Officieel houdt het bedrijf nog vast aan zijn plannen voor dit gevoelige onderwerp.

The Verge schrijft dat de aanpassing ergens tussen 10 en 13 december gebeurd is. Apple stelt in een reactie echter dat de plannen voor de functie niet zijn veranderd. Twee van de drie veiligheidsfuncties zijn nog steeds aanwezig op de webpagina waar de kindveiligheidsfuncties staan beschreven. De informatie over de detectiefunctie, waar privacy-voorvechters veel kritiek op hadden, is niet meer te vinden.

Wel/niet detecteren en aangeven

Volgens the Verge heeft Apple “kennelijk besloten” om klanten niet te dwingen software voor het detecteren van zedenmisdrijven op hun iPhones te gebruiken. Daarmee zou Apple dan ook niet langer van plan zijn om mensen met illegale afbeeldingen van kindermisbruik (controversial child sexual abuse material, CSAM) in hun iCloud-opslag aan te geven bij de autoriteiten.

Apple-woordvoerder Shane Bauer laat aan The Verge weten dat de positie van het bedrijf niet is veranderd sinds september. Toen kondigde Apple voor het eerst aan dat het de lancering van de CSAM-detectie zou worden uitgesteld. "Op basis van feedback van klanten, belangengroepen, onderzoekers en anderen hebben we besloten de komende maanden extra tijd te nemen om input te verzamelen en verbeteringen aan te brengen voordat we deze zeer belangrijke veiligheidsfuncties voor kinderen vrijgeven.”

Ouderlijk toezicht

Het CSAM-detectieschema van Apple veroorzaakte eerder nog een stortvloed aan kritiek. Onder meer omdat LGBTQ+ jongeren met intolerante ouders door zo'n functie gevaar lopen. Daarnaast zouden de algoritmes nooit 100% betrouwbaar kunnen werken en onder meer kunst, gezondheidsinformatie en educatie als porno kunnen aanmerken.

In september gaf Apple aan dat het bedrijf na feedback van klanten, rechtenorganisaties en onderzoekers meer tijd zal nemen om de software te verbeteren. Hoe lang dat precies gaat duren is niet duidelijk, maar Apple stelde "de komende maanden" bezig te zijn met het beter afstellen van de technologie. 

Lees meer over
Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.