Overslaan en naar de inhoud gaan

Apple verwijdert stilletjes details over omstreden kinderporno-detectie

Apple heeft informatie over de controversiële detectiefunctie voor kinderporno in iCloud verwijderd. De iPhone-maker heeft de functie in augustus aangekondigd, maar is toen al snel overstelpt met kritiek. Officieel houdt het bedrijf nog vast aan zijn plannen voor dit gevoelige onderwerp.
Apple Store
© CC BY 2.0 - Flickr
CC BY 2.0 - Flickr

The Verge schrijft dat de aanpassing ergens tussen 10 en 13 december gebeurd is. Apple stelt in een reactie echter dat de plannen voor de functie niet zijn veranderd. Twee van de drie veiligheidsfuncties zijn nog steeds aanwezig op de webpagina waar de kindveiligheidsfuncties staan beschreven. De informatie over de detectiefunctie, waar privacy-voorvechters veel kritiek op hadden, is niet meer te vinden.

Wel/niet detecteren en aangeven

Volgens the Verge heeft Apple “kennelijk besloten” om klanten niet te dwingen software voor het detecteren van zedenmisdrijven op hun iPhones te gebruiken. Daarmee zou Apple dan ook niet langer van plan zijn om mensen met illegale afbeeldingen van kindermisbruik (controversial child sexual abuse material, CSAM) in hun iCloud-opslag aan te geven bij de autoriteiten.

Apple-woordvoerder Shane Bauer laat aan The Verge weten dat de positie van het bedrijf niet is veranderd sinds september. Toen kondigde Apple voor het eerst aan dat het de lancering van de CSAM-detectie zou worden uitgesteld. "Op basis van feedback van klanten, belangengroepen, onderzoekers en anderen hebben we besloten de komende maanden extra tijd te nemen om input te verzamelen en verbeteringen aan te brengen voordat we deze zeer belangrijke veiligheidsfuncties voor kinderen vrijgeven.”

Ouderlijk toezicht

Het CSAM-detectieschema van Apple veroorzaakte eerder nog een stortvloed aan kritiek. Onder meer omdat LGBTQ+ jongeren met intolerante ouders door zo'n functie gevaar lopen. Daarnaast zouden de algoritmes nooit 100% betrouwbaar kunnen werken en onder meer kunst, gezondheidsinformatie en educatie als porno kunnen aanmerken.

In september gaf Apple aan dat het bedrijf na feedback van klanten, rechtenorganisaties en onderzoekers meer tijd zal nemen om de software te verbeteren. Hoe lang dat precies gaat duren is niet duidelijk, maar Apple stelde "de komende maanden" bezig te zijn met het beter afstellen van de technologie. 

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in