Uitgelegd: waarom Apple zijn software die scant op foto's van kindermishandeling uitstelt
Hoewel de stap wordt verwelkomd door kinderbeschermingsinstanties, heffen voorstanders van digitale privacy en branchegenoten rode vlaggen die suggereren dat de technologie brede gevolgen kan hebben voor de privacy van gebruikers.

Na kritiek van privacyvoorvechters en branchegenoten heeft Apple de lancering van zijn software uitgesteld foto's van kindermishandeling detecteren op iPhones. Het programma werd vorige maand aangekondigd en zou later dit jaar in de VS gelanceerd worden.
Wat is de software van Apple en hoe zou het hebben gewerkt?
Apple zei vorige maand dat het een tweeledig mechanisme zou uitrollen dat foto's op zijn apparaten scant om te controleren op inhoud die kan worden geclassificeerd als materiaal voor seksueel misbruik van kinderen (CSAM). Als onderdeel van het mechanisme zou Apple's tool neuralMatch controleren op foto's voordat ze worden geüpload naar iCloud - de cloudopslagservice - en de inhoud onderzoeken van berichten die via de end-to-end versleutelde iMessage-app worden verzonden. De Berichten-app zal machine learning op het apparaat gebruiken om te waarschuwen voor gevoelige inhoud, terwijl privécommunicatie onleesbaar blijft voor Apple, aldus het bedrijf.
neuralMatch vergelijkt de foto's met een database met beelden van kindermishandeling, en als er een vlag is, zal het personeel van Apple de beelden handmatig beoordelen. Zodra bevestigd is voor kindermishandeling, zal het National Center for Missing and Exploited Children (NCMEC) in de VS op de hoogte worden gebracht.
Wat waren de zorgen?
Hoewel de stap wordt verwelkomd door kinderbeschermingsinstanties, heffen voorstanders van digitale privacy en branchegenoten rode vlaggen die suggereren dat de technologie brede gevolgen kan hebben voor de privacy van gebruikers. Er wordt aangenomen dat het bijna onmogelijk is om een scansysteem aan de clientzijde te bouwen dat alleen wordt gebruikt voor seksueel expliciete afbeeldingen die door kinderen worden verzonden of ontvangen, zonder dat dergelijke software wordt aangepast voor ander gebruik. De aankondiging had opnieuw de aandacht gevestigd op regeringen en wetshandhavingsinstanties die op zoek waren naar een achterdeur naar versleutelde diensten. Will Cathcart, hoofd van de end-to-end versleutelde berichtenservice WhatsApp, had gezegd: Dit is een door Apple gebouwd en beheerd bewakingssysteem dat heel gemakkelijk kan worden gebruikt om privé-inhoud te scannen op alles wat zij of een regering besluit te controleren. Landen waar iPhones worden verkocht, hebben verschillende definities van wat acceptabel is.
| Als de volgende iPhone satellietverbinding heeft, is dit de technologie die Apple zal gebruikenWaarom is Apple teruggevallen?
In een verklaring zei Apple dat het meer tijd zou kosten om feedback te verzamelen en de voorgestelde kinderveiligheidsfuncties te verbeteren na de kritiek op het systeem op privacy- en andere gronden, zowel binnen als buiten het bedrijf.
Op basis van feedback van klanten, belangengroepen, onderzoekers en anderen hebben we besloten om de komende maanden extra tijd te nemen om input te verzamelen en verbeteringen aan te brengen voordat deze uiterst belangrijke veiligheidsfuncties voor kinderen worden vrijgegeven.
Volgens Reuters was Apple al weken bezig met het verdedigen van het plan en had het al een reeks verklaringen en documenten aangeboden om aan te tonen dat de risico's van valse detecties laag waren.
grrm netto waarde
Nieuwsbrief| Klik om de beste uitleg van de dag in je inbox te krijgen
Deel Het Met Je Vrienden: