Compensatie Voor Het Sterrenbeeld
Substability C Beroemdheden

Ontdek De Compatibiliteit Door Zodiac Sign

Uitgelegd: hoe Apple scant op afbeeldingen van kinderuitbuiting op apparaten en waarom dit de wenkbrauwen doet fronsen

De functies, die naar verwachting in eerste instantie live gaan in de Verenigde Staten, omvatten het gebruik van nieuwe technologie om de verspreiding van CSAM online te beperken, met name via het Apple-platform.

In een blogpost legde Apple uit dat het cryptografie-applicaties via iOS en iPadOS zal gebruiken om bekende CSAM-afbeeldingen te matchen die zijn opgeslagen op iCloud Photo.

Apple heeft aangekondigd dat software-updates later dit jaar zullen nieuwe functies brengen dat zal helpen kinderen te beschermen tegen roofdieren die communicatiemiddelen gebruiken om hen te rekruteren en uit te buiten, en de verspreiding van materiaal voor seksueel misbruik van kinderen (CSAM) te beperken.





De functies, die naar verwachting in eerste instantie live gaan in de Verenigde Staten, omvatten het gebruik van nieuwe technologie om de verspreiding van CSAM online te beperken, met name via het Apple-platform.

Dan is er bescherming op het apparaat voor kinderen tegen het verzenden of ontvangen van gevoelige inhoud, met mechanismen om ouders te waarschuwen als de gebruiker jonger is dan 13 jaar. Apple zal ook ingrijpen wanneer Siri of Zoeken wordt gebruikt om CSAM-gerelateerde onderwerpen op te zoeken .



Welke technologie doet Apple om de verspreiding van CSAM online te voorkomen?

In een blogpost legde Apple uit dat het cryptografie-applicaties via iOS en iPadOS zal gebruiken om bekende CSAM-afbeeldingen te matchen die zijn opgeslagen op iCloud Photo. De technologie zal afbeeldingen op de iCloud van een gebruiker matchen met bekende afbeeldingen van kinderveiligheidsorganisaties. En dit wordt gedaan zonder de afbeelding daadwerkelijk te zien en alleen door te zoeken naar wat lijkt op een vingerafdrukmatch. Als er overeenkomsten zijn die een drempel overschrijden, zal Apple deze gevallen rapporteren aan het National Center for Missing and Exploited Children (NCMEC).

Apple verduidelijkte dat zijn technologie rekening houdt met de privacy van gebruikers, en daarom wordt de database getransformeerd in een onleesbare set hashes die veilig wordt opgeslagen op de apparaten van gebruikers. Het voegde eraan toe dat voordat een afbeelding naar iCloud wordt geüpload, het besturingssysteem deze zal vergelijken met de bekende CSAM-hashes met behulp van een cryptografische technologie die private set-intersectie wordt genoemd. Deze technologie zal ook een match bepalen zonder het resultaat te onthullen.



Op dit punt maakt het apparaat een cryptografische veiligheidsvoucher met het wedstrijdresultaat en aanvullende versleutelde gegevens en slaat deze op in iCloud met de afbeelding. Threshold-technologie voor het geheim delen zorgt ervoor dat deze vouchers niet door Apple kunnen worden geïnterpreteerd, tenzij het iCloud-foto's-account een drempel van bekende CSAM-inhoud overschrijdt. Deze drempel, zo beweerde de blog, is ingesteld om een ​​extreem hoog niveau van nauwkeurigheid te bieden en zorgt voor minder dan een kans van één op een biljoen per jaar dat een bepaald account onjuist wordt gemarkeerd. Het is dus onwaarschijnlijk dat een enkele afbeelding een waarschuwing activeert.



Maar als de drempel wordt overschreden, kan Apple de inhoud van de veiligheidsvouchers interpreteren en elk rapport handmatig controleren op een match, het account van de gebruiker uitschakelen en een rapport naar NCMEC sturen. Apple zei dat gebruikers in beroep kunnen gaan als ze denken dat ze ten onrechte zijn gemarkeerd.


Rick Steves trouwde

Hoe werken de andere functies?

De nieuwe communicatiebeveiliging van Apple voor Berichten vervaagt een gevoelig beeld en waarschuwt een kind voor de aard van de inhoud. Indien ingeschakeld vanaf de backend, kan het kind ook worden verteld dat zijn ouders zijn gewaarschuwd over het bericht dat ze hebben bekeken. Hetzelfde geldt als het kind besluit een gevoelig bericht te sturen. Apple zei dat Messages machine learning op het apparaat zal gebruiken om afbeeldingsbijlagen te analyseren en te bepalen of een foto seksueel expliciet is en dat Apple geen toegang krijgt tot de berichten. De functie komt als een update voor accounts die als families zijn ingesteld in iCloud voor de nieuwste versies van het besturingssysteem.
Met de update zullen Siri en Search, wanneer een gebruiker mogelijke CSAM-onderwerpen probeert op te zoeken, uitleggen waarom dit schadelijk en problematisch kan zijn. Gebruikers krijgen ook advies over het indienen van een melding over kinderuitbuiting als ze daarom vragen.



Ook in Uitgelegd| Uitgelegd: hoe en waarom Google kinderen online meer bescherming gaat bieden

Waarom doet Apple dit en wat zijn de zorgen die worden geuit?

Grote techbedrijven staan ​​al jaren onder druk om hard op te treden tegen het gebruik van hun platform voor uitbuiting van kinderen. Veel rapporten hebben in de loop der jaren onderstreept dat er niet genoeg werd gedaan om te voorkomen dat technologie CSAM-inhoud op grotere schaal beschikbaar maakte.

De aankondiging van Apple werd echter bekritiseerd en velen onderstreepten hoe dit precies het soort bewakingstechnologie is dat veel regeringen zouden willen hebben en graag misbruiken. Het feit dat dit afkomstig is van Apple, dat lange tijd de voorvechter van privacy is geweest, heeft velen verrast.



Ook hebben cryptografie-experts zoals Matthew Green van de Johns Hopkins University hun vrees geuit dat het systeem zou kunnen worden gebruikt om onschuldige mensen te framen en hen afbeeldingen te sturen die bedoeld zijn om de matches voor CSAM te activeren. Onderzoekers hebben dit vrij gemakkelijk kunnen doen, vertelde hij NPR, eraan toevoegend dat het mogelijk is om dergelijke algoritmen voor de gek te houden.

Maar The New York Times citeerde Erik Neuenschwander, chief privacy officer van Apple, die zei dat deze functies voor gewone gebruikers niets anders zullen betekenen.



Als je een verzameling CSAM-materiaal opslaat, ja, dat is slecht voor je, zei hij tegen de publicatie.

Nieuwsbrief| Klik om de beste uitleg van de dag in je inbox te krijgen

Hebben andere grote technologiebedrijven vergelijkbare technologieën?


hannah kous tattoo

Ja. In feite is Apple een relatief late nieuwkomer op het toneel, aangezien Microsoft, Google en Facebook wetshandhavingsinstanties hebben gewaarschuwd voor CSAM-afbeeldingen. Apple loopt achter omdat een dergelijke technologie in strijd zou zijn met zijn veelgeprezen toewijding aan gebruikersprivacy. Als gevolg hiervan kon Apple in 2020, toen Facebook 20,3 miljoen CSAM-overtredingen rapporteerde aan de NCMEC, slechts 265 gevallen melden, meldde The New York Times.

Het is pas nu dat het de technologische sweetspot heeft kunnen vinden om dit te doen zonder de reguliere gebruikers te beïnvloeden, of ze op zijn minst af te schrikken. Echter, zoals de aanvankelijke terugslag heeft aangetoond, is het nog steeds een koorddans.

Deel Het Met Je Vrienden: