Volgens geloofwaardige rapporten is Apple van plan om software op iPhones in de Verenigde Staten te installeren die automatisch lokale foto’s scant op afbeeldingen van kindermisbruik. Apple zal naar verluidt alleen foto’s scannen die met deze technologie naar iCloud zijn geüpload, in ieder geval in het begin.
Bijwerken: Apple heeft veel van deze berichtgeving in een gedetailleerd document bevestigd.
Wat doet Apple?
De rapporten over de plannen van Apple zijn afkomstig van The Financial Times en Johns Hopkins University Professor Matthew Groen, beide over het algemeen betrouwbare bronnen. Natuurlijk, totdat Apple bevestigt dat dit het geval is, is er altijd een kans dat dit niet gebeurt. Naar verluidt heeft Apple het plan eerder deze week aan enkele Amerikaanse academici gedemonstreerd.
Ik heb van meerdere mensen onafhankelijke bevestiging gekregen dat Apple morgen een client-side tool voor CSAM-scanning uitbrengt. Dit is een heel slecht idee.
— Matthew Groen (@matthew_d_green) 4 augustus 2021
Volgens de rapporten zal Apple een systeem gebruiken dat het ‘neuralMatch’ noemt om Amerikaanse iPhones te scannen op beelden van kindermisbruik.
In wezen zou een geautomatiseerd systeem een team van menselijke beoordelaars waarschuwen als het denkt dat er illegale beelden worden gedetecteerd. Van daaruit zou een lid van het team de beelden bekijken en contact opnemen met de politie.
Technisch gezien is dit niets nieuws: cloudgebaseerde foto-opslagsystemen en sociale netwerken doen dit soort scans al. Het verschil hier is dat Apple het op apparaatniveau doet. Volgens Matthew Green zal het in eerste instantie alleen foto’s scannen die zijn geüpload naar iCloud, maar het zou die scan uitvoeren op de telefoon van de gebruiker. “Aanvankelijk” is daar het sleutelwoord, omdat het heel goed zou kunnen worden gebruikt om op een gegeven moment alle foto’s lokaal te scannen.
Dit zou het systeem minder invasief moeten maken, omdat het scannen via de telefoon wordt gedaan en alleen wordt teruggestuurd als er een overeenkomst is, wat betekent dat niet elke foto die je uploadt door vreemden wordt bekeken.
Volgens degenen op de briefing krijgt elke foto die naar iCloud wordt geüpload een “veiligheidsvoucher”, waarop staat of deze verdacht is of niet. Wanneer een bepaald aantal foto’s als verdacht wordt gemarkeerd, zal Apple ze decoderen en naar de autoriteiten sturen als er iets wordt gevonden dat te maken heeft met kindermisbruik.
Hoe maakt het systeem onderscheid tussen afbeeldingen van kindermishandeling en andere afbeeldingen? Volgens het rapport is het getest op 200.000 afbeeldingen van seksueel misbruik die zijn verzameld door het Amerikaanse non-profit National Center for Missing and Exploited Children.
Afbeeldingen worden door middel van hashing omgezet in een reeks getallen en vervolgens vergeleken met de afbeeldingen in de database.
Nadat dit allemaal naar buiten was gekomen, weigerde Apple commentaar te geven op de Financial Times over wat er aan de hand was. We gaan er echter van uit dat het bedrijf aan een officiële verklaring werkt voordat de berichten over deze stap uit de hand lopen.
Dit schept een gevaarlijk precedent
We hoeven je waarschijnlijk niet te vertellen hoe eng dit kan zijn. Mensen die kinderen misbruiken, moeten worden gepakt en gestraft, maar het is gemakkelijk in te zien hoe zoiets voor veel ingrijpender doeleinden kan worden gebruikt.
Zal vergelijkbare technologie worden uitgerold op andere platforms, zoals Macs, Windows-pc’s en Android-telefoons? Kunnen landen als China het gebruiken om subversieve beelden op de telefoons van hun burgers te detecteren? Als het algemeen geaccepteerd wordt, kan de auteursrechtindustrie het dan gebruiken om binnen een paar jaar te gaan scannen op illegale inhoud?
En zelfs als het werkt zoals geadverteerd: zullen onschuldige mensen in het kruisvuur terechtkomen?
Hopelijk is dit niet zo zorgwekkend als het lijkt.