Une patate chaude : Apple a révélé son intention d’analyser tous les iPhones et comptes iCloud aux États-Unis à la recherche de matériel pédopornographique (CSAM). Bien que le système puisse bénéficier aux enquêtes criminelles et ait été salué par les groupes de protection de l’enfance, des inquiétudes subsistent quant aux implications potentielles en matière de sécurité et de confidentialité.
Le système neuralMatch numérisera chaque image avant il est téléchargé sur iCloud aux États-Unis à l’aide d’un processus de correspondance sur l’appareil. S’il pense que des images illégales sont détectées, une équipe d’examinateurs humains sera alertée. Si la maltraitance des enfants est confirmée, le compte de l’utilisateur sera désactivé et le Centre national américain pour les enfants disparus et exploités en sera informé.
NeuralMatch a été formé à l’aide de 200 000 images du National Center for Missing & Exploited Children. Il ne signalera que les images avec des hachages qui correspondent à ceux de la base de données, ce qui signifie qu’il ne devrait pas identifier de matériel innocent.
« La méthode d’Apple pour détecter les CSAM connus est conçue en tenant compte de la confidentialité des utilisateurs. Au lieu de numériser les images dans le cloud, le système effectue une correspondance sur l’appareil à l’aide d’une base de données de hachages d’images CSAM connus fournie par le NCMEC et d’autres organisations de sécurité des enfants. Apple transforme davantage cette base de données en un ensemble illisible de hachages qui est stocké en toute sécurité sur les appareils des utilisateurs », lit-on sur le site Web de l’entreprise. Il note que les utilisateurs peuvent faire appel pour que leur compte soit rétabli s’ils estiment qu’il a été signalé par erreur.
Apple vérifie déjà les fichiers iCloud par rapport aux images d’abus d’enfants connues, mais l’étendre au stockage local a des implications inquiétantes. Matthieu Vert, un chercheur en cryptographie à l’Université Johns Hopkins, prévient que le système pourrait être utilisé pour rechercher d’autres fichiers, tels que ceux qui identifient les dissidents du gouvernement. “Que se passe-t-il lorsque le gouvernement chinois dit : ‘Voici une liste de fichiers que nous voulons que vous numérisiez'”, a-t-il demandé. “Est-ce qu’Apple dit non ? J’espère qu’ils disent non, mais leur technologie ne dira pas non.”
Cela me dérange qu’un groupe de mes collègues, des gens que je connais et que je respecte, n’aient pas l’impression que ces idées sont acceptables. Qu’ils veulent consacrer leur temps et leur formation à faire en sorte que ce monde ne puisse plus jamais exister.
– Matthew Green (@matthew_d_green) 5 août 2021
De plus, Apple prévoit d’analyser les messages cryptés des utilisateurs à la recherche de contenu sexuellement explicite en tant que mesure de sécurité pour les enfants. L’application Messages ajoutera de nouveaux outils pour avertir les enfants et leurs parents lors de la réception ou de l’envoi de photos sexuellement explicites. Mais Green a également déclaré que quelqu’un pourrait tromper le système en lui faisant croire qu’une image inoffensive est CSAM. « Les chercheurs ont pu le faire assez facilement », a-t-il déclaré. Cela pourrait permettre à un acteur malveillant de piéger quelqu’un en envoyant une image apparemment normale qui déclenche le système d’Apple.
« Quels que soient les plans à long terme d’Apple, ils ont envoyé un signal très clair. À leur avis (très influent), il est prudent de créer des systèmes qui analysent les téléphones des utilisateurs à la recherche de contenu interdit », a ajouté Green. « Qu’ils aient raison ou tort sur ce point importe peu. Cela brisera le barrage – les gouvernements l’exigeront de tout le monde.
Les nouvelles fonctionnalités arrivent sur iOS 15, iPadOS 15, MacOS Monterey et WatchOS 8, qui seront tous lancés cet automne.
Crédit générique : NYC Russ