Hier soir, Apple a annoncé qu’il analyserait les iPhones aux États-Unis pour Matériel d’abus sexuel d’enfants (CSAM). Dans le cadre de cette initiative, la société s’associe au gouvernement et apporte des modifications à iCloud, iMessage, Siri et Search.
Cependant, les experts en sécurité s’inquiètent de la surveillance et des risques de fuites de données. Avant de jeter un œil à ces préoccupations, comprenons, que fait exactement Apple ?
Comment Apple envisage-t-il de scanner les iPhones pour les images CSAM ?
Un grand nombre de fonctionnalités pour la numérisation CSAM repose sur des images d’empreintes digitales fournies par le Centre national pour les enfants disparus et exploités (NCMEC).
Apple analysera vos photos iCloud et les regardera avec la base de données NCMEC pour détecter s’il y a des images CSAM. Maintenant, l’entreprise ne fait pas vraiment cela sur le cloud, mais elle exécute ces actions sur votre appareil. Il indique qu’avant qu’une image ne soit envoyée au stockage iCloud, l’algorithme effectuera une vérification par rapport aux hachages CSAM connus.
Lorsqu’une photo est téléchargée sur iCloud, Apple crée un bon de sécurité cryptographique qui est stocké avec lui. Le bon contient des détails pour déterminer si l’image correspond aux hachages CSAM connus. Désormais, le géant de la technologie ne connaîtra pas ces détails, à moins que le nombre d’images CSAM sur votre compte iCloud ne dépasse un certain montant.
Gardez à l’esprit que si vous avez désactivé la synchronisation iCloud sur votre téléphone, l’analyse ne fonctionnera pas.
Pour iMessage, Apple effectuera une analyse et floutera les images CSAM. De plus, lorsqu’un enfant voit une telle image, les parents reçoivent une notification à ce sujet, afin qu’ils puissent prendre les mesures appropriées.
Si un enfant essaie d’envoyer une telle image, il sera averti, et s’il va de l’avant, une notification sera envoyée aux parents.
Il est important de noter que la notification parentale ne sera envoyée que si l’enfant a moins de 13 ans. Les adolescents âgés de 13 à 17 ans ne recevront une notification d’avertissement que sur leur propre téléphone.
La société peaufine également Siri et Search pour fournir des ressources supplémentaires liées au CSAM aux parents et aux enfants. De plus, si quelqu’un effectue des recherches liées au CSAM, Siri peut intervenir et l’avertir du contenu.

De quoi les experts s’inquiètent-ils ?
Toutes les fonctionnalités d’Apple semblent être destinées à aider à arrêter CSAM, et cela semble être une bonne chose sur le papier.
Cependant, l’organisation de droits numériques Electronic Frontier Foundation (EFF) a critiqué Apple dans un article et a noté que la mise en œuvre de la société ouvre des portes dérobées potentielles dans un système de cryptage par ailleurs robuste.
“Dire que nous sommes déçus par les plans d’Apple est un euphémisme », a ajouté l’EFF. L’organisation a souligné que la recherche de contenu à l’aide d’une base de données prédéfinie pouvait conduire à des cas d’utilisation dangereux. Par exemple, dans un pays où l’homosexualité est un crime, le gouvernement « pourrait exiger que le classificateur soit formé pour restreindre le contenu LGBTQ+ apparent ».
Edward Snowden a fait valoir qu’Apple déploie un outil de surveillance de masse et qu’ils peuvent rechercher n’importe quoi sur votre téléphone demain.
Peu importe à quel point il est bien intentionné, @Pomme déploie la surveillance de masse dans le monde entier avec cela. Ne vous y trompez pas : s’ils peuvent rechercher du porno pour enfants aujourd’hui, ils peuvent rechercher n’importe quoi demain.
Ils ont transformé un billion de dollars d’appareils en iNarcs—*sans demander.* https://t.co/wIMWijIjJk
-Edward Snowden (@Snowden) 6 août 2021
Matthieu Vert, professeur de sécurité à l’Université Johns Hopkins, a déclaré que les personnes qui contrôlent la liste des images mises en correspondance pour la numérisation ont trop de pouvoir. Les gouvernements du monde entier ont demandé à diverses entreprises de fournir des portes dérobées au contenu crypté. Green a noté que la démarche d’Apple « brisera le barrage – les gouvernements l’exigeront de tout le monde ».
La théorie est que vous ferez confiance à Apple pour n’inclure que de très mauvaises images. Dites, images organisées par le Centre national pour les enfants disparus et exploités (NCMEC). Vous feriez mieux de leur faire confiance, car la confiance est tout ce que vous avez.
– Matthew Green (@matthew_d_green) 5 août 2021
Si vous voulez en savoir plus sur les raisons pour lesquelles les gens devraient poser plus de questions, le chercheur David Theil a un fil sur détection de sextage. De plus, l’ancien CSO de Facebook Alex Stamos, chercheur à Stanford Riana Pfefferkorn, avec Theil et Green ont une discussion d’une heure sur Youtube sur le sujet.
Fonctionnalités d’Apple pour CSAM arriveront plus tard cette année dans les mises à jour d’iOS 15, iPadOS 15, watchOS 8 et macOS Monterey. Cependant, il sera dans l’intérêt de l’entreprise de répondre aux diverses préoccupations soulevées par les chercheurs en sécurité et les experts juridiques.
L’entreprise s’est ralliée à sa position ferme sur la confidentialité depuis des années maintenant. Maintenant que l’entreprise est sous pression pour avoir pris une mesure prétendument anti-vie privée, elle doit discuter avec des experts et réparer ce système. De plus, Apple devra être transparent sur les performances de ces systèmes.
Nous avons eu de nombreux exemples de technologies comme la reconnaissance faciale qui ont mal tourné et des personnes innocentes accusées de crimes qu’elles n’ont jamais commis. Nous n’avons pas besoin de plus de cela.