En 2021, Apple a annoncé un certain nombre de nouvelles fonctionnalités de sécurité pour lutter contre la pédopornographie, y compris la détection améliorée du contenu de matériel pédopornographique (CSAM) dans iCloud qui permettrait de scanner les photos. Cette décision a été largement critiquée en raison de problèmes de confidentialité. Après avoir reporté son plan, Apple confirme à présent qu’il a mis fin au déploiement de ce système.
Voici ce qu’Apple déclare dans un communiqué :
« Après une vaste consultation d’experts visant à recueillir des commentaires sur les initiatives de protection de l’enfance que nous avons proposées l’année dernière, nous approfondissons notre investissement dans la fonction de la sécurité des communications que nous avons mise à disposition pour la première fois en décembre 2021. Nous avons en outre décidé de ne pas aller de l’avant avec l’outil de détection CSAM proposé précédemment pour les photos iCloud. Les enfants peuvent être protégés sans que les entreprises passent au peigne fin les données personnelles, et nous continuerons à travailler avec les gouvernements, les défenseurs des enfants et d’autres entreprises pour aider à protéger les jeunes, à préserver leur droit à la vie privée et à faire d’Internet un endroit plus sûr pour les enfants et pour nous tous. »
Pour aller plus loin :
- Pour combattre la pédopornographie, Apple va scanner les photos des utilisateurs
- Pédopornographie : Apple analyse déjà les e-mail iCloud depuis 2019, mais pas les photos iCloud
- Apple reporte l’analyse de photos des utilisateurs pour lutter contre la pédopornographie