Pédopornographie : Apple analyse déjà les e-mail iCloud depuis 2019, mais pas les photos iCloud

Par Marc Olivier Telfort , le 23 août 2021 , mis à jour le 23 août 2021 — app Photos, enfant, enfants, iCloud Photos, iOS 15, iPadOS 15, macOS 12, macOS Monterey, Photos, Photos iCloud, Porno, pornographie - 3 minutes de lecture

email icloud 1000x650 Pédopornographie : Apple analyse déjà les e mail iCloud depuis 2019, mais pas les photos iCloud

Apple a récemment annoncé qu’il va scanner les photos iCloud des utilisateurs afin de lutter contre la pédopornographie (lire : Pour combattre la pédopornographie, Apple va scanner les photos des utilisateurs). Ce système sera mis en place avec iOS 15, iPadOS 15, watchOS 8 et macOS 12 Monterey. Mais aujourd’hui, nous savons que le constructeur il analyse déjà les e-mails iCloud, plus exactement les pièces jointes, afin de déceler du contenu en rapport avec la pédopornographie ; Apple avoue qu’il pratique cela depuis 2019.

Apple analyse les e-mails iCloud

Le fabricant d’iPhone a bel et bien confirmé au site 9to5Mac qu’il analyse les e-mails iCloud sortants et entrants des utilisateurs, plus exactement les pièces jointes pour détecter du contenu en rapport avec la pédopornographie, depuis 2019. Les e-mails iCloud ne sont pas cryptés, donc l’analyse des pièces jointes lorsque le courrier passe par les serveurs Apple serait une tâche plus ou moins triviale pour la société de déceler ces types de contenus.

Apple a également indiqué qu’il effectue une analyse limitée « d’autres données ». Cependant, le groupe ne partage pas plus d’informations sur ces données, mais suggère que c’était à petite échelle tout en assurant que les « autres données » n’incluent pas les photos iCloud (pour le moment) ni les sauvegardes iCloud.

Ce système qui permet de détecter de la pédopornographie dans les e-mails iCloud est le même qui sera utilisé par Apple sur iOS 15 (iPadOS 15, watchOS 8 et macOS Monterey) pour les photos. Apple utilise le hash de chaque contenu dans le souci de faire une comparaison avec une base de données qui recense du contenu pédopornographique. Alors, si Apple décèle un contenu qui correspond aux données, il prend des mesures pour prévenir les autorités concernées et signaler l’utilisateur.

Il faut mentionner qu’Apple n’est pas le seul ni le premier groupe à faire une analyse des photos au niveau de ses serveurs pour détecter du contenu pédopornograpique. En effet, Google et Microsoft l’ont fait il y a des années maintenant avec les photos. Par contre, le cas d’Apple avec iOS 15 (iPadOS 15, watchOS 8 et macOS 12 Monterey) a provoqué toute une controverse parce que l’analyse des photos se fera directement sur l’iPhone des utilisateurs. Car pour certains, Apple pourrait être en mesure d’analyser d’autres contenus à l’avenir et ils évoquent un backdoor (porte dérobée).

Marc Olivier Telfort

Amoureux de l'informatique, de la psychologie et plus généralement de l'high-tech. Je suis rédacteur chez appsystem.fr et app4phone.fr. Fan inconditionnel des produits Apple, j'essaye de transmettre ma passion au travers de mes publications.

Commentaires

Laisser un commentaire

Votre commentaire sera révisé par les administrateurs si besoin.