Pour combattre la pédopornographie, Apple va scanner les photos des utilisateurs

Par Marc Olivier Telfort , le 6 août 2021 , mis à jour le 9 août 2021 — app Photos, enfant, enfants, iCloud Photos, iOS 15, iPadOS 15, macOS 12, macOS Monterey, Photos, Photos iCloud, Porno, pornographie - 5 minutes de lecture

Apple macOS Monterey watchOS 8 iPadOS 15 iOS 15 Pour combattre la pédopornographie, Apple va scanner les photos des utilisateurs

Apple veut lutter contre la pédopornographie. Pour ce faire, la société annonce qu’il mettra très prochainement en application de nouvelles protections pour la sécurité des enfants au niveau d’iOS 15, d’iPadOS 15, de watchOS 8 et de macOS 12 Monterey.

Parmi ces nouvelles protections, nous retrouvons de nouvelles fonctionnalités de sécurité de communication dans Messages, une détection améliorée du contenu de matériel pédopornographique (CSAM) dans iCloud et des informations de connaissances mises à jour pour Siri et Recherche.

Sécurité de la communication dans Messages

Le constructeur indique qu’il va ajouter dans l’application Messages de nouveaux outils pour avertir les enfants et leurs parents lors de la réception ou de l’envoi de photos sexuellement explicites. À la réception de ce type de contenu, la photo sera floue et l’enfant sera averti et rassuré qu’il n’y a pas de problème s’il ne veut pas voir cette photo. Toutefois, si l’enfant appuie sur « Afficher la photo », il verra un message contextuel qui l’informe de la raison pour laquelle l’image est considérée comme sensible.

À titre de précaution supplémentaire, l’enfant peut également être informé que, pour s’assurer qu’il est en sécurité, ses parents recevront un message s’ils le voient. Des protections similaires sont également disponibles si un enfant tente d’envoyer des photos sexuellement explicites. Dans ce cas, l’enfant sera prévenu avant d’envoyer la photo et les parents pourront recevoir un message si l’enfant choisit de l’envoyer.

iMessage Message Images Sexuelles Lutte Apple Contre Pedopornographie Pour combattre la pédopornographie, Apple va scanner les photos des utilisateurs

Messages utilise l’apprentissage automatique sur l’appareil pour analyser les images jointes et déterminer si une photo est sexuellement explicite. Selon Apple, la fonctionnalité est conçue pour que la société n’ait pas accès aux messages.

Cette fonctionnalité sera mise à jour plus tard cette année pour les comptes configurés en tant que familles dans iCloud pour iOS 15, iPadOS 15 et macOS Monterey.

Détection améliorée du contenu de matériel pédopornographique (CSAM)

Apple indique qu’une nouvelle technologie dans iOS et dans iPadOS lui permettra de détecter les images connues pour les abus sexuels d’enfants stockées sur iCloud. Cela permettra à la compagnie de signaler ces cas à des organismes (comme le National Center for Missing and Exploited Children (NCMEC), aux États-Unis) qui collaborent avec les forces de l’ordre.

À en croire Apple, la méthode qui sera utilisée pour détecter les images pédopornographiques connues est conçue en tenant compte de la confidentialité des utilisateurs. Par conséquent, au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil de l’utilisateur à l’aide d’une base de données de hachages d’images pédopornographiques connus fournis par le NCMEC et d’autres organisations de sécurité des enfants. Apple transforme davantage cette base de données en un ensemble illisible de hachages qui est stocké en toute sécurité sur les appareils des utilisateurs.

Lutte Apple Contre Pedopornographie Methode Pour combattre la pédopornographie, Apple va scanner les photos des utilisateurs

Avant qu’une image ne soit stockée dans iCloud Photos, Apple déclare qu’un processus de correspondance sur l’appareil est effectué pour cette image par rapport aux hachages CSAM connus. Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. Alors, l’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image.

L’intersection d’ensembles privés permet à Apple de savoir si un hachage d’image correspond aux hachages d’image pédopornographiques connus, sans rien apprendre sur les hachages d’image qui ne correspondent pas. L’intersection d’ensembles privés empêche également l’utilisateur d’apprendre s’il y a eu une correspondance.

En utilisant une autre technologie appelée partage de secret à seuil, le système garantit que le contenu des bons de sécurité ne peut pas être interprété par Apple à moins que le compte iCloud Photos ne franchisse un seuil de contenu pédopornographique connu. Le seuil est défini pour fournir un niveau de précision extrêmement élevé et garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné.

Ce n’est que lorsque le seuil est dépassé que la technologie cryptographique permet à Apple d’interpréter le contenu des bons de sécurité associés aux images pédopornographiques correspondantes. Apple examine ensuite manuellement chaque rapport pour confirmer qu’il existe une correspondance, désactive le compte de l’utilisateur et envoie un rapport au NCMEC. Si un utilisateur estime que son compte a été signalé par erreur, il peut faire appel pour que son compte soit rétabli.

Apple dit que cette fonctionnalité arrivera d’abord aux États-Unis, mais la société que le système va débarquer dans d’autres pays au fil du temps.

Des ressources dans Siri et dans la fonction Recherche

Apple indique également qu’il proposera des conseils dans Siri et dans la fonction Recherche en fournissant des ressources supplémentaires pour aider les enfants et les parents à rester en sécurité et à obtenir de l’aide dans les situations dangereuses. Par exemple, les utilisateurs qui demandent à Siri comment ils peuvent signaler la CSAM ou l’exploitation d’enfants seront dirigés vers des ressources pour savoir où et comment déposer un signalement.

Lutte Apple Contre Pedopornographie Siri et Recherche Pour combattre la pédopornographie, Apple va scanner les photos des utilisateurs

D’ailleurs Apple indique que Siri et Recherche sont également mis à jour pour intervenir lorsque les utilisateurs effectuent des recherches de requêtes liées à la pédopornographie.

Marc Olivier Telfort

Amoureux de l'informatique, de la psychologie et plus généralement de l'high-tech. Je suis rédacteur chez appsystem.fr et app4phone.fr. Fan inconditionnel des produits Apple, j'essaye de transmettre ma passion au travers de mes publications.

Commentaires

Laisser un commentaire

Votre commentaire sera révisé par les administrateurs si besoin.