Close Menu
AppSystemAppSystem
  • Astuces
  • Tutoriels
  • Boutique
    • Coques
      • iPhone 16
      • iPhone 15
      • iPhone 14
      • iPhone 13
      • iPhone 12
      • iPhone 11
      • iPhone XR
      • iPhone X(S)
      • iPhone SE
      • iPhone 8
    • Verres trempés
      • iPhone 16
      • iPhone 15
      • iPhone 14
      • iPhone 13
      • iPhone 12
      • iPhone 11
      • iPhone XR
      • iPhone X(S)
      • iPhone SE
      • iPhone 8
    • Accessoires
  • iPhone 15
  • Jailbreak
  • Bons Plans
  • Fonds d’écran
  • Accessoires
  • À propos
  • Contact
  • Publicité
Facebook X (Twitter)
  • iPhone 15
  • Jailbreak
  • Bons Plans
  • Fonds d’écran
  • Accessoires
Facebook X (Twitter)
AppSystemAppSystem
  • Astuces
  • Tutoriels
  • Boutique
    • Coques
      • iPhone 16
      • iPhone 15
      • iPhone 14
      • iPhone 13
      • iPhone 12
      • iPhone 11
      • iPhone XR
      • iPhone X(S)
      • iPhone SE
      • iPhone 8
    • Verres trempés
      • iPhone 16
      • iPhone 15
      • iPhone 14
      • iPhone 13
      • iPhone 12
      • iPhone 11
      • iPhone XR
      • iPhone X(S)
      • iPhone SE
      • iPhone 8
    • Accessoires
AppSystemAppSystem
iOS

Pour combattre la pédopornographie, Apple va scanner les photos des utilisateurs

Marc Olivier TelfortBy Marc Olivier Telfort6 août 2021Updated:9 août 2021Aucun commentaire5 Mins Read
WhatsApp Email Facebook Twitter Pinterest Telegram

lutte d'Apple contre la pédopornographie

Apple veut lutter contre la pédopornographie. Pour ce faire, la société annonce qu’il mettra très prochainement en application de nouvelles protections pour la sécurité des enfants au niveau d’iOS 15, d’iPadOS 15, de watchOS 8 et de macOS 12 Monterey.

Parmi ces nouvelles protections, nous retrouvons de nouvelles fonctionnalités de sécurité de communication dans Messages, une détection améliorée du contenu de matériel pédopornographique (CSAM) dans iCloud et des informations de connaissances mises à jour pour Siri et Recherche.

Sécurité de la communication dans Messages

Le constructeur indique qu’il va ajouter dans l’application Messages de nouveaux outils pour avertir les enfants et leurs parents lors de la réception ou de l’envoi de photos sexuellement explicites. À la réception de ce type de contenu, la photo sera floue et l’enfant sera averti et rassuré qu’il n’y a pas de problème s’il ne veut pas voir cette photo. Toutefois, si l’enfant appuie sur « Afficher la photo », il verra un message contextuel qui l’informe de la raison pour laquelle l’image est considérée comme sensible.

À titre de précaution supplémentaire, l’enfant peut également être informé que, pour s’assurer qu’il est en sécurité, ses parents recevront un message s’ils le voient. Des protections similaires sont également disponibles si un enfant tente d’envoyer des photos sexuellement explicites. Dans ce cas, l’enfant sera prévenu avant d’envoyer la photo et les parents pourront recevoir un message si l’enfant choisit de l’envoyer.

Messages utilise l’apprentissage automatique sur l’appareil pour analyser les images jointes et déterminer si une photo est sexuellement explicite. Selon Apple, la fonctionnalité est conçue pour que la société n’ait pas accès aux messages.

Cette fonctionnalité sera mise à jour plus tard cette année pour les comptes configurés en tant que familles dans iCloud pour iOS 15, iPadOS 15 et macOS Monterey.

Détection améliorée du contenu de matériel pédopornographique (CSAM)

Apple indique qu’une nouvelle technologie dans iOS et dans iPadOS lui permettra de détecter les images connues pour les abus sexuels d’enfants stockées sur iCloud. Cela permettra à la compagnie de signaler ces cas à des organismes (comme le National Center for Missing and Exploited Children (NCMEC), aux États-Unis) qui collaborent avec les forces de l’ordre.

À en croire Apple, la méthode qui sera utilisée pour détecter les images pédopornographiques connues est conçue en tenant compte de la confidentialité des utilisateurs. Par conséquent, au lieu de numériser des images dans le cloud, le système effectue une correspondance sur l’appareil de l’utilisateur à l’aide d’une base de données de hachages d’images pédopornographiques connus fournis par le NCMEC et d’autres organisations de sécurité des enfants. Apple transforme davantage cette base de données en un ensemble illisible de hachages qui est stocké en toute sécurité sur les appareils des utilisateurs.

Avant qu’une image ne soit stockée dans iCloud Photos, Apple déclare qu’un processus de correspondance sur l’appareil est effectué pour cette image par rapport aux hachages CSAM connus. Ce processus de correspondance est alimenté par une technologie cryptographique appelée intersection d’ensembles privés, qui détermine s’il existe une correspondance sans révéler le résultat. Alors, l’appareil crée un bon de sécurité cryptographique qui code le résultat de la correspondance ainsi que des données cryptées supplémentaires sur l’image. Ce bon est téléchargé sur iCloud Photos avec l’image.

L’intersection d’ensembles privés permet à Apple de savoir si un hachage d’image correspond aux hachages d’image pédopornographiques connus, sans rien apprendre sur les hachages d’image qui ne correspondent pas. L’intersection d’ensembles privés empêche également l’utilisateur d’apprendre s’il y a eu une correspondance.

En utilisant une autre technologie appelée partage de secret à seuil, le système garantit que le contenu des bons de sécurité ne peut pas être interprété par Apple à moins que le compte iCloud Photos ne franchisse un seuil de contenu pédopornographique connu. Le seuil est défini pour fournir un niveau de précision extrêmement élevé et garantit moins d’une chance sur un billion par an de signaler de manière incorrecte un compte donné.

Ce n’est que lorsque le seuil est dépassé que la technologie cryptographique permet à Apple d’interpréter le contenu des bons de sécurité associés aux images pédopornographiques correspondantes. Apple examine ensuite manuellement chaque rapport pour confirmer qu’il existe une correspondance, désactive le compte de l’utilisateur et envoie un rapport au NCMEC. Si un utilisateur estime que son compte a été signalé par erreur, il peut faire appel pour que son compte soit rétabli.

Apple dit que cette fonctionnalité arrivera d’abord aux États-Unis, mais la société que le système va débarquer dans d’autres pays au fil du temps.

Des ressources dans Siri et dans la fonction Recherche

Apple indique également qu’il proposera des conseils dans Siri et dans la fonction Recherche en fournissant des ressources supplémentaires pour aider les enfants et les parents à rester en sécurité et à obtenir de l’aide dans les situations dangereuses. Par exemple, les utilisateurs qui demandent à Siri comment ils peuvent signaler la CSAM ou l’exploitation d’enfants seront dirigés vers des ressources pour savoir où et comment déposer un signalement.

D’ailleurs Apple indique que Siri et Recherche sont également mis à jour pour intervenir lorsque les utilisateurs effectuent des recherches de requêtes liées à la pédopornographie.

app Photos enfant enfants iCloud Photos iOS 15 iPadOS 15 macOS 12 macOS Monterey Photos Photos iCloud Porno pornographie
Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
Previous ArticleBons plans App Store du 05/08/2021
Next Article Apple veut que plus d’utilisateurs testent la bêta d’iOS 15, macOS 12 Monterey, watchOS 8 et de tvOS 15
Marc Olivier Telfort
  • X (Twitter)

Amoureux de l'informatique, de la psychologie et plus généralement de l'high-tech. Je suis rédacteur chez appsystem.fr et app4phone.fr. Fan inconditionnel des produits Apple, j'essaye de transmettre ma passion au travers de mes publications.

Related Posts

iOS 26.4 affine l’app Santé, iOS 27 viserait une refonte plus ambitieuse

30 avril 2026

iOS 27 : l’appareil photo intégrerait un mode Siri dopé à la Visual Intelligence, selon Bloomberg

29 avril 2026

iOS 27 préparerait trois outils Apple Intelligence pour retoucher les photos

28 avril 2026
Leave A Reply Cancel Reply

coque iphone la plus fine du monde

Top 3

Comment écouter la traduction d’une conversation grâce aux AirPods avec iOS 26.2

28 janvier 2026

Apple Watch Ultra 4 : quatre pistes crédibles pour la cuvée de septembre

3 avril 2026

WhatsApp et WhatsApp Business sont à jour pour ajouter quelques nouveautés

31 juillet 2024
Suivez-nous
  • Facebook 15K
  • Twitter
Facebook X (Twitter)
  • À propos
  • Contact
  • Publicité

Nos sites : ShopSystem • App4Phone

Copyright © 2026 AppSystem. Publié depuis 2008.

bannière app store

Apple, le logo Apple, iPod, iTunes et Mac sont des marques d’Apple Inc., déposées aux États-Unis et dans d’autres pays. iPhone et MacBook Air sont des marques déposées d’Apple Inc. MobileMe est une marque de service d’Apple Inc. AppSystem.fr et son App ne sont pas liés à Apple et les marques citées sont la propriété de leurs détenteurs respectifs.

Type above and press Enter to search. Press Esc to cancel.