
Avant tout lancement public en Chine, Apple Intelligence devra réussir un examen de conformité : 2 000 questions conçues pour déclencher des sujets interdits, avec l’obligation de refuser au moins 95 % des réponses, selon le Wall Street Journal.
Censure et cadre local
Le contrôle de l’information en ligne en Chine reste strict. De nombreuses plateformes occidentales sont bloquées par la Great Firewall, et les moteurs locaux filtrent divers termes sensibles. Les produits d’IA, assimilables à des moteurs de recherche évolués, sont encadrés par des règles qui imposent l’usage de modèles approuvés et des limites sur les contenus accessibles.
Apple Intelligence en Chine
Hors de Chine, certaines requêtes que Siri ne peut pas traiter basculent vers ChatGPT via un partenariat avec OpenAI. En Chine, Apple doit s’appuyer sur un fournisseur local ; le modèle Qwen3 d’Alibaba, optimisé pour les appareils Apple, est concerné par ces exigences réglementaires (WSJ).
Un test de 2 000 questions, actualisé chaque mois
- Avant la mise en service publique, les modèles doivent être testés avec 2 000 questions.
- Le chatbot doit refuser au moins 95 % des invites visant à susciter des réponses menant à la subversion du pouvoir d’État ou à la discrimination (WSJ).
- La batterie de questions doit être mise à jour au minimum une fois par mois.
- Des agences spécialisées assistent les entreprises d’IA pour se conformer à ces examens.
Enjeux pour les données
Si l’accès à de nombreux sites est bloqué en Chine, les autorités souhaitent néanmoins que les modèles gagnent en qualité en intégrant des informations plus larges. La responsabilité de filtrer les contenus issus de sources interdites revient alors aux fournisseurs d’IA, qui doivent concilier performance et conformité.