Close Menu
AppSystemAppSystem
  • Astuces
  • Tutoriels
  • Boutique
    • Coques
      • iPhone 16
      • iPhone 15
      • iPhone 14
      • iPhone 13
      • iPhone 12
      • iPhone 11
      • iPhone XR
      • iPhone X(S)
      • iPhone SE
      • iPhone 8
    • Verres trempés
      • iPhone 16
      • iPhone 15
      • iPhone 14
      • iPhone 13
      • iPhone 12
      • iPhone 11
      • iPhone XR
      • iPhone X(S)
      • iPhone SE
      • iPhone 8
    • Accessoires
  • iPhone 15
  • Jailbreak
  • Bons Plans
  • Fonds d’écran
  • Accessoires
  • À propos
  • Contact
  • Publicité
Facebook X (Twitter)
  • iPhone 15
  • Jailbreak
  • Bons Plans
  • Fonds d’écran
  • Accessoires
Facebook X (Twitter)
AppSystemAppSystem
  • Astuces
  • Tutoriels
  • Boutique
    • Coques
      • iPhone 16
      • iPhone 15
      • iPhone 14
      • iPhone 13
      • iPhone 12
      • iPhone 11
      • iPhone XR
      • iPhone X(S)
      • iPhone SE
      • iPhone 8
    • Verres trempés
      • iPhone 16
      • iPhone 15
      • iPhone 14
      • iPhone 13
      • iPhone 12
      • iPhone 11
      • iPhone XR
      • iPhone X(S)
      • iPhone SE
      • iPhone 8
    • Accessoires
AppSystemAppSystem
Actualité

Siri avec Gemini : une architecture MoE pour gérer 1,2 billion de paramètres

Léon GalarneauBy Léon Galarneau7 novembre 2025Aucun commentaire2 Mins Read
WhatsApp Email Facebook Twitter Pinterest Telegram

Selon Bloomberg, Apple et Google finaliseraient un accord annuel d’environ 1 milliard de dollars pour utiliser une déclinaison de Gemini afin d’alimenter la nouvelle version de Siri dès l’année prochaine. Au‑delà du coût, l’architecture du modèle — annoncé à 1,2 billion de paramètres — sera déterminante pour les performances et la latence.

1,2 billion de paramètres : de quoi parle‑t‑on ?

Un modèle de cette taille reste très ambitieux. La comparaison directe avec les derniers modèles de pointe est toutefois difficile, les laboratoires fermés (OpenAI, Anthropic, Google) ne communiquant plus leurs nombres de paramètres. Les estimations autour de GPT‑5, Gemini 2.5 Pro ou Claude Sonnet 4.5 varient fortement, rendant toute hiérarchie chiffrée incertaine.

Pourquoi un modèle en mixture‑of‑experts (MoE) ?

Les grands modèles récents adoptent souvent une architecture MoE, qui répartit le réseau en « experts » spécialisés. Pour chaque entrée, seul un petit sous‑ensemble d’experts est activé, ce qui réduit le calcul nécessaire tout en conservant une grande capacité.

  • Partition en experts spécialisés, pilotés par un routeur.
  • Activation de 2 à 4 experts par token, selon la tâche.
  • Exemple typique : 32 experts et 1,2 billion de paramètres au total, mais seulement 75 à 150 milliards réellement activés à un instant donné.
  • Bénéfices : latence et coûts d’inférence nettement réduits, avec une capacité globale élevée.

Hébergement et confidentialité

Le modèle serait exécuté sur l’infrastructure Private Cloud Compute d’Apple. Google n’aurait pas accès aux données ni aux paramètres opérés côté serveur, ce qui renforce la confidentialité du traitement.

Aucune information publique ne confirme l’architecture finale du modèle fourni à Apple. À cette échelle, l’approche MoE est toutefois celle qui permet aujourd’hui d’exploiter des modèles massifs avec des coûts et des temps de réponse maîtrisés.

Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
Previous ArticleiOS 26.1 ajoute l’enregistrement manuel d’entraînements dans Forme
Next Article Flight Sight arrive sur Apple Vision Pro avec vidéo immersive et hélicoptères 3D
Léon Galarneau

Rédacteur occasionnel sur AppSystem, je cultive une réelle passion pour les mangas, le tennis et l'univers Apple.

Related Posts

Après les résultats du T2 2026, l’action Apple progresse légèrement hors séance

1 mai 2026

Apple accélère sur l’IA et signe un record historique de dépenses en R&D

1 mai 2026

Apple réclame le remboursement de droits de douane et promet de réinvestir aux États-Unis

1 mai 2026
Leave A Reply Cancel Reply

coque iphone la plus fine du monde

Top 3

Comment écouter la traduction d’une conversation grâce aux AirPods avec iOS 26.2

28 janvier 2026

Apple Watch Ultra 4 : quatre pistes crédibles pour la cuvée de septembre

3 avril 2026

WhatsApp et WhatsApp Business sont à jour pour ajouter quelques nouveautés

31 juillet 2024
Suivez-nous
  • Facebook 15K
  • Twitter
Facebook X (Twitter)
  • À propos
  • Contact
  • Publicité

Nos sites : ShopSystem • App4Phone

Copyright © 2026 AppSystem. Publié depuis 2008.

bannière app store

Apple, le logo Apple, iPod, iTunes et Mac sont des marques d’Apple Inc., déposées aux États-Unis et dans d’autres pays. iPhone et MacBook Air sont des marques déposées d’Apple Inc. MobileMe est une marque de service d’Apple Inc. AppSystem.fr et son App ne sont pas liés à Apple et les marques citées sont la propriété de leurs détenteurs respectifs.

Type above and press Enter to search. Press Esc to cancel.