Close Menu
AppSystemAppSystem
  • Astuces
  • Tutoriels
  • Boutique
    • Coques
      • iPhone 16
      • iPhone 15
      • iPhone 14
      • iPhone 13
      • iPhone 12
      • iPhone 11
      • iPhone XR
      • iPhone X(S)
      • iPhone SE
      • iPhone 8
    • Verres trempés
      • iPhone 16
      • iPhone 15
      • iPhone 14
      • iPhone 13
      • iPhone 12
      • iPhone 11
      • iPhone XR
      • iPhone X(S)
      • iPhone SE
      • iPhone 8
    • Accessoires
  • iPhone 15
  • Jailbreak
  • Bons Plans
  • Fonds d’écran
  • Accessoires
  • À propos
  • Contact
  • Publicité
Facebook X (Twitter)
  • iPhone 15
  • Jailbreak
  • Bons Plans
  • Fonds d’écran
  • Accessoires
Facebook X (Twitter)
AppSystemAppSystem
  • Astuces
  • Tutoriels
  • Boutique
    • Coques
      • iPhone 16
      • iPhone 15
      • iPhone 14
      • iPhone 13
      • iPhone 12
      • iPhone 11
      • iPhone XR
      • iPhone X(S)
      • iPhone SE
      • iPhone 8
    • Verres trempés
      • iPhone 16
      • iPhone 15
      • iPhone 14
      • iPhone 13
      • iPhone 12
      • iPhone 11
      • iPhone XR
      • iPhone X(S)
      • iPhone SE
      • iPhone 8
    • Accessoires
AppSystemAppSystem
Actualité

Reconnaissance d’activité : Apple montre l’apport des LLM avec audio et mouvements

Léon GalarneauBy Léon Galarneau21 novembre 2025Aucun commentaire2 Mins Read
WhatsApp Email Facebook Twitter Pinterest Telegram

Apple publie une étude sur l’usage de grands modèles de langage (LLM) pour fusionner, en fin de chaîne, des indices audio et des données issues d’IMU (accéléromètre et gyroscope). Objectif : améliorer la reconnaissance d’activités réelles lorsque les signaux capteurs sont limités.

Intitulée « Using LLMs for Late Multimodal Sensor Fusion for Activity Recognition », l’étude est disponible sur le site Apple Machine Learning Research (machinelearning.apple.com). Le LLM n’ingère pas l’audio brut ni les séries IMU brutes : il agrège des descriptions textuelles et des prédictions générées par des modèles spécialisés, puis réalise la classification.

À retenir

  • Des LLM (dont Gemini-2.5-pro et Qwen-32B) obtiennent en zero-shot des scores F1 au-dessus du hasard sur 12 classes d’activités, sans entraînement spécifique.
  • Avec un seul exemple (one-shot), les performances progressent encore.
  • Approche de « late fusion » : le LLM combine des légendes et étiquettes audio et des prédictions IMU, sans accès aux signaux bruts.
  • Utile lorsque les données d’entraînement alignées sont rares, tout en évitant le coût mémoire et calcul d’un modèle multimodal dédié.

Méthodologie

Les chercheurs s’appuient sur Ego4D, vaste corpus en vision à la première personne. Un sous-ensemble d’extraits de 20 secondes couvre 12 activités : passer l’aspirateur, cuisiner, faire la lessive, manger, jouer au basket, jouer au football, jouer avec des animaux de compagnie, lire un livre, utiliser un ordinateur, faire la vaisselle, regarder la télévision, faire de la musculation.

Les sorties des modèles audio et IMU sont ensuite proposées à différents LLM pour évaluer la classification dans deux scénarios : liste fermée (12 options fournies) et réponse ouverte (sans liste). Les combinaisons testées incluent légendes audio, étiquettes audio, prédictions d’activité IMU et contexte additionnel.

Ce que cela apporte

Les résultats indiquent que l’agrégation via LLM renforce l’interprétation de l’activité, notamment lorsque les signaux capteurs seuls restent ambigus. Apple publie également des éléments de reproductibilité (identifiants de segments Ego4D, horodatages, prompts et exemples one-shot) sur la page de l’étude (machinelearning.apple.com).

Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
Previous ArticleiOS 26.1 : Digital ID dans Wallet accélère l’identité numérique
Next Article Apple présentera sept études et des démos d’IA à NeurIPS 2025 en décembre
Léon Galarneau

Rédacteur occasionnel sur AppSystem, je cultive une réelle passion pour les mangas, le tennis et l'univers Apple.

Related Posts

iPhone 18 Pro : Apple envisagerait un virage « pro » côté app photo, avec Halide dans le viseur

21 mars 2026

M5 Pro et M5 Max : Apple détaille l’arrivée de trois catégories de cœurs CPU

20 mars 2026

Siri dopée à Gemini : une première vague de fonctions encore possible fin mars

20 mars 2026
Leave A Reply Cancel Reply

coque iphone la plus fine du monde

Top 3

WhatsApp et WhatsApp Business sont à jour pour ajouter quelques nouveautés

31 juillet 2024

tvOS 26.4 introduit une option audio « Continuous Audio Connection » sur Apple TV

17 février 2026

Comment rechercher du texte dans une page web sur Safari iPhone et iPad ?

28 août 2024
Suivez-nous
  • Facebook 15K
  • Twitter
Facebook X (Twitter)
  • À propos
  • Contact
  • Publicité

Nos sites : ShopSystem • App4Phone

Copyright © 2026 AppSystem. Publié depuis 2008.

bannière app store

Apple, le logo Apple, iPod, iTunes et Mac sont des marques d’Apple Inc., déposées aux États-Unis et dans d’autres pays. iPhone et MacBook Air sont des marques déposées d’Apple Inc. MobileMe est une marque de service d’Apple Inc. AppSystem.fr et son App ne sont pas liés à Apple et les marques citées sont la propriété de leurs détenteurs respectifs.

Type above and press Enter to search. Press Esc to cancel.