
iOS
Le machine learning améliore la prosodie de Siri dans iOS 11
Apple vient de publier un article de recherche, détaillant des méthodes pour améliorer Siri afin de rendre le son de sa voix plus naturel, grâce à l’aide du marchine learning. Une réponse Siri est un assemblage de parties de textes qui ont été lues et enregistrées en haute qualité. Mais les développeurs font face à un défaut de cette méthode de « collage » de mot : le manque de prosodie. En effet, lorsque l’humain parle il transmet énormément d’information dans la voix. L’intonation, l’accentuation, la modulation de la sonorité d’une phrase dépend directement de son contenu et du contexte. Les développeurs doivent donc trouver un moyen de rendre la lecture de Siri plus fluide, mais cela demande énormément de ressources qu’un processeur de smartphone ne peut pas supporter. Vient alors le marching learning. Avec assez de données d’entrainement, cette technique d’apprentissage par la machine permet d’aider le système à sélectionner intelligemment les segments audios qui vont de paire pour créer des réponses sonnant plus naturelles.