Découvrez comment les Sous-titres en direct de Google révolutionnent l’accessibilité grâce à l’IA. En optimisant la lisibilité, cette technologie innovante améliore l’expérience des utilisateurs, rendant le contenu vidéo plus accessible à tous. Une avancée majeure qui propulse Google au sommet de l’innovation en matière d’accessibilité numérique.
Les sous-titres en direct de Google évoluent grâce à une toute nouvelle fonctionnalité appelée « Sous-titres expressifs », qui s’appuie sur l’intelligence artificielle pour améliorer la qualité des sous-titres. Cette mise à jour permet de transmettre bien plus que de simples mots; elle capture également les tonalités de la voix, les volumes, et même les bruits d’environnement.
Sous-titres en direct : une fonctionnalité clé depuis 2019
Depuis 2019, les sous-titres en direct de Google font partie intégrante de la gamme de téléphones Pixel. Cette fonctionnalité innovante offre aux utilisateurs la possibilité d’afficher des sous-titres lorsque l’audio de vidéos ou d’autres médias est actif. Grâce à la puissance du Tenseur SoC de Google et au traitement en temps réel, les téléphones Pixel capturent et affichent la parole à mesure qu’elle est entendue, ce qui est particulièrement bénéfique pour les personnes sourdes ou malentendantes.
Une mise à jour dynamique des sous-titres
Récemment, Google a annoncé un nouveau mode de traitement audio qui rend les sous-titres plus dynamiques. Les « Sous-titres expressifs » permettront aux utilisateurs de percevoir des discours nuancés et des actions à travers les sous-titres générés en temps réel grâce à l’IA. Ce changement permettra de traduire des éléments tels que le ton, le volume et les indices environnementaux dans les sous-titres affichés à l’écran.
Comment fonctionnent les sous-titres expressifs ?
Google illustre cette nouvelle fonctionnalité avec plusieurs exemples concrets. Par exemple, lorsque quelqu’un crie, ce niveau d’intensité sera traduit en majuscules dans les sous-titres. Si un personnage d’une vidéo pousse un soupir ou émet des grognements, ces sons subtils seront également captés et décrits entre les paroles, enrichissant ainsi l’expérience visuelle. En outre, les bruits ambiants, tels que le son d’une foule ou d’un chien aboyant, seront intégrés pour contextualiser les dialogues et les scènes.
Aide pour les malvoyants avec Lookout
En parallèle à cette avancée, Google a également annoncé que les descriptions d’images peuvent désormais être lues à haute voix grâce à la mise à jour de l’application Lookout, qui est spécialement conçue pour aider les personnes malvoyantes. Avec l’intégration du modèle Gemini 1.5 Pro, la fonctionnalité de questions-réponses permet désormais aux utilisateurs de poser des questions sur les images, offrant des réponses et des descriptions plus riches et plus contextuelles, allant au-delà des simples visuels.
Accessibilité étendue avec Live Caption
Il est important de noter que les sous-titres expressifs font partie intégrante des sous-titres en direct de Google, ce qui signifie qu’il n’y a pas de restrictions concernant les appareils Pixel qui peuvent en bénéficier. Dès que la fonctionnalité des sous-titres en direct est activée, cette mise à jour sera disponible. Actuellement, il convient de préciser que cette nouvelle fonctionnalité ne sera pas applicable aux appels téléphoniques, mais cela pourrait évoluer dans le futur.
Pour en savoir plus sur Google
Pour des informations plus approfondies sur les innovations de Google, visitez leur site officiel à l’adresse suivante : Google.
Qu’est-ce que les sous-titres expressifs de Google ?
Les sous-titres expressifs de Google sont une nouvelle fonctionnalité des sous-titres en direct, utilisant l’IA pour transmettre des éléments tels que le ton et le volume de la voix, ainsi que des sons environnementaux, afin d’enrichir l’expérience de visionnage pour les utilisateurs, en particulier ceux qui sont sourds ou malentendants.
Comment les sous-titres expressifs fonctionnent-ils ?
Les sous-titres expressifs traduisent des actions et des émotions en ajustant dynamiquement la présentation des sous-titres. Par exemple, des cris sont affichés en majuscules et des sons subtils comme des soupirs peuvent être inclus pour donner un contexte supplémentaire à la conversation.
Cette fonctionnalité est-elle disponible sur tous les appareils Pixel ?
Tous les appareils Pixel qui prennent en charge les sous-titres en direct pourront utiliser cette mise à jour de sous-titres expressifs, sans restriction. Cependant, il est à noter que la fonctionnalité ne sera pas compatible avec les appels téléphoniques pour le moment.
Comment les descriptions d’images ont-elles été améliorées ?
Les descriptions d’images peuvent désormais être lues à voix haute grâce à l’application Lookout de Google, qui utilise le modèle Gemini 1.5 Pro pour fournir des descriptions plus naturelles et informatives, améliorant ainsi l’accessibilité pour les utilisateurs malvoyants.
Bonjour, je m’appelle Arthur et j’ai 37 ans. Cadre supérieur dans l’administration, je suis passionné par la gestion et l’organisation. Bienvenue sur mon site web où je partage mon expérience et mes conseils en matière de leadership et de management.