Découvrez les Nouveaux Éléments ‘Live AI’ Révolutionnaires des Lunettes Connectées Ray-Ban !

Meta révolutionne le monde des lunettes connectées avec l’intégration des fonctionnalités ‘Live AI’ dans les montures Ray-Ban. Ces lunettes offrent une expérience immersive, alliant style et technologie, tout en permettant une interaction instantanée grâce à l’intelligence artificielle. Préparez-vous à explorer un nouvel horizon de réalité augmentée.

Les fonctionnalités « Live AI » ajoutées aux lunettes intelligentes Ray-Ban

Meta a récemment dévoilé une mise à jour logicielle pour ses lunettes intelligentes Ray-Ban, intégrant une fonctionnalité innovante appelée « Live AI ». Cette fonctionnalité, similaire au projet Astra de Google, utilise un flux vidéo pour capter le contexte des questions posées par l’utilisateur.

Mise à jour version 11 pour Ray-Ban Meta

La mise à jour, désignée version 11, introduit plusieurs nouvelles options. Par exemple, l’intégration de Shazam permettra aux utilisateurs de poser la question : « Hey Meta, quelle est cette chanson ? », suivie de la lecture à haute voix du résultat. Ce service sera d’abord disponible aux États-Unis et au Canada.

Présentation de la fonctionnalité « Live AI »

Un des ajouts majeurs de cette mise à jour est la fonctionnalité « Live AI », permettant aux lunettes Ray-Ban Meta de capturer des vidéos. Cette vidéo sera analysée par l’IA pour fournir une assistance en temps réel, sans que l’utilisateur ait besoin d’interagir manuellement. Meta promet qu’à terme, ces données seront utilisées pour suggérer des options avant même que l’utilisateur ne pose la question.

La première nouveauté est live AI, qui ajoute une dimension vidéo à l’IA de Meta sur vos lunettes. Pendant une session de live AI, l’IA de Meta peut voir ce que vous voyez en continu et converser avec vous de manière plus naturelle que jamais. Vous bénéficierez d’une aide instantanée pour des activités quotidiennes telles que la préparation des repas, le jardinage ou l’exploration d’un nouveau quartier. Vous pouvez poser des questions sans avoir à dire « Hey Meta », faire référence à des éléments discutés précédemment durant la session, et interrompre à tout moment pour poser des questions complémentaires ou changer de sujet. À terme, l’IA live proposera des suggestions utiles au bon moment, même avant que vous ne les demandiez.

Traduction en temps réel avec « Live Translation »

En parallèle, Meta introduit également une fonctionnalité de « traduction en direct », capable de traduire des discours en temps réel. Cette fonction permet de transcrire ce que dit une autre personne en anglais via les lunettes, tout en affichant également le texte sur votre téléphone. Les langues prises en charge incluent l’espagnol, le français et l’italien, facilitant ainsi la communication interculturelle.

Vous aimerez aussi :  Ne Ratez Pas Cette Offre Incroyable : Galaxy Watch 7 Moins de 50 $ pour les Amateurs de Technologie !

Disponibilité de ces nouvelles fonctionnalités

Pour le moment, Meta déploie ces nouvelles fonctionnalités de manière progressive, uniquement via une liste d’attente, et cela exclusivement aux États-Unis et au Canada. Cela soulève des questions quant à l’étendue de la disponibilité dans le futur, en particulier dans d’autres régions du monde.

Concurrence avec Google et Project Astra

Google ne reste pas en reste et travaille sur un projet similaire. Lors de la conférence Google I/O 2024 en mai, la société a dévoilé « Project Astra », un projet d’IA capable d’utiliser un flux vidéo pour rassembler du contexte et répondre aux questions en fonction de ce qu’il voit. Bien que Google ait teasé la fonctionnalité sur des lunettes, le déploiement est encore en attente. L’annonce récente de Gemini 2.0 a également mis en lumière les futures mises à jour d’Astra, qui promettent des conversations dans plusieurs langues, la possibilité de stocker jusqu’à 10 minutes de mémoire, une latence améliorée, entre autres. Il reste donc à voir comment la fonctionnalité « Live AI » de Meta se positionnera par rapport à celle de Google, un domaine qui suscite un vif intérêt.

Poursuite de l’innovation avec les lunettes intelligentes

Les évolutions dans le domaine des lunettes intelligentes marquent une étape importante dans l’intégration de l’intelligence artificielle dans notre vie quotidienne. Avec des fonctionnalités telles que l’aide en temps réel, la traduction instantanée et une interaction plus fluide, ces dispositifs pourraient rapidement devenir des outils indispensables pour les utilisateurs modernes. Les entreprises comme Meta et Google continuent de rivaliser pour offrir les meilleures solutions, et il sera intéressant de voir quelles innovations émergeront dans un avenir proche.

Vous aimerez aussi :  Découvrez Comment Samsung Care+ Révolutionne la Réparation d'Écran avec des Services Gratuits !

Pour plus de détails sur les évolutions technologiques dans ce secteur, visitez Wired.

FTC : Nous utilisons des liens d’affiliation générant des revenus. Plus d’informations sur ce sujet.

Qu’est-ce que la fonction « Live AI » des lunettes Ray-Ban Meta ?

La fonction « Live AI » permet aux lunettes Ray-Ban Meta de capturer des vidéos, ce qui est utilisé par l’IA pour offrir une aide en temps réel et sans les mains sur les tâches que vous accomplissez actuellement. Cela permet des conversations plus naturelles et interactives avec l’IA.

Les lunettes Ray-Ban Meta peuvent-elles traduire des langues en temps réel ?

Oui, la fonction « Live translation » sera capable de traduire la parole en temps réel, avec la parole de l’autre personne étant transcrite en anglais à travers les lunettes. Cela fonctionne pour l’espagnol, le français et l’italien.

Quand ces nouvelles fonctionnalités seront-elles disponibles ?

Ces fonctionnalités seront déployées par le biais d’une liste d’attente et uniquement aux États-Unis et au Canada pour le moment.

Quelles sont les nouveautés apportées par la mise à jour v11 des lunettes ?

La mise à jour v11 introduit plusieurs nouvelles options, y compris l’intégration de Shazam, permettant aux utilisateurs de demander à leurs lunettes de reconnaître une chanson en disant « Hey Meta, quelle est cette chanson ? » et d’entendre le résultat.

Add a comment

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Keep Up to Date with the Most Important News

By pressing the Subscribe button, you confirm that you have read and are agreeing to our Privacy Policy and Terms of Use