Meta veut apporter la traduction universelle au métaverse, un jour
Que vous l’aimiez ou non, Méta redoubler d’efforts pour faire Parcs d’avatar 3D synonyme d’informatique du futur. Lors d’un événement mardi, la société a présenté une variété de nouveaux outils d’intelligence artificielle, notamment un assistant vocal, un traducteur de langage universel et un outil de programmation capable de générer des objets numériques via des commandes vocales, tous destinés à insuffler un jour la vie à un véritable , métaverse utilisable.
Les outils ont été présentés lors de Meta’s Inside the Lab : Construire pour le métaverse avec l’IA événement diffusé en direct mercredi. Au cours de l’événement, Meta a dévoilé son développement d’un assistant vocal numérique avancé sous la bannière « Project CAIRaoke ». Zuckerberg a déclaré que la société espère que l’outil sera un jour utilisé comme un véhicule crucial permettant aux utilisateurs de naviguer dans le métaverse.
Bien qu’il soit encore tôt, Meta pense que les modèles créés dans le cadre du projet CAIRaoke seront capables de se souvenir commandes dit plus tôt pendant la conversation ou changer complètement de sujet – des capacités fluides jusqu’à présent absentes de la plupart des assistants vocaux actuels. Imaginez un assistant de type Siri mais capable de s’engager organiquement dans plusieurs conversations de suivi. Alborz Geramifard, directeur de recherche principal de Meta AI, les a qualifiés d' »assistants suralimentés ».
Ah enfin, un assistant vocal avec lequel vous pouvez vous disputer à perpétuité.
Meta a poursuivi en disant qu’une première version de l’assistant commencera à être déployée sur les appareils domestiques Portal afin de définir des rappels. Si cela ne signifie pas nécessairement une innovation high-tech, ne vous inquiétez pas, Meta dit que vous pourriez tôt ou tard utiliser l’IA pour des achats personnalisés !
Plus loin sur la route, la société envisage de fusionner son assistant IA avec des appareils AR et VR. Dans un exemple, une vidéo montrait un homme portant des lunettes AR utilisant l’assistant pour le guider à travers une recette de soupe. Le texte est apparu transposé sur le monde alors que son assistant le grondait de ne pas en faire trop sur le sel.
« En combinant des appareils de réalité augmentée et virtuelle avec notre modèle Project CAIRaoke, nous espérons que l’avenir de l’IA conversationnelle sera plus personnel et transparent », a déclaré un narrateur lors de la vidéo de présentation.
Meta a également révélé des détails sur un nouvel outil de génération d’IA à commande vocale appelé Builder Bot, qu’il considère comme crucial pour naviguer dans les mondes virtuels. Au cours de la démonstration, Zuckerberg a commencé à interagir avec une basse vide.res monde virtuel et a commencé à le construire à l’aide de commandes vocales. L’avatar de Zuckerberg a d’abord changé tout l’environnement 3D en parc, puis en plage, ce qu’il prétendait faire en utilisant uniquement des commandes vocales.
La démonstration montre ensuite l’IA générant une table de pique-nique, un boom box, des boissons et d’autres petits objets basés sur des commandes vocales. Comme le bord Remarquesson pas clair si Builder Bot tire sur une bibliothèque d’objets déjà définis pour accomplir ces tâches ou si l’IA elle-même est impliquée dans leur génération. (Ce dernier serait évidemment beaucoup plus impressionnant). Le but de tout cela, selon Zuckerberg, est de « créer des mondes nuancés à explorer et de partager des expériences avec d’autres avec juste votre voix ».
Enfin, l’entreprise a également présenté ses efforts pour construire une solution basée sur l’IA système universel de transition de la parole. Meta a décrit deux approches principales qu’il adopte pour la traduction activée par l’IA. Le premier, baptisé No Language Left Behind, se concentre sur les soi-disant «langages à faibles ressources» moins largement utilisés, qui ont généralement moins de données de formation pour que les systèmes d’IA apprennent d’eux des langages plus largement utilisés. Meta estime qu’environ 20% de la population mondiale utilise actuellement ces types de langues, les laissant largement exclus du monde en ligne et, vraisemblablement, de Meta. La société espère que ce nouvel outil d’IA permettra essentiellement des traductions de haute qualité pour ces langues autrement mal desservies.
Le deuxième projet, appelé Universal Speech Translator, vise à utiliser la RA et d’autres outils pour traduire la parole d’une langue à une autre en temps réel. Dans une vidéo de démonstration, l’entreprise a imaginé un jour combiner ce traducteur IA avec des lunettes AR ou d’autres appareils portables pour permettre aux utilisateurs de communiquer avec des personnes parlant différentes langues en temps réel. Et bien sûr, ici aussi, il y a un angle métaverse. La société affirme que « dans un avenir pas trop lointain », ces outils de traduction pourraient être intégrés dans des mondes virtuels pour permettre aux utilisateurs d’interagir avec n’importe qui, « comme ils le feraient avec quelqu’un à côté ».
Donc, c’est ce que Meta prépare. Du côté positif, les annonces de mercredi ont offert un aperçu de certains outils beaucoup plus intéressants, potentiellement utiles, qui étaient exposés lors de son premier métaverse tentaculaire et non ciblé. présentation. Dans le même temps, la plupart de ces propositions semblent assez loin de devenir réalité. Il est également difficile de savoir si l’un de ces outils agira vraiment comme un catalyseur pour inspirer un intérêt plus réel pour le métaverse en tant que concept parmi les gens ordinaires.
Au moment de la rédaction, Le cours de l’action Meta est en baisse un autre 1,8 pour cent pour la journée.
.
Commentaires
Laisser un commentaire