Meta ajoute une fonctionnalité de description visuelle aux lunettes intelligentes Ray-Ban avec intelligence artificielle

Meta apporte une nouvelle fonction d'intelligence artificielle à ses lunettes intelligentes avec Ray-Ban Partnership et amène son produit à un point différent dans ce domaine. La nouvelle fonctionnalité propose un système qui peut définir l'environnement d'une manière plus détaillée et compréhensible. Ce système vise à aider les personnes handicapées visuellement et moins indépendamment dans la vie quotidienne. Les lunettes analysent l'environnement avec la commande de l'utilisateur et fournissent des informations détaillées sur les éléments visuels.

Les utilisateurs peuvent rendre cette fonction d'intelligence artificielle active via l'application mobile META AI. Le système entre en jeu avec un court processus à partir des paramètres de l'appareil dans l'application. Lorsque l'utilisateur pose une question sur son environnement, l'intelligence artificielle commence à produire des réponses. Ces réponses sont fournies par la numérisation en temps réel du contenu visuel.

Une vidéo promotionnelle partagée par Meta montre clairement comment la fonctionnalité fonctionne. Sur la question posée par un utilisateur contre visuellement vers l'intelligence artificielle dans un parc, le système décrit correctement la voie, les arbres et les plans d'eau dans le distant. Sur une scène différente, les objets d'une cuisine sont répertoriés par l'intelligence artificielle et transférés à l'utilisateur. Ces exemples montrent clairement comment le système peut devenir fonctionnel dans la vie quotidienne.

Le système est disponible non seulement pour les personnes atteintes de malades visuellement, mais pour tous ceux qui veulent en savoir plus sur leur environnement. L'utilisateur, qui porte les lunettes, peut atteindre des explications verbales à l'aide de l'intelligence artificielle, même s'il ne peut pas voir les éléments à sa manière. De cette façon, même dans des environnements complexes, peut être plus facile à trouver une direction. La fonctionnalité est actuellement disponible pour les utilisateurs aux États-Unis et au Canada.

Meta a annoncé cette innovation dans le cadre de la Journée mondiale de la sensibilisation à l'accessibilité. D'autres solutions axées sur l'accessibilité ont été introduites. L'un d'eux est un nouveau système appelé «Call a Volunteer. Ce système rassemble des personnes malvoyantes avec des personnes bénévoles en temps réel.

Le réseau volontaire est organisé sur la plate-forme appelée Be Mys Eyes. Les utilisateurs peuvent obtenir un support en se connectant à un volontaire avec un seul bouton au moment du besoin. Ce système de support fonctionne activement lors de ses achats ou de l'essayage de trouver une direction. La plate-forme devrait être opérationnelle dans 18 pays à la fin de ce mois.

De plus, Meta a mis à jour le support en direct des sous-titres pour ses produits tels que Quest VR titres et Meta Horizon Worlds. Ce système permet aux utilisateurs de suivre le contenu en lisant instantanément le contenu. Cette caractéristique des sous-titres, en particulier pour les personnes malentendantes, offre une contribution significative. Le système devrait actuellement être actif dans les titres de quête.

Toutes ces mises à jour montrent que Meta adopte une approche plus holistique de l'accessibilité. La caractéristique de description visuelle des lunettes n'est pas seulement une innovation technologique, mais aussi un signe avant-coureur d'une expérience plus inclusive dans le monde numérique. Bien qu'il soit disponible dans des régions limitées en premier lieu, il devrait atteindre un public plus large à l'avenir. On pense que ces fonctionnalités sont adaptées pour d'autres groupes d'utilisateurs.