Google a commencé à offrir des fonctionnalités Gemini Live pour les modèles Pixel 9 et Galaxy S25, bien que tard. Fin février, ces innovations, qui ont été présentées au Mobile World Congress à Barcelone, ont commencé à atteindre les utilisateurs début avril, contrairement aux attentes. Ces fonctionnalités basées sur l'analyse vidéo en temps réel et le partage d'écran permettent au système d'intelligence artificielle des Gémeaux de fonctionner à travers plusieurs modes. En d'autres termes, les utilisateurs ne peuvent plus poser de questions aux Gémeaux non seulement par écrit ou son, mais aussi via une capture d'écran ou une caméra.
Le centre du nouveau système comprend la capacité de l'intelligence artificielle à produire une réponse à toute image vue sur l'écran du téléphone ou affiché avec l'appareil photo. Les utilisateurs de Pixel 9 ou Galaxy S25 peuvent activer les Gemini en direct en appuyant sur le bouton d'alimentation long. L'appareil analyse ensuite les images environnantes et offre des commentaires instantanés à l'utilisateur. Cette expérience promet une aide à l'intelligence artificielle plus holistique que le modèle d'interaction de Google Assistant à ce jour.
Les utilisateurs peuvent organiser leurs armoires avec des Gemini en direct et façonner les préférences d'achat
Avec ce système, par exemple, vous pouvez tourner l'appareil photo dans votre placard et demander à Gemini quoi porter. De même, il est possible d'apprendre des instructions de lessive ou de demander comment modifier les vêtements. Gemini Live peut détecter ces données visuelles et offrir des explications pour la voix ou écrite. Il ne dirige pas seulement l'utilisateur, mais prend également en charge le processus de décision en comparant les options en fonction de la liaison.
De plus, la fonction de partage d'écran a des fonctions remarquables. Les utilisateurs peuvent prendre conseil à Gemini en partageant leurs écrans lors de la visite des sites de magasinage. En d'autres termes, l'intelligence artificielle fait des commentaires personnalisés en fonction du contenu de votre écran. De cette façon, non seulement la reconnaissance d'objets, mais aussi l'évaluation contextuelle du contenu devient possible.
Bien que ces développements hiérarchisent les utilisateurs de Pixel 9 et Galaxy S25, les utilisateurs d'Android ne sont pas complètement privés de ces innovations. Il est possible d'accéder à ces fonctionnalités via l'application Gemini. Mais il y a une limitation significative ici: abonnement Google One AI Premium pour atteindre ces fonctions. Les utilisateurs qui paient 20 $ par mois peuvent découvrir ces systèmes avancés sans être connectés à des modèles d'appareils.
Cependant, malgré tout, l'expérience de Gemini Live peut effectuer des performances plus élevées en fonction d'un appareil. Surtout dans les modèles les plus puissants, le processus de traitement d'image réel-temps fonctionne plus rapidement et plus stable. Dans les modèles plus anciens, il n'est pas encore clair comment ce système fonctionnera. Par conséquent, l'expérience utilisateur peut varier de l'appareil à l'appareil.
Cependant, le fait que Google ait présenté ces fonctionnalités à un nombre limité d'appareils signifie que des masses plus larges ne peuvent pas bénéficier immédiatement de ces innovations. De plus en plus de modèles Android devraient être pris en charge dans les prochains mois. Les données des utilisateurs et les commentaires obtenues dans ce processus peuvent être décisives dans le développement ultérieur du système. Google devrait continuer à intégrer les investissements de l'intelligence artificielle dans les appareils.