Pour reposer les choses, on trouve des lunettes connectées depuis assez longtemps. Mais c’est avec l’apparition des Google Glasses en 2014 qu’on commence à visualiser l’objet et ses usages potentiels. À partir de là et en résumant beaucoup, on voit deux tendances majeures. La première cible des marchés professionnels aux usages assez bien définie : expertise à distance, visualisation in situ, apprentissage devant une machine, etc. Les matériels sont autonomes, en fait des sortes d’ordinateurs à porter sur la tête.

L’arrivée de l’IA générative, les « AI Glasses »

Les choses ont évolué le 27 septembre 2023 quand Mark Zuckerberg a présenté au cours de la Meta Connect 2023 le nouveau modèle de Ray-Ban Meta smart glasses. Nous l’avions souligné dans notre article récapitulatif, ces lunettes « intègrent les technologies d’IA de Meta avec la fonction centrale d’assister le porteur dans ses actions quotidiennes« . On passe donc de lunettes de RA à des lunettes d’IA, mais dans lesquelles la RA a toute sa place comme interface avec l’utilisateur. La fonction qui peut être cette fameuse Killer App ? L’assistance. Le statut des lunettes évolue en passant d’un simple écran à celui d’assistant personnel.

Quels usages en pratique ?

Par définition, le premier usage de ces « AI glasses » sera l’assistance de l’utilisateur. L’appareil sera en mesure de fournir des informations contextualisées et personnalisées en s’appuyant, potentiellement, sur les applications du smartphone. On retrouve ici le concept du Rabbit R1. On peut déjà trouver des exemples comme les guides touristiques personnalisés proposés par Andrew Bosworth (CTO de Meta) ou les traductions en temps réel mises en avant par Solos et TCL. Les possibilités sont presque infinies, de la discussion à la formation, des soins aux divertissements.

 

Partagez cet article