OpenAI prévoit de déployer cet automne son mode vocal avancé qui peut comprendre et répondre avec des émotions. On fait le point !
Le mode vocal avancé sur ChatGPT “peut comprendre et répondre avec des émotions et des signaux non verbaux, ce qui nous rapproche des conversations naturelles en temps réel avec l’IA”, nous explique OpenAI. Comme vous pouvez l’entendre dans la vidéo ci-dessous, l’IA a une voix similaire à celle d’un humain et exprime des émotions comme la surprise et la joie, qui sont même accompagnées par quelques rires. Nous sommes bien loin de la voix robotique des premiers chatbots vocaux.
Quand sera déployé le mode vocal avancé de ChatGPT ?
Tous les utilisateurs de ChatGPT Plus devraient avoir accès au mode vocal avancé cet automne, mais aucune date précise n’a été indiquée pour le moment. OpenAI avait prévu de le déployer en version alpha auprès d’un petit groupe d’utilisateurs en cette fin de mois de juin, mais a finalement décidé de repousser le premier accès à fin juillet. La raison ? OpenAI indique continuer à améliorer la capacité du modèle à détecter et à refuser certains contenus, et travaille aussi sur l’expérience utilisateur.