Le mode vocal d'Openai se déroule maintenant à tous les abonnés Chatgpt - priorité donnée aux utilisateurs premium

Le mode vocal avancé très attendu d'OpenAI, mis en évidence lors de leur événement de lancement de printemps, a finalement quitté Alpha et est désormais accessible à tous les utilisateurs de ChatGpt Plus et de l'équipe. Cette mise à jour passionnante a été annoncée par Openai mardi, marquant le début d'un déploiement progressif qui promet de transformer l'expérience d'interaction vocale. Le mode vocal avancé introduit un assistant vocal plus intelligent capable d'être interrompu et de répondre aux émotions des utilisateurs, améliorant le flux conversationnel. Parallèlement à cela, Openai déploie cinq nouvelles voix - Arbor, Maple, Sol, Spruce et Vale - disponibles dans les modes vocaux standard et avancés. Ces ajouts sont conçus pour fournir une interaction plus personnalisée et engageante. > Advanced Voice se déroule à tous les utilisateurs et les utilisateurs de l'équipe dans l'application Chatgpt au cours de la semaine. > Pendant que vous attendiez patiemment, nous avons ajouté des instructions personnalisées, de la mémoire, cinq nouvelles voix et des accents améliorés. > Il peut également dire «désolé je suis en retard» dans plus de 50 langues. pic.twitter.com/apoqqhxtdg >> - Openai (@openai) 24 septembre 2024 Le déploiement se concentrera initialement sur Chatgpt Plus et les utilisateurs de l'équipe, avec des plans pour étendre l'accès aux niveaux d'entreprise et d'Edu la semaine prochaine. Les utilisateurs recevront une notification via un message contextuel à côté de l'option Mode vocale dans l'interface Chatgpt, indiquant leur accès à cette fonctionnalité. Depuis la sortie alpha en juillet, Openai a travaillé dur pour affiner le mode vocal avancé. Les améliorations incluent des accents améliorés dans les langues étrangères et les vitesses de conversation plus lisses. Visuellement, le mode propose désormais une sphère bleue animée, ajoutant une nouvelle touche à l'interface. Pour adapter davantage l'expérience, le mode vocal avancé intègre désormais des instructions et de la mémoire personnalisées. Ces fonctionnalités permettent à l'assistant vocal de prendre en compte les critères spécifiques à l'utilisateur, ce qui entraîne des réponses plus pertinentes et personnalisées. Cependant, une limitation reste de la version alpha: les utilisateurs ne pourront pas utiliser les capacités multimodales du mode vocal, telles que l'assistance au contenu de l'écran ou l'utilisation de l'appareil photo du téléphone pour des réponses contextuelles, comme le montre la vidéo ci-dessous. OpenAI a pris des mesures approfondies pour assurer la sécurité des capacités vocales, en les testant avec plus de 100 équipes rouges externes dans 45 langues. En août, la société a publié sa carte système GPT-4O, un rapport détaillé sur la sécurité du LLM en fonction des évaluations des risques, de l'équipe rouge externe, et plus encore, qui comprend des évaluations du mode vocal avancé. Pour accéder au mode vocal avancé, vous pouvez vous abonner à Chatgpt Plus pour 20 $ par mois. Cet abonnement accorde non seulement l'accès à la nouvelle fonctionnalité vocale, mais offre également des avantages supplémentaires tels que l'analyse avancée des données, la génération d'images illimitée, cinq fois plus de messages pour GPT-4O et la possibilité de créer des GPT personnalisés. Fait intéressant, une semaine seulement après que OpenAI ait dévoilé le mode vocal avancé en mai, Google a introduit une fonctionnalité similaire appelée Gemini Live. Cet assistant vocal conversationnel, propulsé par les LLM, vise à améliorer le flux et la compréhension de la conversation. Plus tôt ce mois-ci, Google a rendu Gemini Live disponible gratuitement pour tous les utilisateurs d'Android, fournissant une alternative à ceux qui s'intéressent à la technologie d'assistant vocal similaire sans avoir besoin d'un abonnement payant.
Article connexe
Outils alimentés par l'IA simplifient le développement de contrats intelligents
La blockchain et les contrats intelligents offrent un vaste potentiel, mais leur développement traditionnel est souvent complexe et lent. Imaginez simplifier l'ensemble du processus, de la conception
Submagic AI : Créez des YouTube Shorts captivants en quelques minutes
Créer des YouTube Shorts attrayants peut être un processus long. Submagic AI offre une solution efficace, automatisant les tâches essentielles pour la production de vidéos courtes. Ce guide met en évi
Apple dévoile des fonctionnalités Siri améliorées cet automne
Apple est prêt à lancer ses capacités Siri avancées et axées sur l'utilisateur avant la saison des fêtes 2025, selon The New York Times. Citant trois sources informées, le média a noté que l'assistant
commentaires (20)
0/200
EdwardMartinez
14 avril 2025 00:00:00 UTC+02:00
Finally got to try OpenAI's Voice Mode! It's pretty cool, but sometimes the responses are a bit slow. Still, it's a game changer for multitasking. Just wish it was quicker, you know? Worth the wait, though!
0
EmmaJohnson
14 avril 2025 00:00:00 UTC+02:00
OpenAIのVoice Mode、使ってみたけど、反応がちょっと遅い時があるのが残念。でも、マルチタスクには革命的だね。もう少し早くなれば完璧なんだけど。これからが楽しみ!
0
HarryLewis
14 avril 2025 00:00:00 UTC+02:00
오픈AI의 Voice Mode 써봤는데, 반응이 좀 느린 게 아쉬워. 그래도 멀티태스킹에는 혁신적이야. 조금만 더 빨라지면 완벽할 텐데. 기다린 보람이 있어!
0
CharlesLee
14 avril 2025 00:00:00 UTC+02:00
Finalmente experimentei o modo de voz do OpenAI! É bem legal, mas às vezes as respostas são um pouco lentas. Ainda assim, é uma mudança de jogo para multitarefas. Só queria que fosse mais rápido, sabe? Valeu a espera, no entanto!
0
BillyEvans
14 avril 2025 00:00:00 UTC+02:00
¡Por fin probé el modo de voz de OpenAI! Es bastante genial, pero a veces las respuestas son un poco lentas. Aún así, es un cambio de juego para hacer varias cosas a la vez. Ojalá fuera más rápido, ¿sabes? Valió la pena la espera, sin embargo!
0
NicholasRoberts
15 avril 2025 00:00:00 UTC+02:00
Finally got to try OpenAI's Voice Mode! It's pretty cool, but I wish it was faster. The voice sounds natural, which is a big plus. I'm a premium user, so I got early access, but I think it needs a bit more polish before it's perfect. Still, it's a step in the right direction! 🎤
0




Finally got to try OpenAI's Voice Mode! It's pretty cool, but sometimes the responses are a bit slow. Still, it's a game changer for multitasking. Just wish it was quicker, you know? Worth the wait, though!




OpenAIのVoice Mode、使ってみたけど、反応がちょっと遅い時があるのが残念。でも、マルチタスクには革命的だね。もう少し早くなれば完璧なんだけど。これからが楽しみ!




오픈AI의 Voice Mode 써봤는데, 반응이 좀 느린 게 아쉬워. 그래도 멀티태스킹에는 혁신적이야. 조금만 더 빨라지면 완벽할 텐데. 기다린 보람이 있어!




Finalmente experimentei o modo de voz do OpenAI! É bem legal, mas às vezes as respostas são um pouco lentas. Ainda assim, é uma mudança de jogo para multitarefas. Só queria que fosse mais rápido, sabe? Valeu a espera, no entanto!




¡Por fin probé el modo de voz de OpenAI! Es bastante genial, pero a veces las respuestas son un poco lentas. Aún así, es un cambio de juego para hacer varias cosas a la vez. Ojalá fuera más rápido, ¿sabes? Valió la pena la espera, sin embargo!




Finally got to try OpenAI's Voice Mode! It's pretty cool, but I wish it was faster. The voice sounds natural, which is a big plus. I'm a premium user, so I got early access, but I think it needs a bit more polish before it's perfect. Still, it's a step in the right direction! 🎤












