El modo de voz de Openai ahora se implementa en todos los suscriptores de ChatGPT: prioridad dada a usuarios premium

El muy esperado Modo de Voz Avanzado de OpenAI, destacado durante su evento de lanzamiento de primavera, finalmente ha salido de la fase alfa y ahora está accesible para todos los usuarios de ChatGPT Plus y Team. Esta emocionante actualización fue anunciada por OpenAI el martes, marcando el inicio de un despliegue gradual que promete transformar la experiencia de interacción por voz.
El Modo de Voz Avanzado presenta un asistente de voz más inteligente, capaz de ser interrumpido y responder a las emociones de los usuarios, mejorando el flujo conversacional. Junto con esto, OpenAI está implementando cinco nuevas voces—Arbor, Maple, Sol, Spruce y Vale—disponibles tanto en el Modo de Voz Estándar como en el Avanzado. Estas adiciones están diseñadas para proporcionar una interacción más personalizada y atractiva.
La Voz Avanzada se está implementando para todos los usuarios Plus y Team en la aplicación de ChatGPT a lo largo de la semana.
Mientras esperabas pacientemente, hemos añadido Instrucciones Personalizadas, Memoria, cinco nuevas voces y acentos mejorados.
También puede decir “Lo siento, llego tarde” en más de 50 idiomas. pic.twitter.com/APOqqhXtDg
— OpenAI (@OpenAI) 24 de septiembre de 2024
El despliegue se centrará inicialmente en los usuarios de ChatGPT Plus y Team, con planes para extender el acceso a los niveles Enterprise y Edu la próxima semana. Los usuarios recibirán una notificación a través de un mensaje emergente junto a la opción de Modo de Voz dentro de la interfaz de ChatGPT, indicando su acceso a esta función.
Desde el lanzamiento alfa en julio, OpenAI ha trabajado arduamente en la refinación del Modo de Voz Avanzado. Las mejoras incluyen acentos mejorados en idiomas extranjeros y velocidades de conversación más fluidas. Visualmente, el modo ahora presenta una esfera azul animada, añadiendo un toque fresco a la interfaz.
Para personalizar aún más la experiencia, el Modo de Voz Avanzado ahora incorpora Instrucciones Personalizadas y Memoria. Estas funciones permiten al asistente de voz considerar criterios específicos del usuario, resultando en respuestas más relevantes y personalizadas.
Sin embargo, una limitación persiste desde la versión alfa: los usuarios no podrán utilizar las capacidades multimodales del Modo de Voz, como la asistencia con contenido de pantalla o el uso de la cámara del teléfono para respuestas contextuales, como se demuestra en el video a continuación.
OpenAI ha tomado medidas extensas para garantizar la seguridad de las capacidades de voz, probándolas con más de 100 evaluadores externos en 45 idiomas. En agosto, la compañía publicó su Tarjeta de Sistema GPT-4o, un informe detallado sobre la seguridad del LLM basado en evaluaciones de riesgos, pruebas externas y más, que incluye evaluaciones del Modo de Voz Avanzado.
Para acceder al Modo de Voz Avanzado, puedes suscribirte a ChatGPT Plus por $20 al mes. Esta suscripción no solo otorga acceso a la nueva función de voz, sino que también ofrece beneficios adicionales como análisis de datos avanzado, generación ilimitada de imágenes, cinco veces más mensajes para GPT-4o y la capacidad de crear GPTs personalizados.
Curiosamente, solo una semana después de que OpenAI presentara el Modo de Voz Avanzado en mayo, Google introdujo una función similar llamada Gemini Live. Este asistente de voz conversacional, impulsado por LLMs, busca mejorar el flujo y la comprensión de la conversación. A principios de este mes, Google hizo que Gemini Live estuviera disponible de forma gratuita para todos los usuarios de Android, proporcionando una alternativa para aquellos interesados en una tecnología de asistente de voz similar sin necesidad de una suscripción paga.
Artículo relacionado
Escapadas a playas hawaianas: Nuevos lazos y giros sorprendentes
Imagínese en una playa hawaiana virgen, con la luz del sol calentándole la piel y las olas creando un ritmo relajante. Para Josh, esta visión se hizo realidad tras años de dedicación. Lo que comienza
El vídeo animado "Crazy Train" de Ozzy Osbourne: Una inmersión profunda en su arte e impacto
Crazy Train" de Ozzy Osbourne trasciende su condición de clásico del heavy metal y representa un hito cultural. Su vídeo musical animado ofrece un impactante viaje visual que amplifica la cruda energ
EleutherAI presenta un conjunto de datos de texto licenciado masivo para entrenamiento de IA
EleutherAI, un grupo líder en investigación de IA, ha lanzado una de las colecciones más grandes de texto licenciado y de dominio público para el entrenamiento de modelos de IA.Llamado Common Pile v0.
comentario (22)
0/200
NicholasThomas
23 de julio de 2025 10:50:48 GMT+02:00
Wow, voice mode for all ChatGPT subscribers? That's a game-changer! Can't wait to try it out and see how it stacks up against other AI assistants. 😎
0
JackMitchell
23 de julio de 2025 06:59:29 GMT+02:00
Wow, voice mode for all ChatGPT subscribers is a game-changer! I’m stoked to try it out, but I wonder how it stacks up against other AI voice assistants. Anyone tested it yet? 😎
0
GregoryRoberts
15 de abril de 2025 11:55:52 GMT+02:00
Finally got access to the voice mode on ChatGPT! It’s super cool and works surprisingly well. A bit pricey for non-premium users though 😅
0
WalterWalker
15 de abril de 2025 11:11:46 GMT+02:00
OpenAIのVoice Modeを試してみました!結構クールですが、もっと速くなるといいですね。声が自然なのが大きなプラスです。プレミアムユーザーなので早めにアクセスできましたが、完璧になる前にもう少し磨きが必要だと思います。それでも、正しい方向への一歩ですね!🎤
0
RoyLopez
15 de abril de 2025 10:30:14 GMT+02:00
드디어 OpenAI의 Voice Mode를 사용해봤어요! 꽤 멋지지만 더 빨라졌으면 좋겠어요. 목소리가 자연스럽다는 게 큰 장점이에요. 프리미엄 사용자라서 일찍 접근할 수 있었는데, 완벽해지기 전에 조금 더 다듬어야 할 것 같아요. 그래도 올바른 방향으로 나아가는 한 걸음이죠! 🎤
0
NicholasRoberts
15 de abril de 2025 08:59:18 GMT+02:00
Finally got to try OpenAI's Voice Mode! It's pretty cool, but I wish it was faster. The voice sounds natural, which is a big plus. I'm a premium user, so I got early access, but I think it needs a bit more polish before it's perfect. Still, it's a step in the right direction! 🎤
0
El muy esperado Modo de Voz Avanzado de OpenAI, destacado durante su evento de lanzamiento de primavera, finalmente ha salido de la fase alfa y ahora está accesible para todos los usuarios de ChatGPT Plus y Team. Esta emocionante actualización fue anunciada por OpenAI el martes, marcando el inicio de un despliegue gradual que promete transformar la experiencia de interacción por voz.
El Modo de Voz Avanzado presenta un asistente de voz más inteligente, capaz de ser interrumpido y responder a las emociones de los usuarios, mejorando el flujo conversacional. Junto con esto, OpenAI está implementando cinco nuevas voces—Arbor, Maple, Sol, Spruce y Vale—disponibles tanto en el Modo de Voz Estándar como en el Avanzado. Estas adiciones están diseñadas para proporcionar una interacción más personalizada y atractiva.
La Voz Avanzada se está implementando para todos los usuarios Plus y Team en la aplicación de ChatGPT a lo largo de la semana.
Mientras esperabas pacientemente, hemos añadido Instrucciones Personalizadas, Memoria, cinco nuevas voces y acentos mejorados.
También puede decir “Lo siento, llego tarde” en más de 50 idiomas. pic.twitter.com/APOqqhXtDg— OpenAI (@OpenAI) 24 de septiembre de 2024
El despliegue se centrará inicialmente en los usuarios de ChatGPT Plus y Team, con planes para extender el acceso a los niveles Enterprise y Edu la próxima semana. Los usuarios recibirán una notificación a través de un mensaje emergente junto a la opción de Modo de Voz dentro de la interfaz de ChatGPT, indicando su acceso a esta función.
Desde el lanzamiento alfa en julio, OpenAI ha trabajado arduamente en la refinación del Modo de Voz Avanzado. Las mejoras incluyen acentos mejorados en idiomas extranjeros y velocidades de conversación más fluidas. Visualmente, el modo ahora presenta una esfera azul animada, añadiendo un toque fresco a la interfaz.
Para personalizar aún más la experiencia, el Modo de Voz Avanzado ahora incorpora Instrucciones Personalizadas y Memoria. Estas funciones permiten al asistente de voz considerar criterios específicos del usuario, resultando en respuestas más relevantes y personalizadas.
Sin embargo, una limitación persiste desde la versión alfa: los usuarios no podrán utilizar las capacidades multimodales del Modo de Voz, como la asistencia con contenido de pantalla o el uso de la cámara del teléfono para respuestas contextuales, como se demuestra en el video a continuación.
OpenAI ha tomado medidas extensas para garantizar la seguridad de las capacidades de voz, probándolas con más de 100 evaluadores externos en 45 idiomas. En agosto, la compañía publicó su Tarjeta de Sistema GPT-4o, un informe detallado sobre la seguridad del LLM basado en evaluaciones de riesgos, pruebas externas y más, que incluye evaluaciones del Modo de Voz Avanzado.Para acceder al Modo de Voz Avanzado, puedes suscribirte a ChatGPT Plus por $20 al mes. Esta suscripción no solo otorga acceso a la nueva función de voz, sino que también ofrece beneficios adicionales como análisis de datos avanzado, generación ilimitada de imágenes, cinco veces más mensajes para GPT-4o y la capacidad de crear GPTs personalizados.
Curiosamente, solo una semana después de que OpenAI presentara el Modo de Voz Avanzado en mayo, Google introdujo una función similar llamada Gemini Live. Este asistente de voz conversacional, impulsado por LLMs, busca mejorar el flujo y la comprensión de la conversación. A principios de este mes, Google hizo que Gemini Live estuviera disponible de forma gratuita para todos los usuarios de Android, proporcionando una alternativa para aquellos interesados en una tecnología de asistente de voz similar sin necesidad de una suscripción paga.




Wow, voice mode for all ChatGPT subscribers? That's a game-changer! Can't wait to try it out and see how it stacks up against other AI assistants. 😎




Wow, voice mode for all ChatGPT subscribers is a game-changer! I’m stoked to try it out, but I wonder how it stacks up against other AI voice assistants. Anyone tested it yet? 😎




Finally got access to the voice mode on ChatGPT! It’s super cool and works surprisingly well. A bit pricey for non-premium users though 😅




OpenAIのVoice Modeを試してみました!結構クールですが、もっと速くなるといいですね。声が自然なのが大きなプラスです。プレミアムユーザーなので早めにアクセスできましたが、完璧になる前にもう少し磨きが必要だと思います。それでも、正しい方向への一歩ですね!🎤




드디어 OpenAI의 Voice Mode를 사용해봤어요! 꽤 멋지지만 더 빨라졌으면 좋겠어요. 목소리가 자연스럽다는 게 큰 장점이에요. 프리미엄 사용자라서 일찍 접근할 수 있었는데, 완벽해지기 전에 조금 더 다듬어야 할 것 같아요. 그래도 올바른 방향으로 나아가는 한 걸음이죠! 🎤




Finally got to try OpenAI's Voice Mode! It's pretty cool, but I wish it was faster. The voice sounds natural, which is a big plus. I'm a premium user, so I got early access, but I think it needs a bit more polish before it's perfect. Still, it's a step in the right direction! 🎤












