O Modo de Voz do OpenAI agora sendo lançado para todos os assinantes ChatGPT - Prioridade dada a usuários premium

O modo de voz avançado tão esperado do OpenAI, destacado durante o evento de lançamento da primavera, finalmente saiu do Alpha e agora está acessível a todos os usuários do ChatGPT Plus e da equipe. Esta atualização emocionante foi anunciada pelo Openai na terça -feira, marcando o início de um lançamento gradual que promete transformar a experiência de interação com voz. O modo de voz avançado introduz um assistente de voz mais inteligente capaz de ser interrompido e responder às emoções dos usuários, aumentando o fluxo de conversação. Além disso, o OpenAI está lançando cinco novas vozes - Arbor, Maple, Sol, Spruce e Vale - disponível nos modos de voz padrão e avançado. Essas adições foram projetadas para fornecer uma interação mais personalizada e envolvente. > A Voz Advanced está sendo lançada para todos os usuários de mais e equipe no aplicativo ChatGPT ao longo da semana. > Enquanto você espera pacientemente, adicionamos instruções personalizadas, memória, cinco novas vozes e sotaques aprimorados. > Também pode dizer "desculpe, estou atrasado" em mais de 50 idiomas. pic.twitter.com/apoqqhxtdg >> - Openai (@Openai) 24 de setembro de 2024 O lançamento se concentrará inicialmente nos usuários do ChatGPT Plus e da equipe, com planos de estender o acesso às camadas Enterprise e EDU na próxima semana. Os usuários receberão uma notificação por meio de uma mensagem pop-up ao lado da opção Modo de voz na interface ChatGPT, indicando seu acesso a esse recurso. Desde o lançamento da Alpha em julho, o OpenAI tem trabalhado duro para refinar o modo de voz avançado. As melhorias incluem sotaques aprimorados em idiomas estrangeiros e velocidades de conversação mais suaves. Visualmente, o modo agora possui uma esfera azul animada, adicionando um novo toque à interface. Para adaptar ainda mais a experiência, o modo de voz avançado agora incorpora instruções e memória personalizadas. Esses recursos permitem que o assistente de voz considere os critérios específicos do usuário, resultando em respostas mais relevantes e personalizadas. No entanto, uma limitação permanece da versão alfa: os usuários não poderão utilizar os recursos multimodais do modo de voz, como assistência ao conteúdo da tela ou usar a câmera do telefone para obter respostas contextuais, conforme demonstrado no vídeo abaixo. O OpenAI tomou medidas extensas para garantir a segurança das capacidades de voz, testando -as com mais de 100 equipes vermelhas externas em 45 idiomas. Em agosto, a empresa divulgou seu cartão GPT-4O System, um relatório detalhado sobre a segurança do LLM com base em avaliações de risco, equipes vermelhas externas e muito mais, que inclui avaliações do modo de voz avançado. Para acessar o modo de voz avançado, você pode se inscrever no ChatGPT Plus por US $ 20 por mês. Essa assinatura não apenas concede acesso ao novo recurso de voz, mas também oferece benefícios adicionais, como análise de dados avançada, geração de imagens ilimitadas, cinco vezes mais mensagens para o GPT-4O e a capacidade de criar GPTs personalizados. Curiosamente, apenas uma semana depois que o OpenAI revelou o modo de voz avançado em maio, o Google introduziu um recurso semelhante chamado Gemini Live. Esse assistente de voz de conversação, alimentado pelo LLMS, tem como objetivo melhorar o fluxo de conversas e a compreensão. No início deste mês, o Google fez o Gemini Live disponível gratuitamente para todos os usuários do Android, fornecendo uma alternativa para os interessados em tecnologia de assistente de voz semelhante sem a necessidade de uma assinatura paga.
Artigo relacionado
Ferramentas Alimentadas por IA Simplificam o Desenvolvimento de Contratos Inteligentes
A blockchain e os contratos inteligentes oferecem um vasto potencial, mas o desenvolvimento tradicional é frequentemente intricado e lento. Imagine simplificar todo o processo, do design à implantação
Submagic AI: Criar YouTube Shorts Atraentes em Minutos
Criar YouTube Shorts envolventes pode ser um processo demorado. Submagic AI oferece uma solução eficiente, automatizando tarefas essenciais para a produção de vídeos curtos. Este guia destaca como o S
Apple Revela Recursos Aprimorados do Siri Neste Outono
A Apple está pronta para lançar suas capacidades avançadas e centradas no usuário do Siri antes da temporada de festas de 2025, conforme relatado por The New York Times. Citando três fontes informadas
Comentários (20)
0/200
EdwardMartinez
14 de Abril de 2025 à0 00:00:00 WEST
Finally got to try OpenAI's Voice Mode! It's pretty cool, but sometimes the responses are a bit slow. Still, it's a game changer for multitasking. Just wish it was quicker, you know? Worth the wait, though!
0
EmmaJohnson
14 de Abril de 2025 à0 00:00:00 WEST
OpenAIのVoice Mode、使ってみたけど、反応がちょっと遅い時があるのが残念。でも、マルチタスクには革命的だね。もう少し早くなれば完璧なんだけど。これからが楽しみ!
0
HarryLewis
14 de Abril de 2025 à0 00:00:00 WEST
오픈AI의 Voice Mode 써봤는데, 반응이 좀 느린 게 아쉬워. 그래도 멀티태스킹에는 혁신적이야. 조금만 더 빨라지면 완벽할 텐데. 기다린 보람이 있어!
0
CharlesLee
14 de Abril de 2025 à0 00:00:00 WEST
Finalmente experimentei o modo de voz do OpenAI! É bem legal, mas às vezes as respostas são um pouco lentas. Ainda assim, é uma mudança de jogo para multitarefas. Só queria que fosse mais rápido, sabe? Valeu a espera, no entanto!
0
BillyEvans
14 de Abril de 2025 à0 00:00:00 WEST
¡Por fin probé el modo de voz de OpenAI! Es bastante genial, pero a veces las respuestas son un poco lentas. Aún así, es un cambio de juego para hacer varias cosas a la vez. Ojalá fuera más rápido, ¿sabes? Valió la pena la espera, sin embargo!
0
NicholasRoberts
15 de Abril de 2025 à0 00:00:00 WEST
Finally got to try OpenAI's Voice Mode! It's pretty cool, but I wish it was faster. The voice sounds natural, which is a big plus. I'm a premium user, so I got early access, but I think it needs a bit more polish before it's perfect. Still, it's a step in the right direction! 🎤
0




Finally got to try OpenAI's Voice Mode! It's pretty cool, but sometimes the responses are a bit slow. Still, it's a game changer for multitasking. Just wish it was quicker, you know? Worth the wait, though!




OpenAIのVoice Mode、使ってみたけど、反応がちょっと遅い時があるのが残念。でも、マルチタスクには革命的だね。もう少し早くなれば完璧なんだけど。これからが楽しみ!




오픈AI의 Voice Mode 써봤는데, 반응이 좀 느린 게 아쉬워. 그래도 멀티태스킹에는 혁신적이야. 조금만 더 빨라지면 완벽할 텐데. 기다린 보람이 있어!




Finalmente experimentei o modo de voz do OpenAI! É bem legal, mas às vezes as respostas são um pouco lentas. Ainda assim, é uma mudança de jogo para multitarefas. Só queria que fosse mais rápido, sabe? Valeu a espera, no entanto!




¡Por fin probé el modo de voz de OpenAI! Es bastante genial, pero a veces las respuestas son un poco lentas. Aún así, es un cambio de juego para hacer varias cosas a la vez. Ojalá fuera más rápido, ¿sabes? Valió la pena la espera, sin embargo!




Finally got to try OpenAI's Voice Mode! It's pretty cool, but I wish it was faster. The voice sounds natural, which is a big plus. I'm a premium user, so I got early access, but I think it needs a bit more polish before it's perfect. Still, it's a step in the right direction! 🎤












