Der Sprachmodus von OpenAI, der jetzt an alle Chatgpt -Abonnenten gilt - Priorität für Premium -Nutzer

OpenAIs mit Spannung erwarteter fortschrittlicher Sprachmodus, der während ihres Frühlings-Start-Events hervorgehoben wurde, ist endlich von Alpha herausgezogen und ist jetzt für alle Chatgpt Plus- und Teambenutzer zugänglich. Dieses aufregende Update wurde am Dienstag von OpenAI angekündigt und markiert den Beginn eines schrittweisen Rollouts, der verspricht, das Erlebnis der Sprachinteraktion zu verändern. Der fortschrittliche Sprachmodus führt einen intelligenteren Sprachassistenten ein, der unterbrochen und auf die Emotionen der Benutzer reagiert werden kann, wodurch der Konversationsfluss verbessert wird. Daneben führt OpenAI fünf neue Stimmen aus - Barrbor, Ahorn, Sol, Fichte und Vale - sowohl in Standard- als auch im fortschrittlichen Sprachmodus. Diese Ergänzungen sind so konzipiert, dass sie eine personalisiertere und ansprechendere Interaktion bieten. > Advanced Voice wird im Laufe der Woche zu allen Plus- und Teambenutzern in der ChatGPT -App eingeführt. > Während Sie geduldig gewartet haben, haben wir benutzerdefinierte Anweisungen, Speicher, fünf neue Stimmen und verbesserte Akzente hinzugefügt. > In über 50 Sprachen kann es auch "Entschuldigung, ich bin zu spät" sagen. pic.twitter.com/apoqqhxtdg >> - OpenAI (@openai) 24. September 2024 Der Rollout wird sich zunächst auf Chatgpt Plus und Teambenutzer konzentrieren, mit Plänen, nächste Woche den Zugriff auf Unternehmens- und EDU -Ebenen zu erweitern. Benutzer erhalten eine Benachrichtigung über eine Popup-Nachricht neben der Option Voice-Modus in der ChatGPT-Schnittstelle, wodurch deren Zugriff auf diese Funktion angegeben wird. Seit der Veröffentlichung von Alpha im Juli hat Openai hart gearbeitet und den fortschrittlichen Sprachmodus verfeinert. Zu den Verbesserungen gehören erweiterte Akzente in Fremdsprachen und glattere Gesprächsgeschwindigkeiten. Visuell verfügt der Modus jetzt über eine animierte blaue Kugel und verleiht der Benutzeroberfläche eine frische Note. Um die Erfahrung weiter anzupassen, enthält der erweiterte Sprachmodus nun benutzerdefinierte Anweisungen und Speicher. Diese Funktionen ermöglichen es dem Sprachassistenten, benutzerspezifische Kriterien zu berücksichtigen, was zu relevanteren und personalisierteren Antworten führt. Eine Einschränkung der Alpha -Version bleibt jedoch eine Einschränkung: Benutzer können die multimodalen Funktionen des Sprachmodus nicht nutzen, z. B. Bildschirminhaltsunterstützung oder die Telefonkamera für kontextbezogene Antworten, wie im folgenden Video demonstriert. OpenAI hat umfangreiche Maßnahmen ergriffen, um die Sicherheit der Sprachfähigkeiten zu gewährleisten und sie mit über 100 externen roten Teamern in 45 Sprachen zu testen. Im August veröffentlichte das Unternehmen seine GPT-4O-Systemkarte, einen detaillierten Bericht über die Sicherheit des LLM, die auf Risikobewertungen, externem Rotteaming und vielem mehr beruht, einschließlich der Bewertungen des fortschrittlichen Sprachmodus. Um auf den erweiterten Sprachmodus zuzugreifen, können Sie ChatGPT Plus für 20 US -Dollar pro Monat abonnieren. Dieses Abonnement gewährt nicht nur Zugriff auf die neue Sprachfunktion, sondern bietet auch zusätzliche Vorteile wie erweiterte Datenanalysen, unbegrenzte Bildgenerierung, fünfmal mehr Nachrichten für GPT-4O und die Möglichkeit, benutzerdefinierte GPTs zu erstellen. Interessanterweise hat Google nur eine Woche nach OpenAI den erweiterten Sprachmodus im Mai eine ähnliche Funktion namens Gemini Live eingeführt. Dieser von LLMs betriebene Gesprächshelfer zielt darauf ab, den Gesprächsfluss und das Verständnis zu verbessern. Anfang dieses Monats hat Google Gemini Live für alle Android -Benutzer kostenlos zur Verfügung gestellt und eine Alternative für diejenigen, die sich für eine ähnliche Sprachassistenten -Technologie interessieren, ohne ein kostenpflichtiges Abonnement benötigt.
Verwandter Artikel
AI-gestützte Werkzeuge vereinfachen die Entwicklung intelligenter Verträge
Blockchain und intelligente Verträge bieten enormes Potenzial, doch die traditionelle Entwicklung ist oft komplex und zeitaufwändig. Stellen Sie sich vor, den gesamten Prozess vom Entwurf bis zur Bere
Submagic AI: Erstellen Sie ansprechende YouTube Shorts in Minuten
Das Erstellen überzeugender YouTube Shorts kann ein langwieriger Prozess sein. Submagic AI bietet eine effiziente Lösung, indem es wesentliche Aufgaben für die Produktion von Kurzvideos automatisiert.
Apple enthüllt verbesserte Siri-Funktionen diesen Herbst
Apple ist bereit, seine fortschrittlichen, nutzerorientierten Siri-Funktionen vor der Weihnachtssaison 2025 einzuführen, wie von The New York Times berichtet. Unter Berufung auf drei informierte Quell
Kommentare (20)
0/200
EdwardMartinez
14. April 2025 00:00:00 MESZ
Finally got to try OpenAI's Voice Mode! It's pretty cool, but sometimes the responses are a bit slow. Still, it's a game changer for multitasking. Just wish it was quicker, you know? Worth the wait, though!
0
EmmaJohnson
14. April 2025 00:00:00 MESZ
OpenAIのVoice Mode、使ってみたけど、反応がちょっと遅い時があるのが残念。でも、マルチタスクには革命的だね。もう少し早くなれば完璧なんだけど。これからが楽しみ!
0
HarryLewis
14. April 2025 00:00:00 MESZ
오픈AI의 Voice Mode 써봤는데, 반응이 좀 느린 게 아쉬워. 그래도 멀티태스킹에는 혁신적이야. 조금만 더 빨라지면 완벽할 텐데. 기다린 보람이 있어!
0
CharlesLee
14. April 2025 00:00:00 MESZ
Finalmente experimentei o modo de voz do OpenAI! É bem legal, mas às vezes as respostas são um pouco lentas. Ainda assim, é uma mudança de jogo para multitarefas. Só queria que fosse mais rápido, sabe? Valeu a espera, no entanto!
0
BillyEvans
14. April 2025 00:00:00 MESZ
¡Por fin probé el modo de voz de OpenAI! Es bastante genial, pero a veces las respuestas son un poco lentas. Aún así, es un cambio de juego para hacer varias cosas a la vez. Ojalá fuera más rápido, ¿sabes? Valió la pena la espera, sin embargo!
0
NicholasRoberts
15. April 2025 00:00:00 MESZ
Finally got to try OpenAI's Voice Mode! It's pretty cool, but I wish it was faster. The voice sounds natural, which is a big plus. I'm a premium user, so I got early access, but I think it needs a bit more polish before it's perfect. Still, it's a step in the right direction! 🎤
0




Finally got to try OpenAI's Voice Mode! It's pretty cool, but sometimes the responses are a bit slow. Still, it's a game changer for multitasking. Just wish it was quicker, you know? Worth the wait, though!




OpenAIのVoice Mode、使ってみたけど、反応がちょっと遅い時があるのが残念。でも、マルチタスクには革命的だね。もう少し早くなれば完璧なんだけど。これからが楽しみ!




오픈AI의 Voice Mode 써봤는데, 반응이 좀 느린 게 아쉬워. 그래도 멀티태스킹에는 혁신적이야. 조금만 더 빨라지면 완벽할 텐데. 기다린 보람이 있어!




Finalmente experimentei o modo de voz do OpenAI! É bem legal, mas às vezes as respostas são um pouco lentas. Ainda assim, é uma mudança de jogo para multitarefas. Só queria que fosse mais rápido, sabe? Valeu a espera, no entanto!




¡Por fin probé el modo de voz de OpenAI! Es bastante genial, pero a veces las respuestas son un poco lentas. Aún así, es un cambio de juego para hacer varias cosas a la vez. Ojalá fuera más rápido, ¿sabes? Valió la pena la espera, sin embargo!




Finally got to try OpenAI's Voice Mode! It's pretty cool, but I wish it was faster. The voice sounds natural, which is a big plus. I'm a premium user, so I got early access, but I think it needs a bit more polish before it's perfect. Still, it's a step in the right direction! 🎤












