option
Maison
Nouvelles
OpenAI améliore ses modèles de transcription et de génération de voix

OpenAI améliore ses modèles de transcription et de génération de voix

10 avril 2025
100

OpenAI déploie de nouveaux modèles d'IA pour la transcription et la génération de voix via son API, promettant des améliorations significatives par rapport à leurs versions antérieures. Ces mises à jour font partie de la plus grande vision "agentique" d'OpenAI, qui se concentre sur la création de systèmes autonomes capables d'effectuer des tâches indépendamment pour les utilisateurs. Bien que le terme "agent" puisse être débattu, le responsable du produit d'Openai, Olivier Guicond, le voit comme un chatbot qui peut interagir avec les clients d'une entreprise.

"Nous allons voir de plus en plus d'agents émerger dans les prochains mois", a expliqué Godment avec TechCrunch lors d'un briefing. "L'objectif primordial est d'aider les clients et les développeurs à utiliser des agents utiles, accessibles et précis."

Le dernier modèle de texte vocale d'OpenAI, surnommé "GPT-4O-MINI-TTS", vise non seulement à produire plus de discours réaliste et nuancé, mais est également plus adaptable que ses prédécesseurs. Les développeurs peuvent désormais guider le modèle en utilisant des commandes en langage naturel, telles que «parler comme un scientifique fou» ou «utiliser une voix sereine, comme un professeur de pleine conscience». Ce niveau de contrôle permet une expérience vocale plus personnalisée.

Voici un échantillon d'un «vrai style crime», une voix altérée:

Et voici un exemple de voix féminine "professionnelle":

Jeff Harris, membre de l'équipe de produits d'Openai, a souligné à TechCrunch que l'objectif est de permettre aux développeurs de personnaliser à la fois la "expérience" et le "contexte". "Dans divers scénarios, vous ne voulez pas de voix monotone", a expliqué Harris. "Par exemple, dans un paramètre de support client où la voix doit sembler apologétique pour une erreur, vous pouvez infuser cette émotion dans la voix. Nous croyons fermement que les développeurs et les utilisateurs veulent contrôler non seulement le contenu, mais la manière de la parole."

Passer aux nouvelles offres de parole d'Openai, "GPT-4O-Transcribe" et "GPT-4O-MINI-Transcribe", ces modèles sont définis pour remplacer le modèle de transcription Whisper obsolète. Formés sur une gamme diversifiée de données audio de haute qualité, ils prétendent mieux gérer la parole accentuée et variée, même dans des contextes bruyants. De plus, ces modèles sont moins sujets aux «hallucinations», un problème où Whisper inventerait parfois des mots ou des passages entiers, ajoutant des inexactitudes comme des commentaires raciaux ou des traitements médicaux fictifs aux transcriptions.

"Ces modèles montrent une amélioration significative par rapport à Whisper à cet égard", a noté Harris. "Assurer la précision du modèle est crucial pour une expérience vocale fiable, et par précision, nous voulons dire que les modèles capturent correctement les mots prononcés sans ajouter de contenu non vocal."

Cependant, les performances peuvent varier selon les langues. Les références internes d'OpenAI indiquent que GPT-4O-Transcribe, plus précis des deux, a un "taux d'erreur de mots" près de 30% pour les langues indic et dravidien comme le tamoul, le télougou, le malayalam et le kannada. Cela suggère qu'environ trois mots sur dix peuvent différer d'une transcription humaine dans ces langues.

Résultats de la transcription OpenAI

Les résultats de la transcription OpenAI d'analyse comparative. Crédits d'image: Openai

Dans un écart par rapport à leur pratique habituelle, OpenAI ne rendra ces nouveaux modèles de transcription gratuitement disponibles. Historiquement, ils ont publié de nouvelles versions Whisper sous une licence MIT pour une utilisation commerciale. Harris a souligné que GPT-4O-Transcribe et GPT-4O-MINI-Transcribe sont nettement plus importants que le chuchotement, ce qui les rend inadaptés à une version ouverte.

"Ces modèles sont trop grands pour fonctionner sur un ordinateur portable typique comme Whisper", a ajouté Harris. "Lorsque nous publions des modèles ouvertement, nous voulons le faire de manière réfléchie, en nous assurant qu'ils sont adaptés à des besoins spécifiques. Nous considérons les appareils d'utilisateur final comme une zone de choix pour les modèles open source."

Mis à jour le 20 mars 2025, 11 h 54 PT pour clarifier la langue autour du taux d'erreur de mots et mettre à jour le tableau des résultats de référence avec une version plus récente.

Article connexe
OpenAI升級其Operator Agent的AI模型 OpenAI升級其Operator Agent的AI模型 OpenAI將Operator推向全新境界OpenAI正為其自主AI代理Operator進行重大升級。這項變革意味著Operator即將採用基於o3模型的架構,這是OpenAI尖端o系列推理模型的最新成員。此前Operator一直使用客製化版本的GPT-4o驅動,但這次迭代將帶來顯著改進。o3的突破性意義在數學與邏輯推理任務方面,o3幾乎在所有指標上都超越前
OpenAI的o3 AI模型在基準測試中的得分低於最初暗示的水準 OpenAI的o3 AI模型在基準測試中的得分低於最初暗示的水準 為什麼 AI 基準測試的差異很重要?提到 AI 時,數字往往能說明一切——有時,這些數字並不一定完全相符。以 OpenAI 的 o3 模型為例。最初的聲稱簡直令人驚嘆:據報導,o3 可以處理超過 25% 的 notoriously tough FrontierMath 問題。作為參考,競爭對手還停留在個位數。但隨著近期的發展,受人尊敬的研究機構 Epoch
Ziff Davis指控OpenAI涉嫌侵權 Ziff Davis指控OpenAI涉嫌侵權 Ziff Davis控告OpenAI版權侵權訴訟這起事件在科技和出版界掀起了軒然大波,Ziff Davis——旗下擁有CNET、PCMag、IGN和Everyday Health等品牌的龐大企業聯盟——已對OpenAI提起版權侵權訴訟。根據《紐約時報》的報導,該訴訟聲稱OpenAI故意未經許可使用Ziff Davis的內容,製作了其作品的「精確副本」。這是截
commentaires (30)
0/200
ThomasBaker
ThomasBaker 12 avril 2025 00:00:00 UTC

OpenAI's new transcription and voice models are a game-changer! 🎤 The improvements are legit, making my workflow so much smoother. Can't wait to see what else they come up with in their 'agentic' vision. Keep it up, OpenAI! 🚀

EmmaTurner
EmmaTurner 12 avril 2025 00:00:00 UTC

OpenAIの新しいトランスクリプションと音声生成モデルは革命的!🎤 改善点が本物で、私の作業がずっとスムーズになった。'agentic'ビジョンで次に何を出すのか楽しみだね。頑張れ、OpenAI!🚀

DanielThomas
DanielThomas 11 avril 2025 00:00:00 UTC

OpenAI의 새로운 전사 및 음성 생성 모델은 혁신적이야! 🎤 개선 사항이 진짜라서 내 작업 흐름이 훨씬 더 부드러워졌어. 'agentic' 비전에서 다음에 무엇을 내놓을지 기대돼. 계속해라, OpenAI! 🚀

JasonMartin
JasonMartin 15 avril 2025 00:00:00 UTC

Os novos modelos de transcrição e geração de voz da OpenAI são revolucionários! 🎤 As melhorias são reais, tornando meu fluxo de trabalho muito mais suave. Mal posso esperar para ver o que mais eles vão lançar na visão 'agentic'. Continue assim, OpenAI! 🚀

RobertLewis
RobertLewis 10 avril 2025 00:00:00 UTC

OpenAI के नए ट्रांसक्रिप्शन और वॉइस जनरेशन मॉडल क्रांतिकारी हैं! 🎤 सुधार वास्तविक हैं, जिससे मेरा कार्यप्रवाह बहुत आसान हो गया है। 'एजेंटिक' विजन में वे और क्या लाएंगे, इसका इंतजार नहीं कर सकता। आगे बढ़ो, OpenAI! 🚀

OliverPhillips
OliverPhillips 12 avril 2025 00:00:00 UTC

OpenAI's new transcription and voice models sound promising! I'm excited to see how these upgrades will improve my workflow. The idea of autonomous systems is cool, but I hope they don't get too creepy. 🤖

Retour en haut
OR