Google integriert das Chirp 3 -Sprachmodell in die Vertex AI

Generative KI war bisher größtenteils auf textbasierte Schnittstellen zur Erstellung von Texten, Bildern und mehr ausgerichtet. Aber jetzt rückt die Sprache ins Rampenlicht, und sie kommt mit Macht. Google hat gerade große Neuigkeiten verkündet: Ab nächster Woche führen sie Chirp 3 ein – ihre neuesten Modelle für Sprache-zu-Text und HD-Text-zu-Sprache – auf ihrer Vertex AI Plattform.
Erst letzte Woche hat Google eher beiläufig angekündigt, dass Chirp 3 acht neue Stimmen in 31 Sprachen einführen wird. Diese Technologie ist ideal für die Entwicklung von Sprachassistenten, die Erstellung von Hörbüchern und sogar für die Gestaltung von Support-Agenten und Synchronstimmen für Videos. Dies wurde bei einer Veranstaltung in den DeepMind-Büros von Google in London mitgeteilt.
Google ist nicht der Einzige, der auf den Sprach-KI-Zug aufspringt. Letzte Woche kündigte Sesame, die Leute hinter den superrealistischen KI-Stimmen "Maya" und "Miles," an, dass sie Entwicklern erlauben, ihre eigenen benutzerdefinierten Apps und Dienste mit ihrer Technologie zu erstellen.
Google versucht, mit Chirp 3 die Dinge im Griff zu behalten, indem sie einige Nutzungsbeschränkungen einführen, um Missbrauch zu verhindern. "Wir arbeiten gerade mit unserem Sicherheitsteam an einigen dieser Dinge," sagte Thomas Kurian, der CEO von Google Cloud, heute bei einer Pressekonferenz.
ElevenLabs ist ein weiterer großer Akteur im Bereich der KI-Stimmen und hat Millionen eingesammelt, um ihre Sprachdienste auszubauen.
Mit Chirp 3 bringt Google diese in dieselbe Familie wie die neuesten Versionen des LLM Gemini, die sich noch in der Testphase befinden, zusammen mit ihrem Bildgenerierungsmodell Imagen und dem kostspieligen Videogenerierungstool Veo 2.
Es ist noch unklar, ob Chirp 3 so "real" klingen wird wie einige andere KI-Stimmen da draußen (Sesames Arbeit ist ziemlich beeindruckend). Aber wie Demis Hassabis, der CEO von DeepMind, betonte, ist dies ein Marathon, kein Sprint.
"Kurzfristig ... diese Vorstellung, dass [KI] in den nächsten paar Jahren die Lösung für alles ist, sehe ich noch nicht. Ich denke, wir sind noch einige Jahre von etwas wie AGI entfernt," sagte er. "Es wird die Dinge verändern ... in den nächsten zehn Jahren, also mittel- bis langfristig. Es ist einer dieser interessanten Momente in der Zeit."
Google startete Vertex AI bereits 2021 als Plattform für Entwickler, um maschinelles Lernen in der Cloud zu entwickeln. Das war lange bevor KI, und insbesondere generative KI, das heiße Thema wurde, das es jetzt dank OpenAIs GPT-Diensten ist.
Seitdem hat Google Vertex AI stark vorangetrieben und versucht, mit Unternehmen wie Microsoft und Amazon mitzuhalten, die ebenfalls generative KI-Tools für Entwickler entwickeln. Mit Vertex AI können Entwickler nicht nur auf Gemini aufbauen, sondern auch Daten klassifizieren, Modelle trainieren und sie für die Produktion vorbereiten. Es wird interessant sein zu sehen, ob Google beschließt, ihren Garten für Modelle anderer Entwickler zu öffnen.
Google beschäftigt sich schon seit Jahren mit diesem "Chirp"-Sprachprojekt, angefangen damals, als sie es als Codenamen nutzten, um gegen Amazons Alexa anzutreten.
Verwandter Artikel
Google stoppt Pixel 10-Leaks durch frühzeitige offizielle Enthüllung des Smartphones
Google lockt seine Fans mit einem frühen Blick auf das kommende Pixel 10-Smartphone und zeigt das offizielle Design nur wenige Wochen vor dem geplanten Launch-Event am 20. August.Ein Werbevideo auf de
Googles Gemini-App mit Echtzeit-KI-Video, Deep Research und neuen Funktionen (120 Zeichen)
Google hat auf seiner Entwicklerkonferenz I/O 2025 wichtige Verbesserungen für Gemini AI vorgestellt. Dabei wurden die multimodalen Funktionen erweitert, KI-Modelle der nächsten Generation eingeführt
Assort Health sichert sich $50 Mio. Finanzierung zur Automatisierung der Patientenkommunikation
Assort Health, ein aufstrebendes KI-Startup im Gesundheitswesen, das sich auf automatisierte Patientenkommunikation für Facharztpraxen spezialisiert hat, hat sich eine Series-B-Finanzierung in Höhe vo
Kommentare (65)
0/200
RichardThomas
22. September 2025 02:30:31 MESZ
Finalmente uma atualização de voz descente no Vertex AI! 🎙️ Mas sinceramente... será que o Chirp 3 vai competir com a qualidade da Whisper da OpenAI? To cansado de assistir vídeos com legendas zoadas geradas por IA. Google, não me decepcione dessa vez!
0
JackHernández
9. August 2025 09:00:59 MESZ
Voice AI is getting wild! Google's Chirp 3 sounds like a game-changer for Vertex AI. Can't wait to see how devs use this for next-level apps! 😎
0
CharlesWhite
4. August 2025 08:48:52 MESZ
Whoa, Google’s Chirp 3 sounds like a game-changer for voice AI! I’m curious how it stacks up against other models—anyone tried it yet? 🗣️
0
RogerMartinez
1. August 2025 15:47:34 MESZ
Whoa, Google's Chirp 3 sounds like a game-changer for voice AI! Can't wait to see how it stacks up against other speech-to-text models. 😎 Anyone else excited to try this out on Vertex AI?
0
DennisMitchell
28. Juli 2025 03:20:02 MESZ
Whoa, Chirp 3 sounds like a game-changer for voice AI! Can't wait to see how it stacks up against other models. Google’s really pushing the envelope here! 😎
0
JoeGarcía
21. April 2025 04:59:24 MESZ
谷歌在Vertex AI中整合Chirp 3真是太酷了!语音技术终于得到了应有的关注。迫不及待想下周试试看。但希望他们能更多地专注于提高准确性。现在还不是完美的!🤫
0
Generative KI war bisher größtenteils auf textbasierte Schnittstellen zur Erstellung von Texten, Bildern und mehr ausgerichtet. Aber jetzt rückt die Sprache ins Rampenlicht, und sie kommt mit Macht. Google hat gerade große Neuigkeiten verkündet: Ab nächster Woche führen sie Chirp 3 ein – ihre neuesten Modelle für Sprache-zu-Text und HD-Text-zu-Sprache – auf ihrer Vertex AI Plattform.
Erst letzte Woche hat Google eher beiläufig angekündigt, dass Chirp 3 acht neue Stimmen in 31 Sprachen einführen wird. Diese Technologie ist ideal für die Entwicklung von Sprachassistenten, die Erstellung von Hörbüchern und sogar für die Gestaltung von Support-Agenten und Synchronstimmen für Videos. Dies wurde bei einer Veranstaltung in den DeepMind-Büros von Google in London mitgeteilt.
Google ist nicht der Einzige, der auf den Sprach-KI-Zug aufspringt. Letzte Woche kündigte Sesame, die Leute hinter den superrealistischen KI-Stimmen "Maya" und "Miles," an, dass sie Entwicklern erlauben, ihre eigenen benutzerdefinierten Apps und Dienste mit ihrer Technologie zu erstellen.
Google versucht, mit Chirp 3 die Dinge im Griff zu behalten, indem sie einige Nutzungsbeschränkungen einführen, um Missbrauch zu verhindern. "Wir arbeiten gerade mit unserem Sicherheitsteam an einigen dieser Dinge," sagte Thomas Kurian, der CEO von Google Cloud, heute bei einer Pressekonferenz.
ElevenLabs ist ein weiterer großer Akteur im Bereich der KI-Stimmen und hat Millionen eingesammelt, um ihre Sprachdienste auszubauen.
Mit Chirp 3 bringt Google diese in dieselbe Familie wie die neuesten Versionen des LLM Gemini, die sich noch in der Testphase befinden, zusammen mit ihrem Bildgenerierungsmodell Imagen und dem kostspieligen Videogenerierungstool Veo 2.
Es ist noch unklar, ob Chirp 3 so "real" klingen wird wie einige andere KI-Stimmen da draußen (Sesames Arbeit ist ziemlich beeindruckend). Aber wie Demis Hassabis, der CEO von DeepMind, betonte, ist dies ein Marathon, kein Sprint.
"Kurzfristig ... diese Vorstellung, dass [KI] in den nächsten paar Jahren die Lösung für alles ist, sehe ich noch nicht. Ich denke, wir sind noch einige Jahre von etwas wie AGI entfernt," sagte er. "Es wird die Dinge verändern ... in den nächsten zehn Jahren, also mittel- bis langfristig. Es ist einer dieser interessanten Momente in der Zeit."
Google startete Vertex AI bereits 2021 als Plattform für Entwickler, um maschinelles Lernen in der Cloud zu entwickeln. Das war lange bevor KI, und insbesondere generative KI, das heiße Thema wurde, das es jetzt dank OpenAIs GPT-Diensten ist.
Seitdem hat Google Vertex AI stark vorangetrieben und versucht, mit Unternehmen wie Microsoft und Amazon mitzuhalten, die ebenfalls generative KI-Tools für Entwickler entwickeln. Mit Vertex AI können Entwickler nicht nur auf Gemini aufbauen, sondern auch Daten klassifizieren, Modelle trainieren und sie für die Produktion vorbereiten. Es wird interessant sein zu sehen, ob Google beschließt, ihren Garten für Modelle anderer Entwickler zu öffnen.
Google beschäftigt sich schon seit Jahren mit diesem "Chirp"-Sprachprojekt, angefangen damals, als sie es als Codenamen nutzten, um gegen Amazons Alexa anzutreten.



Finalmente uma atualização de voz descente no Vertex AI! 🎙️ Mas sinceramente... será que o Chirp 3 vai competir com a qualidade da Whisper da OpenAI? To cansado de assistir vídeos com legendas zoadas geradas por IA. Google, não me decepcione dessa vez!




Voice AI is getting wild! Google's Chirp 3 sounds like a game-changer for Vertex AI. Can't wait to see how devs use this for next-level apps! 😎




Whoa, Google’s Chirp 3 sounds like a game-changer for voice AI! I’m curious how it stacks up against other models—anyone tried it yet? 🗣️




Whoa, Google's Chirp 3 sounds like a game-changer for voice AI! Can't wait to see how it stacks up against other speech-to-text models. 😎 Anyone else excited to try this out on Vertex AI?




Whoa, Chirp 3 sounds like a game-changer for voice AI! Can't wait to see how it stacks up against other models. Google’s really pushing the envelope here! 😎




谷歌在Vertex AI中整合Chirp 3真是太酷了!语音技术终于得到了应有的关注。迫不及待想下周试试看。但希望他们能更多地专注于提高准确性。现在还不是完美的!🤫












