Google enthüllt ein effizientes Gemini -AI -Modell

Google wird ein neues KI -Modell, Gemini 2.5 Flash, vorstellen, das eine robuste Leistung verspricht und gleichzeitig die Effizienz priorisieren. Dieses Modell wird in die Vertex AI, die Google -Plattform für KI -Entwicklung, integriert. Laut Google bietet Gemini 2.5 Flash "dynamische und steuerbare" Computerfunktionen, mit denen Entwickler die Verarbeitungszeiten entsprechend der Komplexität ihrer Abfragen optimieren können.
In einem mit TechCrunch geteilten Blog-Beitrag erklärte Google: "Sie können die Geschwindigkeit, die Genauigkeit und die Kostenbilanz für Ihre spezifischen Anforderungen einstellen. Diese Flexibilität ist der Schlüssel zur Optimierung der Flash-Leistung in hochvolumigen, kostengünstigen Anwendungen." Dieser Ansatz kommt zu einer Zeit, in der die mit hochrangigen KI-Modellen verbundenen Kosten steigen. Modelle wie Gemini 2.5 Flash, die budgetfreundlicher sind und gleichzeitig eine solide Leistung liefern, dienen als ansprechende Alternative zu teureren Optionen, wenn auch mit einem leichten Kompromiss in der Genauigkeit.
Gemini 2.5 Flash wird als "Argumentations" -Modell eingestuft, ähnlich wie bei OpenAIs O3-Mini und Deepseeks R1. Diese Modelle brauchen etwas mehr Zeit, um zu antworten, da sie ihre Antworten fakten überprüfen und die Zuverlässigkeit sicherstellen. Google hebt hervor, dass 2,5 Flash besonders für "hochvolumige" und "Echtzeit" -Anwendungen wie Kundendienst und Dokumentenanalyse geeignet sind.
Google beschreibt 2.5 Flash als "Workforse-Modell" in seinem Blog-Beitrag und erklärt: "Es ist speziell für niedrige Latenz und reduzierte Kosten optimiert. Es ist die ideale Engine für reaktionsschnelle virtuelle Assistenten und Summarisierungswerkzeuge in Echtzeit, bei denen die Effizienz bei der Skalierung der Schlüssel ist." Google hat jedoch keinen Sicherheits- oder technischen Bericht für dieses Modell veröffentlicht, der es schwieriger macht, seine Stärken und Schwächen zu bestimmen. Das Unternehmen hatte zuvor TechCrunch erwähnt, dass es keine Berichte für Modelle ausgibt, die es als "experimentell" hält.
Am Mittwoch gab Google auch Pläne zur Ausweitung von Gemini-Modellen, einschließlich 2,5 Blitz, auf lokale Umgebungen ab, die im dritten Quartal abgebaut sind. Diese Modelle werden in Google Distributed Cloud (GDC) verfügbar sein, die On-Prem-Lösung von Google für Clients mit strengen Datenregierungsanforderungen entwickelt. Google arbeitet mit NVIDIA zusammen, um Gemini-Modelle mit GDC-konformen Nvidia Blackwell-Systemen kompatibel zu machen, die Kunden direkt bei Google oder über andere bevorzugte Kanäle kaufen können.
Verwandter Artikel
Imagen 4 is Google’s newest AI image generator
Google has just unveiled its latest image-generating AI model, Imagen 4, promising users an even better visual experience than its predecessor, Imagen 3. Announced at Google I/O 20
Google's Gemini Code Assist Enhances AI Coding with New Agentic Capabilities
Gemini Code Assist, Google's AI-powered coding companion, is rolling out exciting new "agentic" features in a preview mode. At the recent Cloud Next conference, Google unveiled how
Google’s AI Futures Fund may have to tread carefully
Google’s New AI Investment Initiative: A Strategic Shift Amid Regulatory ScrutinyGoogle's recent announcement of an AI Futures Fund marks a bold move in the tech giant's ongoing qu
Kommentare (0)
0/200
Google wird ein neues KI -Modell, Gemini 2.5 Flash, vorstellen, das eine robuste Leistung verspricht und gleichzeitig die Effizienz priorisieren. Dieses Modell wird in die Vertex AI, die Google -Plattform für KI -Entwicklung, integriert. Laut Google bietet Gemini 2.5 Flash "dynamische und steuerbare" Computerfunktionen, mit denen Entwickler die Verarbeitungszeiten entsprechend der Komplexität ihrer Abfragen optimieren können.
In einem mit TechCrunch geteilten Blog-Beitrag erklärte Google: "Sie können die Geschwindigkeit, die Genauigkeit und die Kostenbilanz für Ihre spezifischen Anforderungen einstellen. Diese Flexibilität ist der Schlüssel zur Optimierung der Flash-Leistung in hochvolumigen, kostengünstigen Anwendungen." Dieser Ansatz kommt zu einer Zeit, in der die mit hochrangigen KI-Modellen verbundenen Kosten steigen. Modelle wie Gemini 2.5 Flash, die budgetfreundlicher sind und gleichzeitig eine solide Leistung liefern, dienen als ansprechende Alternative zu teureren Optionen, wenn auch mit einem leichten Kompromiss in der Genauigkeit.
Gemini 2.5 Flash wird als "Argumentations" -Modell eingestuft, ähnlich wie bei OpenAIs O3-Mini und Deepseeks R1. Diese Modelle brauchen etwas mehr Zeit, um zu antworten, da sie ihre Antworten fakten überprüfen und die Zuverlässigkeit sicherstellen. Google hebt hervor, dass 2,5 Flash besonders für "hochvolumige" und "Echtzeit" -Anwendungen wie Kundendienst und Dokumentenanalyse geeignet sind.
Google beschreibt 2.5 Flash als "Workforse-Modell" in seinem Blog-Beitrag und erklärt: "Es ist speziell für niedrige Latenz und reduzierte Kosten optimiert. Es ist die ideale Engine für reaktionsschnelle virtuelle Assistenten und Summarisierungswerkzeuge in Echtzeit, bei denen die Effizienz bei der Skalierung der Schlüssel ist." Google hat jedoch keinen Sicherheits- oder technischen Bericht für dieses Modell veröffentlicht, der es schwieriger macht, seine Stärken und Schwächen zu bestimmen. Das Unternehmen hatte zuvor TechCrunch erwähnt, dass es keine Berichte für Modelle ausgibt, die es als "experimentell" hält.
Am Mittwoch gab Google auch Pläne zur Ausweitung von Gemini-Modellen, einschließlich 2,5 Blitz, auf lokale Umgebungen ab, die im dritten Quartal abgebaut sind. Diese Modelle werden in Google Distributed Cloud (GDC) verfügbar sein, die On-Prem-Lösung von Google für Clients mit strengen Datenregierungsanforderungen entwickelt. Google arbeitet mit NVIDIA zusammen, um Gemini-Modelle mit GDC-konformen Nvidia Blackwell-Systemen kompatibel zu machen, die Kunden direkt bei Google oder über andere bevorzugte Kanäle kaufen können.











