O Google revela o modelo eficiente de gêmeos ai

O Google deve revelar um novo modelo de IA, o Gemini 2.5 Flash, que promete desempenho robusto e priorizando a eficiência. Este modelo será integrado ao Vertex AI, a plataforma do Google para o desenvolvimento da IA. De acordo com o Google, o Gemini 2.5 Flash oferece recursos de computação "dinâmicos e controláveis", permitindo que os desenvolvedores ajustem os tempos de processamento de acordo com a complexidade de suas consultas.
Em uma postagem de blog compartilhada com o TechCrunch, o Google afirmou: "Você pode ajustar a velocidade, a precisão e o equilíbrio de custos para suas necessidades específicas. Essa flexibilidade é essencial para otimizar o desempenho do flash em aplicações de alto volume e sensíveis a custos". Essa abordagem ocorre no momento em que os custos associados aos modelos de IA de primeira linha estão aumentando. Modelos como o Gemini 2.5 Flash, que são mais favoráveis ao orçamento, ainda oferecem desempenho sólido, servem como uma alternativa atraente às opções mais caras, embora com uma ligeira troca de precisão.
O flash Gemini 2.5 é categorizado como um modelo de "raciocínio", semelhante ao O3-Mini do Openai e ao R1 de Deepseek. Esses modelos levam um pouco mais de tempo para responder à medida que verifiquem suas respostas, garantindo confiabilidade. O Google destaca que o Flash 2.5 é particularmente adequado para aplicativos de "alto volume" e "em tempo real", como atendimento ao cliente e análise de documentos.
O Google descreve o Flash 2.5 como um "modelo de cavalo de trabalho" em sua postagem no blog, afirmando: "É otimizado especificamente para baixa latência e custo reduzido. É o mecanismo ideal para assistentes virtuais responsivos e ferramentas de resumo em tempo real em que a eficiência em escala é fundamental". No entanto, o Google não divulgou um relatório técnico ou de segurança para este modelo, o que dificulta a identificação de seus pontos fortes e fracos. A empresa mencionou anteriormente ao TechCrunch que não emite relatórios para modelos que considera "experimental".
Na quarta-feira, o Google também revelou planos para estender os modelos Gemini, incluindo 2,5 flash, para ambientes locais a partir do terceiro trimestre. Esses modelos estarão disponíveis no Google Distributed Cloud (GDC), a solução no local do Google, projetada para clientes com necessidades rigorosas de governança de dados. O Google está colaborando com a NVIDIA para tornar os modelos Gemini compatíveis com os sistemas NVIDIA Blackwell compatível com GDC, que os clientes podem comprar diretamente no Google ou em outros canais preferidos.
Artigo relacionado
Imagen 4 is Google’s newest AI image generator
Google has just unveiled its latest image-generating AI model, Imagen 4, promising users an even better visual experience than its predecessor, Imagen 3. Announced at Google I/O 20
Google's Gemini Code Assist Enhances AI Coding with New Agentic Capabilities
Gemini Code Assist, Google's AI-powered coding companion, is rolling out exciting new "agentic" features in a preview mode. At the recent Cloud Next conference, Google unveiled how
Google’s AI Futures Fund may have to tread carefully
Google’s New AI Investment Initiative: A Strategic Shift Amid Regulatory ScrutinyGoogle's recent announcement of an AI Futures Fund marks a bold move in the tech giant's ongoing qu
Comentários (0)
0/200
O Google deve revelar um novo modelo de IA, o Gemini 2.5 Flash, que promete desempenho robusto e priorizando a eficiência. Este modelo será integrado ao Vertex AI, a plataforma do Google para o desenvolvimento da IA. De acordo com o Google, o Gemini 2.5 Flash oferece recursos de computação "dinâmicos e controláveis", permitindo que os desenvolvedores ajustem os tempos de processamento de acordo com a complexidade de suas consultas.
Em uma postagem de blog compartilhada com o TechCrunch, o Google afirmou: "Você pode ajustar a velocidade, a precisão e o equilíbrio de custos para suas necessidades específicas. Essa flexibilidade é essencial para otimizar o desempenho do flash em aplicações de alto volume e sensíveis a custos". Essa abordagem ocorre no momento em que os custos associados aos modelos de IA de primeira linha estão aumentando. Modelos como o Gemini 2.5 Flash, que são mais favoráveis ao orçamento, ainda oferecem desempenho sólido, servem como uma alternativa atraente às opções mais caras, embora com uma ligeira troca de precisão.
O flash Gemini 2.5 é categorizado como um modelo de "raciocínio", semelhante ao O3-Mini do Openai e ao R1 de Deepseek. Esses modelos levam um pouco mais de tempo para responder à medida que verifiquem suas respostas, garantindo confiabilidade. O Google destaca que o Flash 2.5 é particularmente adequado para aplicativos de "alto volume" e "em tempo real", como atendimento ao cliente e análise de documentos.
O Google descreve o Flash 2.5 como um "modelo de cavalo de trabalho" em sua postagem no blog, afirmando: "É otimizado especificamente para baixa latência e custo reduzido. É o mecanismo ideal para assistentes virtuais responsivos e ferramentas de resumo em tempo real em que a eficiência em escala é fundamental". No entanto, o Google não divulgou um relatório técnico ou de segurança para este modelo, o que dificulta a identificação de seus pontos fortes e fracos. A empresa mencionou anteriormente ao TechCrunch que não emite relatórios para modelos que considera "experimental".
Na quarta-feira, o Google também revelou planos para estender os modelos Gemini, incluindo 2,5 flash, para ambientes locais a partir do terceiro trimestre. Esses modelos estarão disponíveis no Google Distributed Cloud (GDC), a solução no local do Google, projetada para clientes com necessidades rigorosas de governança de dados. O Google está colaborando com a NVIDIA para tornar os modelos Gemini compatíveis com os sistemas NVIDIA Blackwell compatível com GDC, que os clientes podem comprar diretamente no Google ou em outros canais preferidos.











