Google presenta un modelo eficiente de AI Géminis

Google está configurado para presentar un nuevo modelo de IA, Gemini 2.5 Flash, que promete un rendimiento robusto al tiempo que prioriza la eficiencia. Este modelo se integrará en Vertex AI, la plataforma de Google para el desarrollo de IA. Según Google, Gemini 2.5 Flash ofrece capacidades informáticas "dinámicas y controlables", lo que permite a los desarrolladores ajustar los tiempos de procesamiento de acuerdo con la complejidad de sus consultas.
En una publicación de blog compartida con TechCrunch, Google declaró: "Puede sintonizar la velocidad, la precisión y el equilibrio de costos para sus necesidades específicas. Esta flexibilidad es clave para optimizar el rendimiento de flash en aplicaciones de alto volumen y sensibles a los costos". Este enfoque llega en un momento en que los costos asociados con los modelos de IA de primer nivel están en aumento. Modelos como Gemini 2.5 Flash, que son más amigables con el presupuesto al tiempo que ofrecen un rendimiento sólido, sirven como una alternativa atractiva a las opciones más caras, aunque con una ligera compensación en precisión.
Gemini 2.5 Flash se clasifica como un modelo de "razonamiento", similar al O3-Mini de OpenAI y Deepseek's R1. Estos modelos tardan un poco más en responder mientras verifican sus respuestas, asegurando la confiabilidad. Google destaca que 2.5 Flash es particularmente adecuado para aplicaciones "de alto volumen" y "en tiempo real", como el servicio al cliente y el análisis de documentos.
Google describe 2.5 Flash como un "modelo de caballo de batalla" en su publicación de blog, afirmando: "Está optimizado específicamente para una baja latencia y un costo reducido. Es el motor ideal para asistentes virtuales receptivos y herramientas de resumen en tiempo real donde la eficiencia a escala es clave". Sin embargo, Google no lanzó un informe de seguridad o técnico para este modelo, lo que dificulta la identificación de sus fortalezas y debilidades. La compañía había mencionado anteriormente a TechCrunch que no emite informes para los modelos que considera "experimental".
El miércoles, Google también reveló planes para extender los modelos Gemini, incluidos 2.5 Flash, a entornos locales a partir del tercer trimestre. Estos modelos estarán disponibles en Google Distributed Cloud (GDC), la solución ON-PREM de Google diseñada para clientes con estrictas necesidades de gobierno de datos. Google está colaborando con Nvidia para hacer que los modelos Gemini compatibles con los sistemas Nvidia Blackwell que cumplen con GDC, que los clientes pueden comprar directamente de Google o a través de otros canales preferidos.
Artículo relacionado
Imagen 4 is Google’s newest AI image generator
Google has just unveiled its latest image-generating AI model, Imagen 4, promising users an even better visual experience than its predecessor, Imagen 3. Announced at Google I/O 20
Google's Gemini Code Assist Enhances AI Coding with New Agentic Capabilities
Gemini Code Assist, Google's AI-powered coding companion, is rolling out exciting new "agentic" features in a preview mode. At the recent Cloud Next conference, Google unveiled how
Google’s AI Futures Fund may have to tread carefully
Google’s New AI Investment Initiative: A Strategic Shift Amid Regulatory ScrutinyGoogle's recent announcement of an AI Futures Fund marks a bold move in the tech giant's ongoing qu
comentario (0)
0/200
Google está configurado para presentar un nuevo modelo de IA, Gemini 2.5 Flash, que promete un rendimiento robusto al tiempo que prioriza la eficiencia. Este modelo se integrará en Vertex AI, la plataforma de Google para el desarrollo de IA. Según Google, Gemini 2.5 Flash ofrece capacidades informáticas "dinámicas y controlables", lo que permite a los desarrolladores ajustar los tiempos de procesamiento de acuerdo con la complejidad de sus consultas.
En una publicación de blog compartida con TechCrunch, Google declaró: "Puede sintonizar la velocidad, la precisión y el equilibrio de costos para sus necesidades específicas. Esta flexibilidad es clave para optimizar el rendimiento de flash en aplicaciones de alto volumen y sensibles a los costos". Este enfoque llega en un momento en que los costos asociados con los modelos de IA de primer nivel están en aumento. Modelos como Gemini 2.5 Flash, que son más amigables con el presupuesto al tiempo que ofrecen un rendimiento sólido, sirven como una alternativa atractiva a las opciones más caras, aunque con una ligera compensación en precisión.
Gemini 2.5 Flash se clasifica como un modelo de "razonamiento", similar al O3-Mini de OpenAI y Deepseek's R1. Estos modelos tardan un poco más en responder mientras verifican sus respuestas, asegurando la confiabilidad. Google destaca que 2.5 Flash es particularmente adecuado para aplicaciones "de alto volumen" y "en tiempo real", como el servicio al cliente y el análisis de documentos.
Google describe 2.5 Flash como un "modelo de caballo de batalla" en su publicación de blog, afirmando: "Está optimizado específicamente para una baja latencia y un costo reducido. Es el motor ideal para asistentes virtuales receptivos y herramientas de resumen en tiempo real donde la eficiencia a escala es clave". Sin embargo, Google no lanzó un informe de seguridad o técnico para este modelo, lo que dificulta la identificación de sus fortalezas y debilidades. La compañía había mencionado anteriormente a TechCrunch que no emite informes para los modelos que considera "experimental".
El miércoles, Google también reveló planes para extender los modelos Gemini, incluidos 2.5 Flash, a entornos locales a partir del tercer trimestre. Estos modelos estarán disponibles en Google Distributed Cloud (GDC), la solución ON-PREM de Google diseñada para clientes con estrictas necesidades de gobierno de datos. Google está colaborando con Nvidia para hacer que los modelos Gemini compatibles con los sistemas Nvidia Blackwell que cumplen con GDC, que los clientes pueden comprar directamente de Google o a través de otros canales preferidos.











