Google supera sigilosamente en Enterprise AI: de 'Ponte al día' a 'Aprendernos'
20 de abril de 2025
EricMartin
5
Hace solo un año, el zumbido alrededor de Google y Enterprise AI parecían atrapados en neutral. A pesar de las tecnologías pioneras como el transformador, el gigante tecnológico parecía estar retrasado, eclipsado por el éxito viral de OpenAI, la destreza de codificación de Anthrope y el agresivo impulso de Microsoft en el mercado empresarial.
Pero avance rápidamente hasta la semana pasada en Google Cloud Next 2025 en Las Vegas, y la escena fue notablemente diferente. Un Google confiado, armado con modelos de alto rendimiento, infraestructura robusta y una clara estrategia empresarial, anunció un cambio dramático. En una reunión de analistas de puerta cerrada con ejecutivos de Google de alto nivel, un analista encapsuló el estado de ánimo: "Esto parece que el momento en que Google pasó de 'ponerse al día' a 'atraparnos'".
El salto de Google hacia adelante
Este sentimiento, que Google no solo se ha alcanzado, sino que se adelantó a Operai y Microsoft en la carrera de IA Enterprise, fue palpable durante todo el evento. Y no es solo exageración de marketing. Durante el año pasado, Google se ha centrado intensamente en la ejecución, convirtiendo su destreza tecnológica en una plataforma integrada de alto rendimiento que se está ganando rápidamente sobre los tomadores de decisiones empresariales. Desde los modelos de IA más poderosos del mundo que se ejecutan en silicio personalizado altamente eficiente hasta un floreciente ecosistema de agentes de IA adaptados para desafíos comerciales del mundo real, Google está haciendo un caso sólido de que nunca se perdió realmente, sino que se perdió, sino que se perdió, sino que se perdió, sino que está sometido a un período de desarrollo profundo y fundamental.
Con su pila integrada ahora operando a plena capacidad, Google parece estar listo para liderar la próxima fase de la Revolución Enterprise AI. En mis entrevistas con los ejecutivos de Google en el siguiente, enfatizaron las ventajas únicas de Google en infraestructura e integración de modelos, adventamientos que competidores como OpenAi, Microsoft o AWS encontrarían difícil replicar.
La sombra de la duda: reconociendo el pasado reciente
Para apreciar completamente el impulso actual de Google, es esencial reconocer el pasado reciente. Google inventó la arquitectura del transformador, provocando la revolución moderna en modelos de idiomas grandes (LLM), y comenzó a invertir en hardware de IA especializado (TPU) hace una década, que ahora impulsa la eficiencia líder en la industria. Sin embargo, inexplicablemente, hace solo dos años y medio, Google se encontró jugando a la defensa.
El chatgpt de Openai capturó la imaginación del público y el interés empresarial a un ritmo impresionante, convirtiéndose en la aplicación de más rápido crecimiento en la historia. Competidores como Anthrope tallaron nichos en áreas como la codificación. Mientras tanto, los movimientos públicos de Google a menudo parecían tentativos o defectuosos. La infame demostración de bardo cae en 2023 y la controversia sobre su generador de imágenes que produce representaciones históricamente inexactas alimentó una narrativa de una compañía potencialmente obstaculizada por la burocracia interna o la exorrección de la alineación. Google parecía perdido, haciéndose eco de su lentitud inicial en la competencia en la nube, donde siguió siendo un tercio distante en la participación de mercado detrás de Amazon y Microsoft.
The Pivot: una decisión consciente de liderar
Detrás de escena, sin embargo, se estaba produciendo un cambio significativo, impulsado por una decisión deliberada en los niveles más altos para reclamar el liderazgo. Mat Velloso, vicepresidente de productos para la plataforma de desarrollador de IA de Google Deepmind, sintió este momento crucial al unirse a Google en febrero de 2024, después de dejar Microsoft. "Cuando llegué a Google, hablé con Sundar [Pichai], hablé con varios líderes aquí, y sentí que ese era el momento en que decidieron, está bien, esta [IA generativa] es algo que a la industria le importan claramente. Hagamos que sucediera", compartió Velloso durante una entrevista la próxima semana pasada.
Este impulso renovado no fue obstaculizado por la temida "drenaje de cerebro" que algunos extraños creían que estaba agotando a Google. En cambio, la compañía duplicó la ejecución a principios de 2024, marcada por la contratación agresiva, la unificación interna y la tracción del cliente. Mientras que los competidores hicieron contrataciones con Splashy, Google retuvo su liderazgo de IA principal, incluido el CEO de Deepmind, Demis Hassabis y el CEO de Google Cloud, Thomas Kurian, proporcionando estabilidad y una profunda experiencia.
Además, el talento comenzó a fluir hacia la misión enfocada de Google. Logan Kilpatrick, por ejemplo, regresó a Google desde Operai, atraída por la oportunidad de construir IA fundamental dentro de la empresa. Se unió a Velloso en lo que describió como una "experiencia cero a uno", encargada de construir la tracción del desarrollador para Géminis desde cero. "Fue como si el equipo fuera yo el primer día ... en realidad no tenemos usuarios en esta plataforma, no tenemos ingresos. Nadie está interesado en Géminis en este momento", recordó Kilpatrick sobre el punto de partida. Líderes como Josh Woodward, que ayudaron a iniciar AI Studio y ahora lidera la aplicación de Gemini y los laboratorios, y Noam Shazeer, un coautor clave del papel transformador original "es todo lo que necesitas", también regresó a la compañía a fines de 2024 como co-líder técnico para el proyecto de Gemini crucial.
Pilar 1: Géminis 2.5 y la era de los modelos de pensamiento
Si bien el Mantra Enterprise ha cambiado a "no se trata solo del modelo", tener el LLM de mejor rendimiento sigue siendo un logro significativo y un poderoso validador de la investigación superior de la investigación y la tecnología eficiente de una empresa. Con el lanzamiento de Gemini 2.5 Pro solo semanas antes del próximo '25, Google reclamó decisivamente este manto. Rápidamente superó la tabla de clasificación independiente de la arena del chatbot, superando significativamente la última variante GPT-4O de OpenAI, y anulada notoriamente difíciles de referencia de razonamiento como el último examen de la humanidad. Como Pichai declaró en la nota clave, "Es nuestro modelo de IA más inteligente. Y es el mejor modelo del mundo". El modelo había conducido un aumento del 80 por ciento en el uso de Géminis en un mes, tuiteó por separado.
Por primera vez, la demanda de Géminis estaba en llamas. Lo que me impresionó, aparte de la inteligencia cruda de Gemini 2.5 Pro, fue su razonamiento demostrable. Google ha diseñado una capacidad de "pensamiento", permitiendo que el modelo realice un razonamiento, planificación e incluso autorreflexión de varios pasos antes de finalizar una respuesta. La cadena de pensamiento estructurada y coherente (COT), utilizando pasos y sub-bullets numerados, evita la naturaleza divaga o opaca de las salidas de otros modelos de Deepseek o OpenAI. Para los equipos técnicos que evalúan los resultados para tareas críticas, esta transparencia permite la validación, la corrección y la redirección con una confianza sin precedentes.
Pero lo más importante para los usuarios empresariales, Gemini 2.5 Pro también cerró drásticamente la brecha en la codificación, que es una de las áreas de aplicación más grandes para la IA generativa. En una entrevista con VentureBeat, CTO Fiona Tan del minorista líder Wayfair dijo que después de las pruebas iniciales, la compañía encontró que "intensificaba bastante" y ahora era "bastante comparable" al soneto Claude 3.7 de Anthrope, anteriormente la opción preferida para muchos desarrolladores.
Google también agregó una ventana de contexto token de 1 millón en masivo al modelo, lo que permite un razonamiento en bases de código enteras o una larga documentación, excediendo con creces las capacidades de los modelos de OpenAI o antrópico. (Operai respondió esta semana con modelos con ventanas de contexto similarmente grandes, aunque los puntos de referencia sugieren que Gemini 2.5 Pro conserva una ventaja en el razonamiento general). Esta ventaja permite tareas complejas de ingeniería de software de múltiples archivos.
Complementar Pro está Gemini 2.5 Flash, anunciado en el próximo '25 y lanzado ayer. También un modelo de "pensamiento", Flash está optimizado para una baja latencia y rentabilidad. Puede controlar cuánto razona el modelo y equilibrar el rendimiento con su presupuesto. Este enfoque escalonado refleja aún más la estrategia de "inteligencia por dólar" defendida por los ejecutivos de Google.
Velloso mostró una tabla que revelaba que a lo largo del espectro de inteligencia, los modelos de Google ofrecen el mejor valor. "Si tuviéramos esta conversación hace un año ... no tendría nada que mostrar", admitió Velloso, destacando el rápido cambio. "Y ahora, como, en todos los ámbitos, estamos, si está buscando cualquier modelo, cualquier tamaño, como, si no eres Google, estás perdiendo dinero". Se han actualizado gráficos similares para tener en cuenta los últimos lanzamientos de modelo de Openai esta semana, todos muestran lo mismo: los modelos de Google ofrecen la mejor inteligencia por dólar. Vea abajo:

Wayfair's Tan también observó mejoras de latencia prometedoras con 2.5 Pro: "Géminis 2.5 regresó más rápido", lo que lo hacía viable para "más tipo de capacidades orientadas al cliente", dijo, algo que dijo que no ha sido el caso antes con otros modelos. Gemini podría convertirse en el primer modelo de Wayfair para estas interacciones con los clientes, dijo.
Las capacidades de la familia Gemini se extienden a la multimodalidad, integrándose sin problemas con los otros modelos líderes de Google como Imagen 3 (Generación de imágenes), VEO 2 (Generación de Video), Chirp 3 (audio) y la recientemente anunciada Lyria (texto a música), todo accesible a través de la plataforma de Google para usuarios entérrisos, Vértice. Google es la única compañía que ofrece sus propios modelos de medios generativos en todas las modalidades en su plataforma. Microsoft, AWS y Openai tienen que asociarse con otras compañías para hacer esto.
Pilar 2: destreza de infraestructura: el motor debajo del capó
La capacidad de iterar y servir rápidamente a estos poderosos modelos se deriva de la infraestructura posiblemente incomparable de Google, perfeccionada durante décadas de ejecutar servicios a escala de planetas. Central a esto es la unidad de procesamiento del tensor (TPU).
En Next '25, Google presentó Ironwood, su TPU de séptima generación, diseñada explícitamente para las demandas de inferencia y "modelos de pensamiento". La escala es inmensa, adaptada a las cargas de trabajo de IA exigentes: las vainas de madera de hierro empacan más de 9,000 chips refrigerados por líquidos, entregando 42.5 exagerados de potencia de cálculo. El vicepresidente de Sistemas de ML de Google, Amin Vahdat, dijo en el escenario en el próximo que esto es "más de 24 veces" el poder de cálculo de la supercomputadora #1 actual del mundo.
Google declaró que Ironwood ofrece 2x PerF/Watt en relación con Trillium, la generación anterior de TPU. Esto es significativo ya que los clientes empresariales dicen que los costos de energía y la disponibilidad limitan las implementaciones de IA a gran escala.
Google Cloud CTO Will Grannis enfatizó la consistencia de este progreso. Año tras año, Google está realizando mejoras 10x, 8x, 9x, 10x en sus procesadores, dijo a VentureBeat en una entrevista, creando lo que llamó una "ley de Hyper Moore" para los aceleradores de IA. Dijo que los clientes están comprando la hoja de ruta de Google, no solo su tecnología.
La posición de Google alimentó esta inversión sostenida de TPU. Necesita alimentar eficientemente servicios masivos como Search, YouTube y Gmail para más de 2 mil millones de usuarios. Esto requirió desarrollar hardware personalizado y optimizado mucho antes del auge de IA generativo actual. Si bien Meta opera a una escala de consumo similar, otros competidores carecían de este controlador interno específico durante el desarrollo de hardware de IA integrado verticalmente de una década.
Ahora, estas inversiones en TPU están dando sus frutos porque están impulsando la eficiencia no solo para sus propias aplicaciones sino también permitiendo que Google ofrezca a Gemini a otros usuarios con una mejor inteligencia por dólar, todo lo que es igual.
¿Por qué los competidores de Google no pueden comprar procesadores eficientes de NVIDIA? Es cierto que los procesadores de GPU de NVIDIA dominan el proceso previo al entrenamiento de LLM. Pero la demanda del mercado ha aumentado el precio de estas GPU, y Nvidia toma un recorte saludable para sí mismo como ganancias. Esto pasa costos significativos para los usuarios de sus chips. Y también, si bien el pre-entrenamiento ha dominado el uso de chips de IA hasta ahora, esto está cambiando ahora que las empresas realmente están implementando estas aplicaciones. Aquí es donde entra "inferencia", y aquí las TPU se consideran más eficientes que las GPU para las cargas de trabajo a escala.
Cuando le pregunta a los ejecutivos de Google de dónde proviene su principal ventaja tecnológica en AI, generalmente vuelven a la TPU como la más importante. Mark Lohmeyer, el vicepresidente que ejecuta la infraestructura informática de Google, fue inequívoco: las TPU son "ciertamente una parte altamente diferenciada de lo que hacemos ... OpenAi, no tienen esas capacidades".
Significativamente, Google presenta las TPU no de forma aislada, sino como parte de la arquitectura de IA empresarial más amplia y más compleja. Para los expertos técnicos, se entiende que el rendimiento de primer nivel depende de integrar avances tecnológicos cada vez más especializados. Muchas actualizaciones se detallaron al siguiente. Vahdat describió esto como un "sistema de supercomputación", que integran hardware (TPUS, las últimas GPU de NVIDIA como Blackwell y el próximo Vera Rubin, almacenamiento avanzado como EXAPOOLS HYPERDISK, en cualquier lugar caché y almacenamiento rápido) con una pila de software unificada. Este software incluye Director de Clúster para la gestión de aceleradores, Pathways (tiempo de ejecución distribuido de Gemini, ahora disponible para los clientes), y trayendo optimizaciones como VLLM a TPUS, lo que permite una migración de carga de trabajo más fácil para aquellos previamente en pilas Nvidia/Pytorch. Este sistema integrado, argumentó Vahdat, es por eso que Gemini 2.0 Flash logra una inteligencia 24 veces mayor por dólar, en comparación con GPT-4O.
Google también está extendiendo su alcance de infraestructura física. Cloud Wan pone a disposición de las empresas la red de fibra privada de 2 millones de millas de baja latencia de Google, prometiendo un rendimiento hasta un 40% más rápido y un costo total de propiedad total (TCO) en comparación con un 40% más bajo en comparación con las redes administradas por los clientes.
Además, Google Distributed Cloud (GDC) permite que el hardware de Gemini y Nvidia (a través de una asociación Dell) se ejecute en entornos soberanos, locos o incluso obtenidos por el aire, un CEO de NVIDIA de la capacidad, Jensen Huang, elogió como "absolutamente gigantesco" para llevar a la IA de la IA de la vanguardia a las industrias y naciones reguladas. En el siguiente, Huang calificó la infraestructura de Google como mejor del mundo: "Ninguna compañía es mejor en cada capa de computación que Google y Google Cloud", dijo.
Pilar 3: la pila completa integrada: conectando los puntos
La ventaja estratégica de Google crece al considerar cómo estos modelos y componentes de infraestructura se entrelazan en una plataforma cohesiva. A diferencia de los competidores, que a menudo dependen de las asociaciones para cerrar las brechas, Google controla casi todas las capas, lo que permite una integración más estricta y ciclos de innovación más rápidos.
Entonces, ¿por qué es importante esta integración, si un competidor como Microsoft puede simplemente asociarse con OpenAI para que coincida con la amplitud de la infraestructura con la destreza del modelo LLM? Los Googlers con los que hablé dijeron que hace una gran diferencia, y se les ocurrió anécdotas para respaldarlo.
Tome la mejora significativa de la base de datos empresarial de Google BigQuery. La base de datos ahora ofrece un gráfico de conocimiento que permite a LLMs buscar sobre los datos de manera mucho más eficiente, y ahora cuenta con más de cinco veces a los clientes de competidores como Snowflake y Databricks. Yasmeen Ahmad, jefe de productos de análisis de datos en Google Cloud, dijo que las grandes mejoras solo eran posibles porque los equipos de datos de Google estaban trabajando estrechamente con el equipo de DeepMind. Trabajaron a través de casos de uso que eran difíciles de resolver, y esto condujo a la base de datos que proporcionaba un 50 por ciento más de precisión basada en consultas comunes, al menos según las pruebas internas de Google, para llegar a los datos correctos que los competidores más cercanos, Ahmad dijo a VentureBeat en una entrevista. Ahmad dijo que este tipo de integración profunda en toda la pila es cómo Google ha "superado" a la industria.
Esta cohesión interna contrasta bruscamente con la dinámica de "frenemies" en Microsoft. Mientras Microsoft se asocia con OpenAI para distribuir sus modelos en Azure Cloud, Microsoft también está construyendo sus propios modelos. Mat Velloso, el ejecutivo de Google que ahora lidera el programa de desarrolladores de IA, dejó Microsoft después de frustrarse tratando de alinear los planes de copilot de Windows con las ofertas de modelos de OpenAI. "¿Cómo se comparte sus planes de productos con otra compañía que realmente está compitiendo con usted ... todo es una contradicción", recordó. "Aquí me siento al lado de las personas que están construyendo las modelos".
Esta integración habla de lo que los líderes de Google ven como su ventaja principal: su capacidad única para conectar una experiencia profunda en todo el espectro, desde la investigación fundamental y la construcción de modelos hasta la implementación de aplicaciones "a escala de planetas" y el diseño de infraestructura.
Vertex AI sirve como el sistema nervioso central para los esfuerzos de IA empresariales de Google. Y la integración va más allá de las propias ofertas de Google. Model Garden de Vertex ofrece más de 200 modelos curados, incluidos Google's, Meta's Llama 4 y numerosas opciones de código abierto. Vertex proporciona herramientas para el ajuste, la evaluación (incluidas las evals con IA, que Grannis destacó como un acelerador clave), implementación y monitoreo. Sus capacidades de conexión a tierra aprovechan las bases de datos internas listas para AI-listas para la compatibilidad con bases de datos vectoriales externas. Agregue a las nuevas ofertas de Google a los modelos de tierra con Google Search, el mejor motor de búsqueda del mundo.
La integración se extiende al espacio de trabajo de Google. Nuevas características anunciadas en Next '25, como "Ayuda Me Analize" en sábanas (sí, las sábanas ahora tienen una fórmula "= AI"), descripciones de audio en documentos y flujos de espacio de trabajo, incrusta aún más las capacidades de Gemini en los flujos de trabajo diarios, creando un poderoso ciclo de comentarios para que Google use para mejorar la experiencia.
Mientras conduce su pila integrada, Google también defiende la apertura donde sirve al ecosistema. Después de haber conducido la adopción de Kubernetes, ahora está promoviendo Jax para los marcos AI y ahora abre protocolos para la comunicación de agentes (A2A) junto con el soporte para los estándares existentes (MCP). Google también ofrece cientos de conectores a plataformas externas desde el espacio de agentes, que es la nueva interfaz unificada de Google para que los empleados encuentren y usen agentes. Este concepto de centro es convincente. La demostración principal del espacio de agentes (a partir de las 51:40) ilustra esto. Google ofrece a los usuarios que los agentes, o los empleados o desarrolladores de los usuarios pueden construir las suyas utilizando capacidades de IA sin código. O pueden atraer agentes desde el exterior a través de conectores A2A. Se integra en el navegador Chrome para un acceso perfecto.
Pilar 4: Centrarse en el valor empresarial y el ecosistema del agente
Quizás el cambio más significativo es el enfoque afilado de Google en resolver problemas empresariales concretos, particularmente a través de la lente de los agentes de IA. Thomas Kurian, CEO de Google Cloud, describió tres razones por las que los clientes eligen Google: la plataforma optimizada AI-AI-Optimizada, el enfoque abierto de múltiples nubes que permite la conexión a la TI existente y el enfoque listo para la empresa en seguridad, soberanía y cumplimiento.
Los agentes son clave para esta estrategia. Además del espacio de agentes, esto también incluye:
- Builts Blocks: el Kit de desarrollo de agentes de código abierto (ADK), anunciado en Next, ya ha visto un interés significativo de los desarrolladores. El ADK simplifica la creación de sistemas de múltiples agentes, mientras que el protocolo propuesto de agente 2AGENT (A2A) tiene como objetivo garantizar que la interoperabilidad, lo que permite que los agentes construidos con diferentes herramientas (Gemini ADK, Langgraph, Crewai, etc.) colaboren. Grannis de Google dijo que A2A anticipa la escala y los desafíos de seguridad de un futuro con potencialmente cientos de miles de agentes que interactúan.
- Purpose-built Agents: Google showcased expert agents integrated into Agentspace (like NotebookLM, Idea Generation, Deep Research) and highlighted five key categories gaining traction: Customer Agents (powering tools like Reddit Answers, Verizon's support assistant, Wendy's drive-thru), Creative Agents (used by WPP, Brandtech, Sphere), Data Agents (driving insights at Mattel, Spotify, Bayer), Coding Agentes (asistencia de código Gemini) y agentes de seguridad (integrados en la nueva plataforma de seguridad de Google Unified).
Esta estrategia de agente integral parece estar resonando. Las conversaciones con ejecutivos de otras tres grandes empresas la semana pasada, que también hablan de forma anónima debido a sensibilidades competitivas, se hicieron eco de este entusiasmo por la estrategia de agentes de Google. El director de operaciones de Google Cloud, Francis DeSouza, confirmó en una entrevista: "Cada conversación incluye IA. Específicamente, cada conversación incluye agentes".
Kevin Laughridge, un ejecutivo de Deloitte, un gran usuario de los productos de IA de Google, y un distribuidor de ellos a otras compañías, describió el mercado de agentes como un "acaparamiento de tierras" donde los primeros movimientos de Google con protocolos y su plataforma integrada ofrecen ventajas significativas. "Quien salga primero y obtenga la mayoría de los agentes que realmente entregan valor, es quién va a ganar en esta carrera", dijo Laughridge en una entrevista. Dijo que el progreso de Google era "asombroso", señalando que los agentes personalizados de Deloitte construidos hace solo un año ahora podían replicarse "fuera de la caja" utilizando el espacio de los Agents. Deloitte mismo está construyendo 100 agentes en la plataforma, dirigidos a funciones de mediana edad como las finanzas, el riesgo y la ingeniería, dijo.
Los puntos de prueba del cliente están aumentando. En el siguiente, Google citó "500 más clientes en producción" con IA generativa, frente a solo "docenas de prototipos" hace un año. Si Microsoft fue percibido como hace un año, eso ya no parece tan obviamente el caso. Dada la guerra de relaciones públicas desde todos los lados, es difícil decir quién está realmente ganando en este momento definitivamente. Las métricas varían. El número 500 de Google no es directamente comparable a los 400 estudios de casos que Microsoft promueve (y Microsoft, en respuesta, dijo a VentureBeat en el momento de la publicación que planea actualizar este recuento público a 600 en breve, subrayando el intenso marketing). Y si la distribución de IA de Google a través de sus aplicaciones es significativa, la distribución de copilot de Microsoft a través de su oferta de 365 es igualmente impresionante. Ambos ahora están llegando a millones de desarrolladores a través de API.
Pero los ejemplos abundan de la tracción de Google:
- Wendy's: desplegó un sistema AI Drive-Thru a miles de ubicaciones en solo un año, mejorando la experiencia de los empleados y la precisión del pedido. Google Cloud CTO Will Will Grannis señaló que el sistema AI es capaz de comprender la jerga y filtrar el ruido de fondo, reduciendo significativamente el estrés de las interacciones en vivo de los clientes. Eso libera al personal para centrarse en la preparación y la calidad de los alimentos, un gran abuelo llamado "un gran ejemplo de IA racionalización de las operaciones del mundo real".
- Salesforce: anunció una gran expansión, que permite que su plataforma se ejecute en Google Cloud por primera vez (más allá de AWS), citando la capacidad de Google para ayudarlos a "innovar y optimizar".
- Honeywell & Intuit: Empresas previamente fuertemente asociadas con Microsoft y AWS, respectivamente, ahora se asocian con Google Cloud en las iniciativas de inteligencia artificial.
- Major Banks (Deutsche Bank, Wells Fargo): aprovechando a los agentes y gemini para la investigación, el análisis y la modernización del servicio al cliente.
- Minoristas (Walmart, Mercado Libre, Lowe's): utilizando la búsqueda, agentes y plataformas de datos.
Esta tracción empresarial alimenta el crecimiento general de Google Cloud, que ha superado a AWS y Azure durante los últimos tres cuartos. Google Cloud alcanzó una tasa de ejecución anualizada de $ 44 mil millones en 2024, frente a solo $ 5 mil millones en 2018.
Navegar por las aguas competitivas
El ascenso de Google no significa que los competidores estén quieto. Los lanzamientos rápidos de Openai esta semana de GPT-4.1 (centrado en la codificación y el contexto largo) y la serie O (razonamiento multimodal, uso de herramientas) demuestran la innovación continua de OpenAI. Además, la nueva actualización de características de generación de imágenes de Openai en GPT-4O alimentó un crecimiento masivo durante el último mes, ayudando a ChatGPT a alcanzar 800 millones de usuarios. Microsoft continúa aprovechando su vasta huella empresarial y asociación Operai, mientras que Anthrope sigue siendo un fuerte contendiente, particularmente en las aplicaciones de codificación y conscientes de la seguridad.
Sin embargo, es indiscutible que la narrativa de Google haya mejorado notablemente. Hace solo un año, Google fue visto como un competidor pesado, detallado y desordenado que tal vez estaba a punto de volar su oportunidad de liderar la IA en absoluto. En cambio, su pila única e integrada y la firmeza corporativa han revelado algo más: Google posee capacidades de clase mundial en todo el espectro: desde el diseño de chips (TPUS) y la infraestructura global hasta la investigación fundamental (DeepMind), el desarrollo de aplicaciones (espacio de trabajo, búsqueda, YouTube) y Servicios de Cloud Enterprise (Vértice AI, Bigquery, Agentspace). "Somos los únicos hiperscaleros que se encuentra en la conversación modelo fundamental", dijo Desouza rotundamente. Esta propiedad de extremo a extremo permite optimizaciones (como "inteligencia por dólar") y la profundidad de integración que los modelos relacionados con la asociación luchan para igualar. Los competidores a menudo necesitan unir piezas dispares, potencialmente creando fricción o limitando la velocidad de innovación.
El momento de Google es ahora
Si bien la raza de IA sigue siendo dinámica, Google ha reunido todas estas piezas en el momento preciso que el mercado las exige. Como lo expresó Laughridge de Deloitte, Google llegó a un punto en el que sus capacidades se alinearon perfectamente "donde el mercado lo exigió". Si estaba esperando que Google se demostrara en Enterprise AI, es posible que se haya perdido el momento, ya lo ha hecho. La compañía que inventó muchas de las tecnologías centrales que impulsan esta revolución parece haber finalmente atrapada, y más que eso, ahora está estableciendo el ritmo que los competidores necesitan para igualar.
En el video a continuación, grabado justo después, el experto en IA Sam Witteveen y yo desglosamos el panorama actual y las tendencias emergentes, y por qué el ecosistema de IA de Google se siente tan fuerte:
Artículo relacionado
MCP通過工具和數據標準化AI連接:出現了新協議
如果您正在潛入人工智能(AI)世界,那麼您可能會注意到,獲得不同的AI模型,數據源和工具可以很好地播放,這是多麼重要。這就是模型上下文協議(MCP)所在的地方,它是標準化AI連接性的遊戲改變者。 t
虛擬地探索地球:Chatgpt和Google Earth度假計劃者
曾經有過逃避日常磨碎的衝動,但發現自己在去哪裡陷入困境?讓我們深入研究一個很酷的方法,以計劃下一個度假勝地,而無需踏出門外。通過利用Chatgpt和Google Earth的力量,您可以踏上一個既令人興奮又相關的虛擬假期
Chatgpt主意使用用戶名在某些人中引發了“令人毛骨悚然”的問題
Chatgpt的一些用戶最近遇到了一個奇怪的新功能:聊天機器人偶爾在解決問題時使用他們的名字。這不是以前其通常行為的一部分,許多用戶報告Chatgpt提到了他們的名字,而沒有被告知該怎麼稱呼。意見
Comentario (10)
0/200
JeffreyHarris
20 de abril de 2025 10:35:09 GMT
Google's sneaky move into enterprise AI is pretty cool. From playing catch-up to leading the pack, they've really turned things around. The tech is solid but the interface could be more user-friendly. Still, it's impressive how fast they've moved! 🚀
0
WillieJones
22 de abril de 2025 00:13:31 GMT
グーグルのエンタープライズAIへの静かな進出はかなりクールですね。追いつくことからリードするまで、本当に状況を変えました。技術はしっかりしていますが、インターフェースがもう少しユーザーフレンドリーだといいですね。それでも、進むスピードが印象的です!🚀
0
WillBaker
22 de abril de 2025 05:12:49 GMT
구글이 기업용 AI로 몰래 진출한 것이 꽤 멋지네요. 따라잡기에서 선두로 나아가 정말 상황을 바꿨어요. 기술은 훌륭하지만 인터페이스가 좀 더 사용자 친화적이면 좋겠어요. 그래도 이렇게 빠르게 움직인 것이 인상적이에요! 🚀
0
CharlesMartinez
22 de abril de 2025 06:10:16 GMT
A jogada furtiva do Google no AI empresarial é bem legal. De tentar alcançar a liderar o grupo, eles realmente mudaram as coisas. A tecnologia é sólida, mas a interface poderia ser mais amigável ao usuário. Ainda assim, é impressionante como eles se moveram rápido! 🚀
0
JasonRoberts
22 de abril de 2025 07:22:36 GMT
El movimiento sigiloso de Google en la IA empresarial es bastante genial. De ir a la zaga a liderar el grupo, realmente han dado la vuelta a la situación. La tecnología es sólida pero la interfaz podría ser más amigable para el usuario. Aún así, es impresionante lo rápido que se han movido! 🚀
0
FredAnderson
22 de abril de 2025 15:53:12 GMT
Google's move into enterprise AI is impressive. From playing catch-up to leading the pack, they've really stepped up their game. But the interface could use some work; it's a bit clunky. Still, I'm excited to see where they go from here! 🚀
0






Hace solo un año, el zumbido alrededor de Google y Enterprise AI parecían atrapados en neutral. A pesar de las tecnologías pioneras como el transformador, el gigante tecnológico parecía estar retrasado, eclipsado por el éxito viral de OpenAI, la destreza de codificación de Anthrope y el agresivo impulso de Microsoft en el mercado empresarial.
Pero avance rápidamente hasta la semana pasada en Google Cloud Next 2025 en Las Vegas, y la escena fue notablemente diferente. Un Google confiado, armado con modelos de alto rendimiento, infraestructura robusta y una clara estrategia empresarial, anunció un cambio dramático. En una reunión de analistas de puerta cerrada con ejecutivos de Google de alto nivel, un analista encapsuló el estado de ánimo: "Esto parece que el momento en que Google pasó de 'ponerse al día' a 'atraparnos'".
El salto de Google hacia adelante
Este sentimiento, que Google no solo se ha alcanzado, sino que se adelantó a Operai y Microsoft en la carrera de IA Enterprise, fue palpable durante todo el evento. Y no es solo exageración de marketing. Durante el año pasado, Google se ha centrado intensamente en la ejecución, convirtiendo su destreza tecnológica en una plataforma integrada de alto rendimiento que se está ganando rápidamente sobre los tomadores de decisiones empresariales. Desde los modelos de IA más poderosos del mundo que se ejecutan en silicio personalizado altamente eficiente hasta un floreciente ecosistema de agentes de IA adaptados para desafíos comerciales del mundo real, Google está haciendo un caso sólido de que nunca se perdió realmente, sino que se perdió, sino que se perdió, sino que se perdió, sino que está sometido a un período de desarrollo profundo y fundamental.
Con su pila integrada ahora operando a plena capacidad, Google parece estar listo para liderar la próxima fase de la Revolución Enterprise AI. En mis entrevistas con los ejecutivos de Google en el siguiente, enfatizaron las ventajas únicas de Google en infraestructura e integración de modelos, adventamientos que competidores como OpenAi, Microsoft o AWS encontrarían difícil replicar.
La sombra de la duda: reconociendo el pasado reciente
Para apreciar completamente el impulso actual de Google, es esencial reconocer el pasado reciente. Google inventó la arquitectura del transformador, provocando la revolución moderna en modelos de idiomas grandes (LLM), y comenzó a invertir en hardware de IA especializado (TPU) hace una década, que ahora impulsa la eficiencia líder en la industria. Sin embargo, inexplicablemente, hace solo dos años y medio, Google se encontró jugando a la defensa.
El chatgpt de Openai capturó la imaginación del público y el interés empresarial a un ritmo impresionante, convirtiéndose en la aplicación de más rápido crecimiento en la historia. Competidores como Anthrope tallaron nichos en áreas como la codificación. Mientras tanto, los movimientos públicos de Google a menudo parecían tentativos o defectuosos. La infame demostración de bardo cae en 2023 y la controversia sobre su generador de imágenes que produce representaciones históricamente inexactas alimentó una narrativa de una compañía potencialmente obstaculizada por la burocracia interna o la exorrección de la alineación. Google parecía perdido, haciéndose eco de su lentitud inicial en la competencia en la nube, donde siguió siendo un tercio distante en la participación de mercado detrás de Amazon y Microsoft.
The Pivot: una decisión consciente de liderar
Detrás de escena, sin embargo, se estaba produciendo un cambio significativo, impulsado por una decisión deliberada en los niveles más altos para reclamar el liderazgo. Mat Velloso, vicepresidente de productos para la plataforma de desarrollador de IA de Google Deepmind, sintió este momento crucial al unirse a Google en febrero de 2024, después de dejar Microsoft. "Cuando llegué a Google, hablé con Sundar [Pichai], hablé con varios líderes aquí, y sentí que ese era el momento en que decidieron, está bien, esta [IA generativa] es algo que a la industria le importan claramente. Hagamos que sucediera", compartió Velloso durante una entrevista la próxima semana pasada.
Este impulso renovado no fue obstaculizado por la temida "drenaje de cerebro" que algunos extraños creían que estaba agotando a Google. En cambio, la compañía duplicó la ejecución a principios de 2024, marcada por la contratación agresiva, la unificación interna y la tracción del cliente. Mientras que los competidores hicieron contrataciones con Splashy, Google retuvo su liderazgo de IA principal, incluido el CEO de Deepmind, Demis Hassabis y el CEO de Google Cloud, Thomas Kurian, proporcionando estabilidad y una profunda experiencia.
Además, el talento comenzó a fluir hacia la misión enfocada de Google. Logan Kilpatrick, por ejemplo, regresó a Google desde Operai, atraída por la oportunidad de construir IA fundamental dentro de la empresa. Se unió a Velloso en lo que describió como una "experiencia cero a uno", encargada de construir la tracción del desarrollador para Géminis desde cero. "Fue como si el equipo fuera yo el primer día ... en realidad no tenemos usuarios en esta plataforma, no tenemos ingresos. Nadie está interesado en Géminis en este momento", recordó Kilpatrick sobre el punto de partida. Líderes como Josh Woodward, que ayudaron a iniciar AI Studio y ahora lidera la aplicación de Gemini y los laboratorios, y Noam Shazeer, un coautor clave del papel transformador original "es todo lo que necesitas", también regresó a la compañía a fines de 2024 como co-líder técnico para el proyecto de Gemini crucial.
Pilar 1: Géminis 2.5 y la era de los modelos de pensamiento
Si bien el Mantra Enterprise ha cambiado a "no se trata solo del modelo", tener el LLM de mejor rendimiento sigue siendo un logro significativo y un poderoso validador de la investigación superior de la investigación y la tecnología eficiente de una empresa. Con el lanzamiento de Gemini 2.5 Pro solo semanas antes del próximo '25, Google reclamó decisivamente este manto. Rápidamente superó la tabla de clasificación independiente de la arena del chatbot, superando significativamente la última variante GPT-4O de OpenAI, y anulada notoriamente difíciles de referencia de razonamiento como el último examen de la humanidad. Como Pichai declaró en la nota clave, "Es nuestro modelo de IA más inteligente. Y es el mejor modelo del mundo". El modelo había conducido un aumento del 80 por ciento en el uso de Géminis en un mes, tuiteó por separado.
Por primera vez, la demanda de Géminis estaba en llamas. Lo que me impresionó, aparte de la inteligencia cruda de Gemini 2.5 Pro, fue su razonamiento demostrable. Google ha diseñado una capacidad de "pensamiento", permitiendo que el modelo realice un razonamiento, planificación e incluso autorreflexión de varios pasos antes de finalizar una respuesta. La cadena de pensamiento estructurada y coherente (COT), utilizando pasos y sub-bullets numerados, evita la naturaleza divaga o opaca de las salidas de otros modelos de Deepseek o OpenAI. Para los equipos técnicos que evalúan los resultados para tareas críticas, esta transparencia permite la validación, la corrección y la redirección con una confianza sin precedentes.
Pero lo más importante para los usuarios empresariales, Gemini 2.5 Pro también cerró drásticamente la brecha en la codificación, que es una de las áreas de aplicación más grandes para la IA generativa. En una entrevista con VentureBeat, CTO Fiona Tan del minorista líder Wayfair dijo que después de las pruebas iniciales, la compañía encontró que "intensificaba bastante" y ahora era "bastante comparable" al soneto Claude 3.7 de Anthrope, anteriormente la opción preferida para muchos desarrolladores.
Google también agregó una ventana de contexto token de 1 millón en masivo al modelo, lo que permite un razonamiento en bases de código enteras o una larga documentación, excediendo con creces las capacidades de los modelos de OpenAI o antrópico. (Operai respondió esta semana con modelos con ventanas de contexto similarmente grandes, aunque los puntos de referencia sugieren que Gemini 2.5 Pro conserva una ventaja en el razonamiento general). Esta ventaja permite tareas complejas de ingeniería de software de múltiples archivos.
Complementar Pro está Gemini 2.5 Flash, anunciado en el próximo '25 y lanzado ayer. También un modelo de "pensamiento", Flash está optimizado para una baja latencia y rentabilidad. Puede controlar cuánto razona el modelo y equilibrar el rendimiento con su presupuesto. Este enfoque escalonado refleja aún más la estrategia de "inteligencia por dólar" defendida por los ejecutivos de Google.
Velloso mostró una tabla que revelaba que a lo largo del espectro de inteligencia, los modelos de Google ofrecen el mejor valor. "Si tuviéramos esta conversación hace un año ... no tendría nada que mostrar", admitió Velloso, destacando el rápido cambio. "Y ahora, como, en todos los ámbitos, estamos, si está buscando cualquier modelo, cualquier tamaño, como, si no eres Google, estás perdiendo dinero". Se han actualizado gráficos similares para tener en cuenta los últimos lanzamientos de modelo de Openai esta semana, todos muestran lo mismo: los modelos de Google ofrecen la mejor inteligencia por dólar. Vea abajo:
Wayfair's Tan también observó mejoras de latencia prometedoras con 2.5 Pro: "Géminis 2.5 regresó más rápido", lo que lo hacía viable para "más tipo de capacidades orientadas al cliente", dijo, algo que dijo que no ha sido el caso antes con otros modelos. Gemini podría convertirse en el primer modelo de Wayfair para estas interacciones con los clientes, dijo.
Las capacidades de la familia Gemini se extienden a la multimodalidad, integrándose sin problemas con los otros modelos líderes de Google como Imagen 3 (Generación de imágenes), VEO 2 (Generación de Video), Chirp 3 (audio) y la recientemente anunciada Lyria (texto a música), todo accesible a través de la plataforma de Google para usuarios entérrisos, Vértice. Google es la única compañía que ofrece sus propios modelos de medios generativos en todas las modalidades en su plataforma. Microsoft, AWS y Openai tienen que asociarse con otras compañías para hacer esto.
Pilar 2: destreza de infraestructura: el motor debajo del capó
La capacidad de iterar y servir rápidamente a estos poderosos modelos se deriva de la infraestructura posiblemente incomparable de Google, perfeccionada durante décadas de ejecutar servicios a escala de planetas. Central a esto es la unidad de procesamiento del tensor (TPU).
En Next '25, Google presentó Ironwood, su TPU de séptima generación, diseñada explícitamente para las demandas de inferencia y "modelos de pensamiento". La escala es inmensa, adaptada a las cargas de trabajo de IA exigentes: las vainas de madera de hierro empacan más de 9,000 chips refrigerados por líquidos, entregando 42.5 exagerados de potencia de cálculo. El vicepresidente de Sistemas de ML de Google, Amin Vahdat, dijo en el escenario en el próximo que esto es "más de 24 veces" el poder de cálculo de la supercomputadora #1 actual del mundo.
Google declaró que Ironwood ofrece 2x PerF/Watt en relación con Trillium, la generación anterior de TPU. Esto es significativo ya que los clientes empresariales dicen que los costos de energía y la disponibilidad limitan las implementaciones de IA a gran escala.
Google Cloud CTO Will Grannis enfatizó la consistencia de este progreso. Año tras año, Google está realizando mejoras 10x, 8x, 9x, 10x en sus procesadores, dijo a VentureBeat en una entrevista, creando lo que llamó una "ley de Hyper Moore" para los aceleradores de IA. Dijo que los clientes están comprando la hoja de ruta de Google, no solo su tecnología.
La posición de Google alimentó esta inversión sostenida de TPU. Necesita alimentar eficientemente servicios masivos como Search, YouTube y Gmail para más de 2 mil millones de usuarios. Esto requirió desarrollar hardware personalizado y optimizado mucho antes del auge de IA generativo actual. Si bien Meta opera a una escala de consumo similar, otros competidores carecían de este controlador interno específico durante el desarrollo de hardware de IA integrado verticalmente de una década.
Ahora, estas inversiones en TPU están dando sus frutos porque están impulsando la eficiencia no solo para sus propias aplicaciones sino también permitiendo que Google ofrezca a Gemini a otros usuarios con una mejor inteligencia por dólar, todo lo que es igual.
¿Por qué los competidores de Google no pueden comprar procesadores eficientes de NVIDIA? Es cierto que los procesadores de GPU de NVIDIA dominan el proceso previo al entrenamiento de LLM. Pero la demanda del mercado ha aumentado el precio de estas GPU, y Nvidia toma un recorte saludable para sí mismo como ganancias. Esto pasa costos significativos para los usuarios de sus chips. Y también, si bien el pre-entrenamiento ha dominado el uso de chips de IA hasta ahora, esto está cambiando ahora que las empresas realmente están implementando estas aplicaciones. Aquí es donde entra "inferencia", y aquí las TPU se consideran más eficientes que las GPU para las cargas de trabajo a escala.
Cuando le pregunta a los ejecutivos de Google de dónde proviene su principal ventaja tecnológica en AI, generalmente vuelven a la TPU como la más importante. Mark Lohmeyer, el vicepresidente que ejecuta la infraestructura informática de Google, fue inequívoco: las TPU son "ciertamente una parte altamente diferenciada de lo que hacemos ... OpenAi, no tienen esas capacidades".
Significativamente, Google presenta las TPU no de forma aislada, sino como parte de la arquitectura de IA empresarial más amplia y más compleja. Para los expertos técnicos, se entiende que el rendimiento de primer nivel depende de integrar avances tecnológicos cada vez más especializados. Muchas actualizaciones se detallaron al siguiente. Vahdat describió esto como un "sistema de supercomputación", que integran hardware (TPUS, las últimas GPU de NVIDIA como Blackwell y el próximo Vera Rubin, almacenamiento avanzado como EXAPOOLS HYPERDISK, en cualquier lugar caché y almacenamiento rápido) con una pila de software unificada. Este software incluye Director de Clúster para la gestión de aceleradores, Pathways (tiempo de ejecución distribuido de Gemini, ahora disponible para los clientes), y trayendo optimizaciones como VLLM a TPUS, lo que permite una migración de carga de trabajo más fácil para aquellos previamente en pilas Nvidia/Pytorch. Este sistema integrado, argumentó Vahdat, es por eso que Gemini 2.0 Flash logra una inteligencia 24 veces mayor por dólar, en comparación con GPT-4O.
Google también está extendiendo su alcance de infraestructura física. Cloud Wan pone a disposición de las empresas la red de fibra privada de 2 millones de millas de baja latencia de Google, prometiendo un rendimiento hasta un 40% más rápido y un costo total de propiedad total (TCO) en comparación con un 40% más bajo en comparación con las redes administradas por los clientes.
Además, Google Distributed Cloud (GDC) permite que el hardware de Gemini y Nvidia (a través de una asociación Dell) se ejecute en entornos soberanos, locos o incluso obtenidos por el aire, un CEO de NVIDIA de la capacidad, Jensen Huang, elogió como "absolutamente gigantesco" para llevar a la IA de la IA de la vanguardia a las industrias y naciones reguladas. En el siguiente, Huang calificó la infraestructura de Google como mejor del mundo: "Ninguna compañía es mejor en cada capa de computación que Google y Google Cloud", dijo.
Pilar 3: la pila completa integrada: conectando los puntos
La ventaja estratégica de Google crece al considerar cómo estos modelos y componentes de infraestructura se entrelazan en una plataforma cohesiva. A diferencia de los competidores, que a menudo dependen de las asociaciones para cerrar las brechas, Google controla casi todas las capas, lo que permite una integración más estricta y ciclos de innovación más rápidos.
Entonces, ¿por qué es importante esta integración, si un competidor como Microsoft puede simplemente asociarse con OpenAI para que coincida con la amplitud de la infraestructura con la destreza del modelo LLM? Los Googlers con los que hablé dijeron que hace una gran diferencia, y se les ocurrió anécdotas para respaldarlo.
Tome la mejora significativa de la base de datos empresarial de Google BigQuery. La base de datos ahora ofrece un gráfico de conocimiento que permite a LLMs buscar sobre los datos de manera mucho más eficiente, y ahora cuenta con más de cinco veces a los clientes de competidores como Snowflake y Databricks. Yasmeen Ahmad, jefe de productos de análisis de datos en Google Cloud, dijo que las grandes mejoras solo eran posibles porque los equipos de datos de Google estaban trabajando estrechamente con el equipo de DeepMind. Trabajaron a través de casos de uso que eran difíciles de resolver, y esto condujo a la base de datos que proporcionaba un 50 por ciento más de precisión basada en consultas comunes, al menos según las pruebas internas de Google, para llegar a los datos correctos que los competidores más cercanos, Ahmad dijo a VentureBeat en una entrevista. Ahmad dijo que este tipo de integración profunda en toda la pila es cómo Google ha "superado" a la industria.
Esta cohesión interna contrasta bruscamente con la dinámica de "frenemies" en Microsoft. Mientras Microsoft se asocia con OpenAI para distribuir sus modelos en Azure Cloud, Microsoft también está construyendo sus propios modelos. Mat Velloso, el ejecutivo de Google que ahora lidera el programa de desarrolladores de IA, dejó Microsoft después de frustrarse tratando de alinear los planes de copilot de Windows con las ofertas de modelos de OpenAI. "¿Cómo se comparte sus planes de productos con otra compañía que realmente está compitiendo con usted ... todo es una contradicción", recordó. "Aquí me siento al lado de las personas que están construyendo las modelos".
Esta integración habla de lo que los líderes de Google ven como su ventaja principal: su capacidad única para conectar una experiencia profunda en todo el espectro, desde la investigación fundamental y la construcción de modelos hasta la implementación de aplicaciones "a escala de planetas" y el diseño de infraestructura.
Vertex AI sirve como el sistema nervioso central para los esfuerzos de IA empresariales de Google. Y la integración va más allá de las propias ofertas de Google. Model Garden de Vertex ofrece más de 200 modelos curados, incluidos Google's, Meta's Llama 4 y numerosas opciones de código abierto. Vertex proporciona herramientas para el ajuste, la evaluación (incluidas las evals con IA, que Grannis destacó como un acelerador clave), implementación y monitoreo. Sus capacidades de conexión a tierra aprovechan las bases de datos internas listas para AI-listas para la compatibilidad con bases de datos vectoriales externas. Agregue a las nuevas ofertas de Google a los modelos de tierra con Google Search, el mejor motor de búsqueda del mundo.
La integración se extiende al espacio de trabajo de Google. Nuevas características anunciadas en Next '25, como "Ayuda Me Analize" en sábanas (sí, las sábanas ahora tienen una fórmula "= AI"), descripciones de audio en documentos y flujos de espacio de trabajo, incrusta aún más las capacidades de Gemini en los flujos de trabajo diarios, creando un poderoso ciclo de comentarios para que Google use para mejorar la experiencia.
Mientras conduce su pila integrada, Google también defiende la apertura donde sirve al ecosistema. Después de haber conducido la adopción de Kubernetes, ahora está promoviendo Jax para los marcos AI y ahora abre protocolos para la comunicación de agentes (A2A) junto con el soporte para los estándares existentes (MCP). Google también ofrece cientos de conectores a plataformas externas desde el espacio de agentes, que es la nueva interfaz unificada de Google para que los empleados encuentren y usen agentes. Este concepto de centro es convincente. La demostración principal del espacio de agentes (a partir de las 51:40) ilustra esto. Google ofrece a los usuarios que los agentes, o los empleados o desarrolladores de los usuarios pueden construir las suyas utilizando capacidades de IA sin código. O pueden atraer agentes desde el exterior a través de conectores A2A. Se integra en el navegador Chrome para un acceso perfecto.
Pilar 4: Centrarse en el valor empresarial y el ecosistema del agente
Quizás el cambio más significativo es el enfoque afilado de Google en resolver problemas empresariales concretos, particularmente a través de la lente de los agentes de IA. Thomas Kurian, CEO de Google Cloud, describió tres razones por las que los clientes eligen Google: la plataforma optimizada AI-AI-Optimizada, el enfoque abierto de múltiples nubes que permite la conexión a la TI existente y el enfoque listo para la empresa en seguridad, soberanía y cumplimiento.
Los agentes son clave para esta estrategia. Además del espacio de agentes, esto también incluye:
- Builts Blocks: el Kit de desarrollo de agentes de código abierto (ADK), anunciado en Next, ya ha visto un interés significativo de los desarrolladores. El ADK simplifica la creación de sistemas de múltiples agentes, mientras que el protocolo propuesto de agente 2AGENT (A2A) tiene como objetivo garantizar que la interoperabilidad, lo que permite que los agentes construidos con diferentes herramientas (Gemini ADK, Langgraph, Crewai, etc.) colaboren. Grannis de Google dijo que A2A anticipa la escala y los desafíos de seguridad de un futuro con potencialmente cientos de miles de agentes que interactúan.
- Purpose-built Agents: Google showcased expert agents integrated into Agentspace (like NotebookLM, Idea Generation, Deep Research) and highlighted five key categories gaining traction: Customer Agents (powering tools like Reddit Answers, Verizon's support assistant, Wendy's drive-thru), Creative Agents (used by WPP, Brandtech, Sphere), Data Agents (driving insights at Mattel, Spotify, Bayer), Coding Agentes (asistencia de código Gemini) y agentes de seguridad (integrados en la nueva plataforma de seguridad de Google Unified).
Esta estrategia de agente integral parece estar resonando. Las conversaciones con ejecutivos de otras tres grandes empresas la semana pasada, que también hablan de forma anónima debido a sensibilidades competitivas, se hicieron eco de este entusiasmo por la estrategia de agentes de Google. El director de operaciones de Google Cloud, Francis DeSouza, confirmó en una entrevista: "Cada conversación incluye IA. Específicamente, cada conversación incluye agentes".
Kevin Laughridge, un ejecutivo de Deloitte, un gran usuario de los productos de IA de Google, y un distribuidor de ellos a otras compañías, describió el mercado de agentes como un "acaparamiento de tierras" donde los primeros movimientos de Google con protocolos y su plataforma integrada ofrecen ventajas significativas. "Quien salga primero y obtenga la mayoría de los agentes que realmente entregan valor, es quién va a ganar en esta carrera", dijo Laughridge en una entrevista. Dijo que el progreso de Google era "asombroso", señalando que los agentes personalizados de Deloitte construidos hace solo un año ahora podían replicarse "fuera de la caja" utilizando el espacio de los Agents. Deloitte mismo está construyendo 100 agentes en la plataforma, dirigidos a funciones de mediana edad como las finanzas, el riesgo y la ingeniería, dijo.
Los puntos de prueba del cliente están aumentando. En el siguiente, Google citó "500 más clientes en producción" con IA generativa, frente a solo "docenas de prototipos" hace un año. Si Microsoft fue percibido como hace un año, eso ya no parece tan obviamente el caso. Dada la guerra de relaciones públicas desde todos los lados, es difícil decir quién está realmente ganando en este momento definitivamente. Las métricas varían. El número 500 de Google no es directamente comparable a los 400 estudios de casos que Microsoft promueve (y Microsoft, en respuesta, dijo a VentureBeat en el momento de la publicación que planea actualizar este recuento público a 600 en breve, subrayando el intenso marketing). Y si la distribución de IA de Google a través de sus aplicaciones es significativa, la distribución de copilot de Microsoft a través de su oferta de 365 es igualmente impresionante. Ambos ahora están llegando a millones de desarrolladores a través de API.
Pero los ejemplos abundan de la tracción de Google:
- Wendy's: desplegó un sistema AI Drive-Thru a miles de ubicaciones en solo un año, mejorando la experiencia de los empleados y la precisión del pedido. Google Cloud CTO Will Will Grannis señaló que el sistema AI es capaz de comprender la jerga y filtrar el ruido de fondo, reduciendo significativamente el estrés de las interacciones en vivo de los clientes. Eso libera al personal para centrarse en la preparación y la calidad de los alimentos, un gran abuelo llamado "un gran ejemplo de IA racionalización de las operaciones del mundo real".
- Salesforce: anunció una gran expansión, que permite que su plataforma se ejecute en Google Cloud por primera vez (más allá de AWS), citando la capacidad de Google para ayudarlos a "innovar y optimizar".
- Honeywell & Intuit: Empresas previamente fuertemente asociadas con Microsoft y AWS, respectivamente, ahora se asocian con Google Cloud en las iniciativas de inteligencia artificial.
- Major Banks (Deutsche Bank, Wells Fargo): aprovechando a los agentes y gemini para la investigación, el análisis y la modernización del servicio al cliente.
- Minoristas (Walmart, Mercado Libre, Lowe's): utilizando la búsqueda, agentes y plataformas de datos.
Esta tracción empresarial alimenta el crecimiento general de Google Cloud, que ha superado a AWS y Azure durante los últimos tres cuartos. Google Cloud alcanzó una tasa de ejecución anualizada de $ 44 mil millones en 2024, frente a solo $ 5 mil millones en 2018.
Navegar por las aguas competitivas
El ascenso de Google no significa que los competidores estén quieto. Los lanzamientos rápidos de Openai esta semana de GPT-4.1 (centrado en la codificación y el contexto largo) y la serie O (razonamiento multimodal, uso de herramientas) demuestran la innovación continua de OpenAI. Además, la nueva actualización de características de generación de imágenes de Openai en GPT-4O alimentó un crecimiento masivo durante el último mes, ayudando a ChatGPT a alcanzar 800 millones de usuarios. Microsoft continúa aprovechando su vasta huella empresarial y asociación Operai, mientras que Anthrope sigue siendo un fuerte contendiente, particularmente en las aplicaciones de codificación y conscientes de la seguridad.
Sin embargo, es indiscutible que la narrativa de Google haya mejorado notablemente. Hace solo un año, Google fue visto como un competidor pesado, detallado y desordenado que tal vez estaba a punto de volar su oportunidad de liderar la IA en absoluto. En cambio, su pila única e integrada y la firmeza corporativa han revelado algo más: Google posee capacidades de clase mundial en todo el espectro: desde el diseño de chips (TPUS) y la infraestructura global hasta la investigación fundamental (DeepMind), el desarrollo de aplicaciones (espacio de trabajo, búsqueda, YouTube) y Servicios de Cloud Enterprise (Vértice AI, Bigquery, Agentspace). "Somos los únicos hiperscaleros que se encuentra en la conversación modelo fundamental", dijo Desouza rotundamente. Esta propiedad de extremo a extremo permite optimizaciones (como "inteligencia por dólar") y la profundidad de integración que los modelos relacionados con la asociación luchan para igualar. Los competidores a menudo necesitan unir piezas dispares, potencialmente creando fricción o limitando la velocidad de innovación.
El momento de Google es ahora
Si bien la raza de IA sigue siendo dinámica, Google ha reunido todas estas piezas en el momento preciso que el mercado las exige. Como lo expresó Laughridge de Deloitte, Google llegó a un punto en el que sus capacidades se alinearon perfectamente "donde el mercado lo exigió". Si estaba esperando que Google se demostrara en Enterprise AI, es posible que se haya perdido el momento, ya lo ha hecho. La compañía que inventó muchas de las tecnologías centrales que impulsan esta revolución parece haber finalmente atrapada, y más que eso, ahora está estableciendo el ritmo que los competidores necesitan para igualar.
En el video a continuación, grabado justo después, el experto en IA Sam Witteveen y yo desglosamos el panorama actual y las tendencias emergentes, y por qué el ecosistema de IA de Google se siente tan fuerte:



Google's sneaky move into enterprise AI is pretty cool. From playing catch-up to leading the pack, they've really turned things around. The tech is solid but the interface could be more user-friendly. Still, it's impressive how fast they've moved! 🚀




グーグルのエンタープライズAIへの静かな進出はかなりクールですね。追いつくことからリードするまで、本当に状況を変えました。技術はしっかりしていますが、インターフェースがもう少しユーザーフレンドリーだといいですね。それでも、進むスピードが印象的です!🚀




구글이 기업용 AI로 몰래 진출한 것이 꽤 멋지네요. 따라잡기에서 선두로 나아가 정말 상황을 바꿨어요. 기술은 훌륭하지만 인터페이스가 좀 더 사용자 친화적이면 좋겠어요. 그래도 이렇게 빠르게 움직인 것이 인상적이에요! 🚀




A jogada furtiva do Google no AI empresarial é bem legal. De tentar alcançar a liderar o grupo, eles realmente mudaram as coisas. A tecnologia é sólida, mas a interface poderia ser mais amigável ao usuário. Ainda assim, é impressionante como eles se moveram rápido! 🚀




El movimiento sigiloso de Google en la IA empresarial es bastante genial. De ir a la zaga a liderar el grupo, realmente han dado la vuelta a la situación. La tecnología es sólida pero la interfaz podría ser más amigable para el usuario. Aún así, es impresionante lo rápido que se han movido! 🚀




Google's move into enterprise AI is impressive. From playing catch-up to leading the pack, they've really stepped up their game. But the interface could use some work; it's a bit clunky. Still, I'm excited to see where they go from here! 🚀












