Lar Notícias Google supera furtivamente a IA da empresa: de 'Catch Up' para 'Catch Us'

Google supera furtivamente a IA da empresa: de 'Catch Up' para 'Catch Us'

20 de Abril de 2025
EricMartin
5

Apenas um ano atrás, o burburinho no Google e na IA da empresa pareciam presos em ponto morto. Apesar das tecnologias pioneiras como o transformador, a gigante da tecnologia parecia estar atrasada, eclipsada pelo sucesso viral do OpenAI, pela capacidade de codificação de antropia e empurrão agressivo da Microsoft no mercado corporativo.

Mas avance para a semana passada no Google Cloud Next 2025 em Las Vegas, e a cena foi marcadamente diferente. Um Google confiante, armado com modelos de melhor desempenho, infraestrutura robusta e uma estratégia corporativa clara, anunciou uma reviravolta dramática. Em uma reunião de analistas de portas fechadas com os executivos seniores do Google, um analista encapsulou o clima: "Parece que o momento em que o Google passou de 'Catch Up' para 'Catch Us'."

Leave do Google para a frente

Esse sentimento - que o Google não apenas alcançou, mas aumentou à frente do Openai e da Microsoft na corrida da IA ​​da empresa - foi palpável durante todo o evento. E não é apenas o hype de marketing. No ano passado, o Google se concentrou intensamente na execução, transformando suas proezas tecnológicas em uma plataforma integrada de alto desempenho que está vencendo rapidamente os tomadores de decisão corporativos. Desde os modelos de IA mais poderosos do mundo em silício altamente eficiente até um ecossistema crescente de agentes de IA adaptados aos desafios de negócios do mundo real, o Google está defendendo um caso forte que nunca foi realmente perdido, mas passando por um período de desenvolvimento profundo e fundamental.

Com sua pilha integrada agora operando em plena capacidade, o Google parece preparado para liderar a próxima fase da revolução da IA ​​corporativa. Em minhas entrevistas com os executivos do Google no Next, eles enfatizaram as vantagens exclusivas do Google em infraestrutura e integração de modelos - vantagens que concorrentes como OpenAI, Microsoft ou AWS achariam um desafio replicar.

A sombra da dúvida: reconhecendo o passado recente

Para apreciar plenamente o momento atual do Google, é essencial reconhecer o passado recente. O Google inventou a arquitetura de transformadores, provocando a revolução moderna em grandes modelos de idiomas (LLMS) e começou a investir em hardware especializado em IA (TPUs) há uma década, o que agora impulsiona a eficiência líder do setor. No entanto, inexplicavelmente, apenas dois anos e meio atrás, o Google se viu jogando na defesa.

O ChatGPT da Openai capturou a imaginação e o interesse corporativo do público em um ritmo de tirar o fôlego, tornando-se o aplicativo que mais cresce na história. Concorrentes como nichos antropis esculpidos em áreas como codificação. Enquanto isso, os movimentos públicos do Google frequentemente pareciam provisórios ou falhos. A infame demonstração de bardo se atrapalha em 2023 e a controvérsia sobre seu gerador de imagens, produzindo representações historicamente imprecisas, alimentadas com uma narrativa de uma empresa potencialmente prejudicada pela burocracia interna ou sobrecorreção sobre o alinhamento. O Google parecia perdido, ecoando sua lentidão inicial na competição em nuvem, onde permaneceu um terceiro distante em participação de mercado por trás da Amazon e Microsoft.

O pivô: uma decisão consciente de liderar

Nos bastidores, no entanto, ocorreu uma mudança significativa, impulsionada por uma decisão deliberada nos níveis mais altos para recuperar a liderança. Mat Velloso, vice -presidente de produto da plataforma de desenvolvedor de IA do Google Deepmind, sentiu esse momento crucial ao ingressar no Google em fevereiro de 2024, depois de deixar a Microsoft. "Quando cheguei ao Google, conversei com Sundar [Pichai], conversei com vários líderes aqui e senti que esse era o momento em que eles estavam decidindo, ok, essa [AI generativa] é uma coisa que a indústria claramente se importa. Vamos fazer isso acontecer", compartilhou Velloso durante uma entrevista na próxima semana passada.

Esse impulso renovado não foi dificultado pelo temido "fuga de cérebros" que alguns pessoas de fora acreditavam estar esgotando o Google. Em vez disso, a empresa dobrou a execução no início de 2024, marcada por contratação agressiva, unificação interna e tração do cliente. Enquanto os concorrentes fizeram contratações espalhadas, o Google manteve sua liderança principal de IA, incluindo o CEO da DeepMind, Demis Hassabis, e o CEO da Google Cloud, Thomas Kurian, fornecendo estabilidade e profunda experiência.

Além disso, o talento começou a fluir para a missão focada do Google. Logan Kilpatrick, por exemplo, retornou ao Google do Openai, desenhado pela oportunidade de construir IA fundamental dentro da empresa. Ele se juntou a Velloso no que descreveu como um "zero a uma experiência", encarregado de construir a tração do desenvolvedor de Gêmeos do zero. "Era como se a equipe fosse eu no primeiro dia ... Na verdade, não temos usuários nessa plataforma, não temos receita. Ninguém está interessado em Gêmeos neste momento", lembrou Kilpatrick do ponto de partida. Líderes como Josh Woodward, que ajudaram a iniciar o estúdio de IA e agora lidera o aplicativo e os laboratórios de Gemini, e o Noam Skazeer, um co-autor chave do artigo de transformador original "Atenção é tudo o que você precisa", também retornou à empresa no final de 2024 como um co-líder técnico para o projeto crucial de Gemini.

Pilar 1: Gemini 2.5 e a era dos modelos de pensamento

Embora o mantra corporativo tenha mudado para "não se trata apenas do modelo", ter o LLM com melhor desempenho continua sendo uma conquista significativa e um poderoso validador da pesquisa superior e da arquitetura tecnológica eficiente de uma empresa. Com o lançamento do Gemini 2.5 Pro apenas algumas semanas antes de 25, o Google reivindicou decisivamente esse manto. Ele rapidamente liderou a tabela de líderes independente de chatbot arena, superando significativamente até a mais recente variante GPT-4O da OpenAI e o raciocínio notoriamente difícil do ACED, como benchmarks como o último exame da Humanity. Como Pichai afirmou na palestra: "É o nosso modelo de IA mais inteligente de todos os tempos. E é o melhor modelo do mundo". O modelo conduziu um aumento de 80 % no uso de Gêmeos em um mês, ele twittou separadamente.

Pela primeira vez, a demanda por Gêmeos estava pegando fogo. O que me impressionou, além da inteligência bruta do Gemini 2.5 Pro, foi seu raciocínio demonstrável. O Google projetou uma capacidade de "pensamento", permitindo que o modelo realize raciocínio, planejamento e até auto-reflexão em várias etapas antes de finalizar uma resposta. A cadeia de pensamento estruturada e coerente (COT)-usando etapas e subculletas numeradas-evita a natureza divagadora ou opaca das saídas de outros modelos da Deepseek ou OpenAI. Para equipes técnicas que avaliam saídas para tarefas críticas, essa transparência permite validação, correção e redirecionamento com confiança sem precedentes.

Mas, mais importante, para os usuários corporativos, o Gemini 2.5 Pro também fechou drasticamente a lacuna na codificação, que é uma das maiores áreas de aplicação para IA generativa. Em uma entrevista ao VentureBeat, a CTO Fiona Tan da varejista líder Wayfair disse que, após os testes iniciais, a empresa encontrou "intensificou um pouco" e agora era "bastante comparável" ao soneto Claude 3,7 da Anthropic, anteriormente a escolha preferida para muitos desenvolvedores.

O Google também adicionou uma enorme janela de contexto de 1 milhão de token ao modelo, permitindo o raciocínio em bases de código inteiras ou uma longa documentação, excedendo em muito os recursos dos modelos de OpenAI ou antropia. (O Openai respondeu esta semana com modelos com janelas de contexto igualmente grandes, embora os benchmarks sugerissem que a Gemini 2.5 Pro mantenha uma vantagem no raciocínio geral). Essa vantagem permite tarefas complexas de engenharia de software de vários arquivos.

Complementando o Pro é Gemini 2.5 Flash, anunciado no próximo '25 e lançado ontem. Além disso, um modelo de "pensamento", o Flash é otimizado para baixa latência e eficiência de custo. Você pode controlar o quanto o modelo é o desempenho e equilibrar o desempenho com seu orçamento. Essa abordagem em camadas reflete ainda a estratégia de "inteligência por dólar" defendida pelos executivos do Google.

Velloso mostrou um gráfico revelando que, em todo o espectro de inteligência, os modelos do Google oferecem o melhor valor. "Se tivéssemos essa conversa um ano atrás ... eu não teria nada para mostrar", admitiu Velloso, destacando a rápida reviravolta. "E agora, tipo, em geral, estamos, se você está procurando qualquer modelo, qualquer tamanho, como, se você não estiver no Google, está perdendo dinheiro". Gráficos semelhantes foram atualizados para explicar os lançamentos de modelo do OpenAI nesta semana, todos mostrando a mesma coisa: os modelos do Google oferecem a melhor inteligência por dólar. Veja abaixo:

Por qualquer preço, os modelos do Google oferecem mais inteligência do que outros modelos, cerca de 90 % do tempo. Fonte: Pierre Bongrand.

O Tan de Wayfair também observou melhorias promissoras de latência com 2,5 Pro: "Gemini 2.5 voltou mais rápido", tornando viável "mais um tipo de capacidade", disse ela, algo que ela disse que não foi o caso antes com outros modelos. Gêmeos pode se tornar o primeiro modelo que a Wayfair usa para essas interações com os clientes, disse ela.

Os recursos da família Gemini se estendem à multimodalidade, integrando-se perfeitamente aos outros modelos principais do Google, como Imagen 3 (geração de imagens), Veo 2 (geração de vídeo), Chirp 3 (áudio) e a recém-anunciada Lyria (Text-to Music), todos acessíveis através da plataforma do Google para usuários Enterprise, Vertex. O Google é a única empresa que oferece seus próprios modelos de mídia generativos em todas as modalidades em sua plataforma. Microsoft, AWS e OpenAI precisam fazer parceria com outras empresas para fazer isso.

Pilar 2: proezas de infraestrutura - o motor sob o capô

A capacidade de iterar rapidamente e servir com eficiência esses modelos poderosos decorre da infraestrutura sem estado do Google, aprimorada por décadas de execução de serviços em escala de planeta. Central para isso é a unidade de processamento do tensor (TPU).

Na próxima '25, o Google lançou a Ironwood, sua TPU de sétima geração, projetada explicitamente para as demandas de inferência e "modelos de pensamento". A escala é imensa, adaptada para cargas de trabalho de IA exigentes: as vagens Ironwood embalam mais de 9.000 chips refrigerados a líquidos, fornecendo 42,5 exaflops reivindicados de energia de computação. O vice -presidente de sistemas de ML do Google, Amin Vahdat, disse no palco no próximo que isso é "mais de 24 vezes" o poder de computação do atual supercomputador número 1 do mundo.

O Google afirmou que o Ironwood oferece 2x Perf/Watt em relação ao Trillium, a geração anterior de TPU. Isso é significativo, pois os clientes corporativos dizem cada vez mais que os custos de energia e a disponibilidade restringem as implantações de IA em larga escala.

O Google Cloud CTO irá enfatizar a consistência desse progresso. Ano a ano, o Google está fazendo melhorias 10x, 8x, 9x, 10x em seus processadores, disse ele à VentureBeat em uma entrevista, criando o que chamou de "Lei de Hyper Moore" para aceleradores de IA. Ele disse que os clientes estão comprando o roteiro do Google, não apenas sua tecnologia.

A posição do Google alimentou esse investimento sustentado da TPU. Ele precisa impulsionar serviços enormes com eficiência, como pesquisa, youtube e gmail, para mais de 2 bilhões de usuários. Isso exigia o desenvolvimento de hardware otimizado e otimizado muito antes do atual boom generativo da IA. Enquanto a Meta opera em uma escala de consumidor semelhante, outros concorrentes careciam desse driver interno específico para o desenvolvimento de hardware de AI integrado verticalmente integrado de uma década.

Agora, esses investimentos da TPU estão valendo a pena porque estão impulsionando a eficiência não apenas por seus próprios aplicativos, mas também permitem que o Google ofereça Gêmeos a outros usuários em uma melhor inteligência por dólar, sendo todas as coisas iguais.

Por que os concorrentes do Google não podem comprar processadores eficientes da Nvidia, você pergunta? É verdade que os processadores GPU da NVIDIA dominam o processo de pré-treinamento do LLMS. Mas a demanda do mercado aumentou o preço dessas GPUs, e a Nvidia leva um corte saudável para si como lucro. Isso passa custos significativos junto aos usuários de seus chips. Além disso, embora o pré-treinamento tenha dominado o uso de chips de IA até agora, isso está mudando agora que as empresas estão realmente implantando esses aplicativos. É aqui que entra "inferência" e aqui as TPUs são consideradas mais eficientes que as GPUs para cargas de trabalho em escala.

Quando você pergunta aos executivos do Google de onde vem sua principal vantagem tecnológica na IA, eles geralmente voltam à TPU como a mais importante. Mark Lohmeyer, vice -presidente que administra a infraestrutura de computação do Google, era inequívoca: as TPUs são "certamente uma parte altamente diferenciada do que fazemos ... Openai, eles não têm essas capacidades".

Significativamente, o Google apresenta TPUs não isoladamente, mas como parte da arquitetura de IA corporativa mais ampla e complexa. Para insiders técnicos, entende-se que o desempenho de primeira linha depende da integração de avanços tecnológicos cada vez mais especializados. Muitas atualizações foram detalhadas no próximo. Vahdat descreveu isso como um "sistema de supercomputação", integrando o hardware (TPUS, as GPUs NVIDIA mais recentes como o Blackwell e o próximo Vera Rubin, armazenamento avançado como o Hyperdisk Expaols, qualquer lugar do Cache e o armazenamento rápido) com uma pilha de software unificada. Este software inclui diretor de cluster para gerenciamento de aceleradores, caminhos (o tempo de execução distribuído de Gemini, agora disponível para os clientes) e trazendo otimizações como o VLLM para o TPUS, permitindo migração de carga de trabalho mais fácil para aqueles anteriormente nas pilhas Nvidia/Pytorch. Esse sistema integrado, argumentou Vahdat, é por isso que o Gemini 2.0 Flash alcança a inteligência 24 vezes maior por dólar, em comparação com o GPT-4O.

O Google também está estendendo seu alcance de infraestrutura física. A Cloud Wan disponibiliza a rede de fibra privada de 2 milhões de quilômetros de baixa latência do Google para empresas, prometendo até 40% de desempenho mais rápido e 40% menor custo total de propriedade (TCO) em comparação com redes gerenciadas pelo cliente.

Além disso, o Google Distributed Cloud (GDC) permite que o hardware Gemini e Nvidia (por meio de uma parceria Dell) seja executado em ambientes soberanos, locais ou mesmo com ambientes de ar-um CEO da NVIDIA, Jensen Huang, elogiado como "Utterly Gigic", por trazer o estado de estadia para a Tain, a ser regulamentado, a ser regulamentada por sincronia. Na próxima, Huang chamou a infraestrutura do Google de melhor do mundo: "Nenhuma empresa é melhor em todas as camadas de computação do que o Google e o Google Cloud", disse ele.

Pilar 3: A pilha completa integrada - conectando os pontos

A vantagem estratégica do Google cresce ao considerar como esses modelos e componentes de infraestrutura são tecidos em uma plataforma coesa. Ao contrário dos concorrentes, que geralmente dependem de parcerias para preencher lacunas, o Google controla quase todas as camadas, permitindo uma integração mais rigorosa e ciclos de inovação mais rápidos.

Então, por que essa integração é importante, se um concorrente como a Microsoft pode simplesmente fazer parceria com o OpenAI para combinar com a largura da infraestrutura com as proezas do modelo LLM? Os Googlers com quem conversei disseram que isso faz uma enorme diferença, e eles criaram anedotas para apoiá -lo.

Pegue a melhoria significativa do banco de dados corporativo do Google BigQuery. O banco de dados agora oferece um gráfico de conhecimento que permite que o LLMS pesquise dados com muito mais eficiência e agora possui mais de cinco vezes os clientes de concorrentes como Snowflake e Databricks. Yasmeen Ahmad, chefe de produto da análise de dados do Google Cloud, disse que as vastas melhorias só são possíveis porque as equipes de dados do Google estavam trabalhando em estreita colaboração com a equipe DeepMind. Eles trabalharam em casos de uso que eram difíceis de resolver, e isso levou ao banco de dados a fornecer 50 % mais precisão com base em consultas comuns, pelo menos de acordo com os testes internos do Google, ao atingir os dados certos do que os concorrentes mais próximos, disse Ahmad à Venturebeat em uma entrevista. Ahmad disse que esse tipo de integração profunda em toda a pilha é como o Google "saltou" o setor.

Essa coesão interna contrasta fortemente com a dinâmica "frenemies" na Microsoft. Enquanto a Microsoft faz parceria com o OpenAI para distribuir seus modelos na nuvem do Azure, a Microsoft também está construindo seus próprios modelos. Mat Velloso, o executivo do Google que agora lidera o programa de desenvolvedor de IA, deixou a Microsoft depois de ficar frustrado tentando alinhar os planos do Windows Copilot com as ofertas de modelos do OpenAI. "Como você compartilha seus planos de produtos com outra empresa que está realmente competindo com você ... a coisa toda é uma contradição", lembrou. "Aqui eu me sento lado a lado com as pessoas que estão construindo os modelos".

Essa integração fala sobre o que os líderes do Google vêem como sua vantagem principal: sua capacidade única de conectar uma profunda experiência em todo o espectro, desde a pesquisa fundamental e a construção de modelos até a implantação de aplicativos e o design de infraestrutura de "escala do planeta".

O Vertex AI serve como o sistema nervoso central dos esforços corporativos da IA ​​do Google. E a integração vai além de apenas ofertas do Google. O Model Garden da Vertex oferece mais de 200 modelos com curadoria, incluindo o Google's, o Meta's Llama 4 e inúmeras opções de código aberto. A Vertex fornece ferramentas para ajuste, avaliação (incluindo Evalas de IA, que Grannis destacaram como um acelerador-chave), implantação e monitoramento. Seus recursos de aterramento aproveitam os bancos de dados internos de AI-Profundos, juntamente com a compatibilidade com bancos de dados de vetores externos. Acrescente às novas ofertas do Google aos modelos de terra com a pesquisa do Google, o melhor mecanismo de pesquisa do mundo.

A integração se estende ao espaço de trabalho do Google. Novos recursos anunciados no Next '25, como "Ajude -me a analisar" em folhas (sim, as folhas agora têm uma fórmula "= ai"), visão geral do áudio em documentos e fluxos de espaço de trabalho, incorporando ainda mais os recursos de Gemini nos fluxos de trabalho diários, criando um poderoso loop de feedback para o Google para usar a experiência.

Ao dirigir sua pilha integrada, o Google também defende a abertura, onde serve ao ecossistema. Tendo conduzido a adoção do Kubernetes, agora está promovendo o JAX para estruturas de IA e agora os protocolos abertos para comunicação do agente (A2A), juntamente com o suporte aos padrões existentes (MCP). O Google também está oferecendo centenas de conectores a plataformas externas da AgentsPace, que é a nova interface unificada do Google para os funcionários encontrarem e usarem agentes. Esse conceito de hub é atraente. A demonstração de palestras do AGENTSPACE (a partir de 51:40) ilustra isso. O Google oferece aos usuários agentes pré-construídos, ou funcionários ou desenvolvedores podem construir seus próprios recursos de IA sem código. Ou eles podem atrair agentes de fora através dos conectores A2A. Ele se integra ao navegador Chrome para acesso contínuo.

Pilar 4: Concentre -se no valor da empresa e no ecossistema do agente

Talvez a mudança mais significativa seja o foco afiado do Google na solução de problemas corporativos de concreto, principalmente através das lentes dos agentes da IA. Thomas Kurian, CEO do Google Cloud, descreveu três razões pelas quais os clientes escolhem o Google: a plataforma otimizada da AI, a abordagem aberta de várias nuvens, permitindo a conexão com a existência e o foco pronto para a empresa em segurança, soberania e conformidade.

Os agentes são essenciais para essa estratégia. Além do Agentspace, isso também inclui:

  • Bloco de construção: O Kit de Desenvolvimento de Agentes de Sprimento Aberto (ADK), anunciado no próximo, já teve um interesse significativo dos desenvolvedores. O ADK simplifica a criação de sistemas multi-agentes, enquanto o protocolo Agent2AGENT (A2A) proposto visa garantir a interoperabilidade, permitindo que os agentes construídos com diferentes ferramentas (Gemini Adk, Langgraph, Crewai etc.) colaborem. O Google Grannis disse que a A2A antecipa a escala e os desafios de segurança de um futuro, com potencialmente centenas de milhares de agentes em interação.
  • Purpose-built Agents: Google showcased expert agents integrated into Agentspace (like NotebookLM, Idea Generation, Deep Research) and highlighted five key categories gaining traction: Customer Agents (powering tools like Reddit Answers, Verizon's support assistant, Wendy's drive-thru), Creative Agents (used by WPP, Brandtech, Sphere), Data Agents (driving insights at Mattel, Spotify, Bayer), Coding Agentes (Gemini Code Assist) e agentes de segurança (integrados à nova plataforma de segurança unificada do Google).

Essa estratégia abrangente do agente parece estar ressoando. Conversas com executivos em três outras grandes empresas na semana passada, também falando anonimamente devido a sensibilidades competitivas, ecoaram esse entusiasmo pela estratégia de agentes do Google. O COO do Google Cloud Francis DeSouza confirmou em uma entrevista: "Toda conversa inclui ai. Especificamente, toda conversa inclui agentes".

Kevin Laughridge, executivo da Deloitte, um grande usuário dos produtos de AI do Google, e um distribuidor deles para outras empresas, descreveram o mercado de agentes como uma "captura de terras", onde os primeiros movimentos do Google com os protocolos e sua plataforma integrada oferecem vantagens significativas. "Quem está saindo primeiro e obtendo o maior número de agentes que realmente agrega valor - é quem vai vencer nesta corrida", disse Laughridge em entrevista. Ele disse que o progresso do Google foi "surpreendente", observando que os agentes personalizados que a Deloitte construiu há apenas um ano poderia ser replicada "fora da caixa" usando o Agentspace. A própria Deloitte está construindo 100 agentes na plataforma, visando funções intermediárias como finanças, risco e engenharia, disse ele.

Os pontos de prova do cliente estão aumentando. No próximo, o Google citou "500 mais clientes em produção" com IA generativa, acima de apenas "dezenas de protótipos" há um ano. Se a Microsoft foi percebida como muito à frente há um ano, isso não parece mais tão obviamente o caso. Dada a guerra de relações públicas de todos os lados, é difícil dizer quem está realmente vencendo agora definitivamente. As métricas variam. O número 500 do Google não é diretamente comparável aos 400 estudos de caso que a Microsoft promove (e a Microsoft, em resposta, disse à VentureBeat no momento que planeja atualizar esse público para 600 em breve, ressaltando o intenso marketing). E se a distribuição da IA ​​pelo Google por meio de seus aplicativos for significativa, a distribuição da Microsoft Copilot por meio de sua oferta 365 é igualmente impressionante. Ambos estão agora atingindo milhões de desenvolvedores através de APIs.

Mas os exemplos abundam a tração do Google:

  • Wendy's: implantou um sistema de drive-thru da AI para milhares de locais em apenas um ano, melhorando a experiência dos funcionários e a precisão do pedido. O Google Cloud CTO Will Grannis observou que o sistema de IA é capaz de entender a gíria e filtrar o ruído de fundo, reduzindo significativamente o estresse das interações ao vivo do cliente. Isso libera a equipe para se concentrar na preparação e na qualidade dos alimentos-um grannis de turno chamado "Um ótimo exemplo de ai simplificando operações do mundo real".
  • Salesforce: anunciou uma grande expansão, permitindo que sua plataforma seja executada no Google Cloud pela primeira vez (além da AWS), citando a capacidade do Google de ajudá -los a "inovar e otimizar".
  • Honeywell & Intuit: Empresas anteriormente fortemente associadas à Microsoft e AWS, respectivamente, agora em parceria com o Google Cloud em iniciativas de IA.
  • Principais bancos (Deutsche Bank, Wells Fargo): alavancando agentes e gêmeos para pesquisa, análise e modernização de atendimento ao cliente.
  • Varejistas (Walmart, Mercado Libre, Lowe's): Usando pesquisa, agentes e plataformas de dados.

Essa tração corporativa alimenta o crescimento geral do Google Cloud, que superou a AWS e o Azure nos últimos três trimestres. O Google Cloud atingiu uma taxa de execução anualizada de US $ 44 bilhões em 2024, contra apenas US $ 5 bilhões em 2018.

Navegando pelas águas competitivas

A ascensão do Google não significa que os concorrentes estão parados. Os lançamentos rápidos do OpenAI nesta semana do GPT-4.1 (focado na codificação e no contexto longo) e na série O (raciocínio multimodal, uso de ferramentas) demonstram a inovação contínua do OpenAI. Além disso, a nova atualização do recurso de geração de imagens da OpenAI no GPT-4O alimentou um crescimento maciço no último mês, ajudando o ChatGPT a atingir 800 milhões de usuários. A Microsoft continua a alavancar sua vasta parceria corporativa e aberta, enquanto o Antrópico continua sendo um forte candidato, particularmente em aplicações de codificação e segurança.

No entanto, é indiscutível que a narrativa do Google tenha melhorado notavelmente. Apenas um ano atrás, o Google era visto como um concorrente, que talvez estivesse prestes a dar uma chance de liderar a IA. Instead, its unique, integrated stack and corporate steadfastness have revealed something else: Google possesses world-class capabilities across the entire spectrum – from chip design (TPUs) and global infrastructure to foundational model research (DeepMind), application development (Workspace, Search, YouTube), and enterprise cloud services (Vertex AI, BigQuery, Agentspace). "Somos o único hiperescalador que está na conversa do modelo fundamental", afirmou DeSouza. Essa propriedade de ponta a ponta permite otimizações (como "inteligência por dólar") e profundidade de integração que os modelos de base de parceria lutam para combinar. Os concorrentes geralmente precisam costurar peças díspares, potencialmente criando atrito ou limitando a velocidade de inovação.

O momento do Google é agora

Enquanto a corrida de IA permanece dinâmica, o Google montou todas essas peças no momento exato em que o mercado as exige. Como o Laughridge de Deloitte, o Google atingiu um ponto em que suas capacidades se alinhavam perfeitamente "onde o mercado o exigiu". Se você estava esperando o Google se provar na IA corporativa, pode ter perdido o momento - ele já o fez. A empresa que inventou muitas das principais tecnologias que alimenta essa revolução parece finalmente ter alcançado - e mais do que isso, agora está definindo o ritmo que os concorrentes precisam corresponder.

No vídeo abaixo, gravado logo após o próximo, o especialista em IA Sam Witteveen e eu quebro o cenário atual e as tendências emergentes, e por que o ecossistema de AI do Google se sente tão forte:

Artigo relacionado
MCP通過工具和數據標準化AI連接:出現了新協議 MCP通過工具和數據標準化AI連接:出現了新協議 如果您正在潛入人工智能(AI)世界,那麼您可能會注意到,獲得不同的AI模型,數據源和工具可以很好地播放,這是多麼重要。這就是模型上下文協議(MCP)所在的地方,它是標準化AI連接性的遊戲改變者。 t
虛擬地探索地球:Chatgpt和Google Earth度假計劃者 虛擬地探索地球:Chatgpt和Google Earth度假計劃者 曾經有過逃避日常磨碎的衝動,但發現自己在去哪裡陷入困境?讓我們深入研究一個很酷的方法,以計劃下一個度假勝地,而無需踏出門外。通過利用Chatgpt和Google Earth的力量,您可以踏上一個既令人興奮又相關的虛擬假期
Chatgpt主意使用用戶名在某些人中引發了“令人毛骨悚然”的問題 Chatgpt主意使用用戶名在某些人中引發了“令人毛骨悚然”的問題 Chatgpt的一些用戶最近遇到了一個奇怪的新功能:聊天機器人偶爾在解決問題時使用他們的名字。這不是以前其通常行為的一部分,許多用戶報告Chatgpt提到了他們的名字,而沒有被告知該怎麼稱呼。意見
Comentários (10)
0/200
JeffreyHarris
JeffreyHarris 20 de Abril de 2025 à9 10:35:09 GMT

Google's sneaky move into enterprise AI is pretty cool. From playing catch-up to leading the pack, they've really turned things around. The tech is solid but the interface could be more user-friendly. Still, it's impressive how fast they've moved! 🚀

WillieJones
WillieJones 22 de Abril de 2025 à31 00:13:31 GMT

グーグルのエンタープライズAIへの静かな進出はかなりクールですね。追いつくことからリードするまで、本当に状況を変えました。技術はしっかりしていますが、インターフェースがもう少しユーザーフレンドリーだといいですね。それでも、進むスピードが印象的です!🚀

WillBaker
WillBaker 22 de Abril de 2025 à49 05:12:49 GMT

구글이 기업용 AI로 몰래 진출한 것이 꽤 멋지네요. 따라잡기에서 선두로 나아가 정말 상황을 바꿨어요. 기술은 훌륭하지만 인터페이스가 좀 더 사용자 친화적이면 좋겠어요. 그래도 이렇게 빠르게 움직인 것이 인상적이에요! 🚀

CharlesMartinez
CharlesMartinez 22 de Abril de 2025 à16 06:10:16 GMT

A jogada furtiva do Google no AI empresarial é bem legal. De tentar alcançar a liderar o grupo, eles realmente mudaram as coisas. A tecnologia é sólida, mas a interface poderia ser mais amigável ao usuário. Ainda assim, é impressionante como eles se moveram rápido! 🚀

JasonRoberts
JasonRoberts 22 de Abril de 2025 à36 07:22:36 GMT

El movimiento sigiloso de Google en la IA empresarial es bastante genial. De ir a la zaga a liderar el grupo, realmente han dado la vuelta a la situación. La tecnología es sólida pero la interfaz podría ser más amigable para el usuario. Aún así, es impresionante lo rápido que se han movido! 🚀

FredAnderson
FredAnderson 22 de Abril de 2025 à12 15:53:12 GMT

Google's move into enterprise AI is impressive. From playing catch-up to leading the pack, they've really stepped up their game. But the interface could use some work; it's a bit clunky. Still, I'm excited to see where they go from here! 🚀

Back to Top
OR