Maison Nouvelles Google dépasse furtivement dans l'entreprise AI: de «rattraper» pour «nous attraper»

Google dépasse furtivement dans l'entreprise AI: de «rattraper» pour «nous attraper»

20 avril 2025
EricMartin
5

Il y a à peine un an, le buzz autour de Google et de l'Enterprise IA semblait coincé dans le neutre. Malgré des technologies pionnières comme le transformateur, le géant de la technologie semblait être à la traîne, éclipsé par le succès viral d'Openai, les prouesses codantes d'Anthropic et la poussée agressive de Microsoft dans le marché des entreprises.

Mais en avant pour la semaine dernière à Google Cloud en 2025 prochain à Las Vegas, et la scène était nettement différente. Un Google confiant, armé de modèles les plus performants, d'infrastructure robuste et d'une stratégie d'entreprise claire, a annoncé un revirement spectaculaire. Lors d'une réunion d'analyste à huis clos avec les cadres supérieurs de Google, un analyste a résumé l'ambiance: "Cela ressemble au moment où Google est passé de" rattraper "pour" nous attraper "."

Le saut de Google en avant

Ce sentiment - que Google a non seulement rattrapé le retard mais a fait une descente avant Openai et Microsoft dans la course de l'IA de l'entreprise - était palpable tout au long de l'événement. Et ce n'est pas seulement le battage médiatique. Au cours de la dernière année, Google s'est intensifié sur l'exécution, transformant ses prouesses technologiques en une plate-forme intégrée haute performance qui gagne rapidement les décideurs d'entreprise. Des modèles d'IA les plus puissants au monde fonctionnant sur du silicium personnalisé très efficace à un écosystème en plein essor d'agents d'IA adaptés à des défis commerciaux du monde réel, Google fait un cas fort qu'il n'a jamais été vraiment perdu mais a plutôt subi une période de développement fondamental profond.

Avec sa pile intégrée fonctionnant désormais à pleine capacité, Google semble prêt à diriger la prochaine phase de la révolution de l'IA d'entreprise. Dans mes interviews avec Google Exécutives à Next, ils ont mis l'accent sur les avantages uniques de Google dans l'infrastructure et l'intégration du modèle - des avantages que des concurrents comme OpenAI, Microsoft ou AWS trouveraient difficiles à reproduire.

L'ombre du doute: reconnaître le passé récent

Pour apprécier pleinement l'élan actuel de Google, il est essentiel de reconnaître le passé récent. Google a inventé l'architecture du transformateur, déclenchant la révolution moderne dans les modèles de grande langue (LLMS) et a commencé à investir dans un matériel d'IA spécialisé (TPU) il y a une décennie, ce qui stimule désormais l'efficacité de la pointe de l'industrie. Pourtant, inexplicablement, il y a seulement deux ans et demi, Google s'est retrouvé à jouer en défense.

Le Chatgpt d'Openai a capturé l'imagination du public et l'intérêt de l'entreprise à un rythme à couper le souffle, devenant l'application la plus rapide de l'histoire. Des concurrents comme Anthropic ont sculpté les niches dans des domaines comme le codage. Pendant ce temps, les mouvements publics de Google semblaient souvent provisoires ou défectueux. La tristement célèbre démo de barde échappe en 2023 et la controverse sur son générateur d'images produisant des représentations historiquement inexactes nourries avec un récit d'une entreprise potentiellement entravée par la bureaucratie interne ou la surcorrection sur l'alignement. Google semblait perdu, faisant écho à sa lenteur initiale dans la concurrence cloud où elle est restée éloignée de la part de marché derrière Amazon et Microsoft.

Le pivot: une décision consciente de diriger

Dans les coulisses, cependant, un changement significatif s'est produit, tiré par une décision délibérée au plus haut niveau pour récupérer le leadership. Mat Velloso, vice-président du produit pour la plate-forme de développeur AI de Google Deepmind, a senti ce moment pivot en rejoignant Google en février 2024, après avoir quitté Microsoft. "Quand je suis arrivé à Google, j'ai parlé avec Sundar [Pichai], j'ai parlé avec plusieurs dirigeants ici, et je me sentais l'impression que c'était le moment où ils décidaient, d'accord, cette [AI générative] est une chose qui se soucie clairement de l'industrie.

Cette poussée renouvelée n'a pas été entravée par la "fuite du cerveau" redoutée qui, selon certains étrangers, épuisant Google. Au lieu de cela, l'entreprise a doublé l'exécution au début de 2024, marquée par l'embauche agressive, l'unification interne et la traction du client. Alors que les concurrents ont fait des embauches éclaboussantes, Google a conservé son leadership de base de l'IA, notamment le PDG de DeepMind Demis Hassabis et le PDG de Google Cloud Thomas Kurian, offrant une stabilité et une expertise approfondie.

De plus, le talent a commencé à couler vers la mission ciblée de Google. Logan Kilpatrick, par exemple, est retourné à Google d'Openai, attiré par l'opportunité de construire une IA fondamentale au sein de l'entreprise. Il a rejoint Velloso dans ce qu'il a décrit comme un «zéro à une expérience», chargé de construire la traction du développeur de Gémeaux à partir de zéro. "C'était comme si l'équipe était moi le premier jour ... nous n'avons en fait aucun utilisateur sur cette plateforme, nous n'avons pas de revenus. Personne ne s'intéresse aux Gémeaux en ce moment", a rappelé Kilpatrick à propos du point de départ. Des dirigeants comme Josh Woodward, qui ont aidé à démarrer AI Studio et dirige maintenant l'application et les laboratoires de Gemini, et Noam Shazeer, un co-auteur clé de l'original "Attention est tout ce dont vous avez besoin" du papier transformateur, est également retourné à la société fin 2024 en tant que co-droit technique pour le projet crucial Gemini.

Pilier 1: Gemini 2.5 et l'ère des modèles de pensée

Bien que le mantra d'entreprise se soit déplacé vers "ce n'est pas seulement le modèle", le fait d'avoir le LLM le plus performant reste une réalisation significative et un puissant validateur de la recherche supérieure d'une entreprise et de l'architecture technologique efficace. Avec la publication de Gemini 2.5 Pro quelques semaines avant le prochain '25, Google a fait de manière décisive ce manteau. Il a rapidement dépassé le classement indépendant de l'arène du chatbot, surpassant considérablement même la dernière variante GPT-4O d'Openai, et les références de raisonnement notoirement difficiles comme le dernier examen de l'humanité. Comme Pichai l'a dit dans le discours, "c'est notre modèle d'IA le plus intelligent de tous les temps. Et c'est le meilleur modèle du monde." Le modèle avait entraîné une augmentation de 80% de l'utilisation des Gémeaux en un mois, a-t-il tweeté séparément.

Pour la première fois, la demande de Gémeaux était en feu. Ce qui m'a impressionné, à part l'intelligence brute de Gemini 2.5 Pro, c'est son raisonnement démontrable. Google a conçu une capacité de "réflexion", permettant au modèle d'effectuer un raisonnement, une planification et même une auto-réflexion en plusieurs étapes avant de finaliser une réponse. La chaîne de pensée structurée et cohérente (COT) - en utilisant des étapes numérotées et des sous-bouches - évite la nature décousue ou opaque des sorties d'autres modèles de Deepseek ou Openai. Pour les équipes techniques évaluant les résultats pour les tâches critiques, cette transparence permet la validation, la correction et la redirection avec une confiance sans précédent.

Mais plus important encore pour les utilisateurs des entreprises, Gemini 2.5 Pro a également considérablement réduit l'écart dans le codage, qui est l'un des plus grands domaines d'applications pour l'IA générative. Dans une interview avec VentureBeat, le CTO Fiona Tan du principal détaillant Wayfair a déclaré qu'après les tests initiaux, la société l'a trouvé "montait un peu" et était désormais "assez comparable" au Sonnet Claude 3.7 d'Anthropic, auparavant le choix préféré pour de nombreux développeurs.

Google a également ajouté une fenêtre de contexte de jetons de 1 million massive sur le modèle, permettant le raisonnement sur des bases de code entières ou une longue documentation, dépassant de loin les capacités des modèles d'OpenAI ou d'anthropique. (Openai a répondu cette semaine avec des modèles avec des fenêtres de contexte similaires, bien que les références suggèrent que Gemini 2.5 Pro conserve un avantage dans le raisonnement global). Cet avantage permet des tâches complexes de génie logiciel multi-fichiers.

Complémentant Pro est Gemini 2.5 Flash, annoncé au prochain '5 et ​​sorti hier. Également un modèle de «réflexion», le flash est optimisé pour une faible latence et une économie. Vous pouvez contrôler la quantité de raisons du modèle et d'équilibrer les performances avec votre budget. Cette approche à plusieurs niveaux reflète en outre la stratégie de "renseignement par dollar" défendue par les dirigeants de Google.

Velloso a montré un graphique révélant que dans le spectre de l'intelligence, les modèles Google offrent la meilleure valeur. "Si nous avions cette conversation il y a un an ... Je n'aurais rien à montrer", a admis Velloso, soulignant le revirement rapide. "Et maintenant, comme, à tous les niveaux, nous le sommes, si vous recherchez n'importe quel modèle, quelle que soit la taille, comme, si vous n'êtes pas Google, vous perdez de l'argent." Des graphiques similaires ont été mis à jour pour rendre compte des dernières versions du modèle d'OpenAI cette semaine, tous montrant la même chose: les modèles de Google offrent la meilleure intelligence par dollar. Voir ci-dessous:

Pour tout prix donné, les modèles de Google offrent plus d'intelligence que d'autres modèles, environ 90% du temps. Source: Pierre Bongrand.

Le Tan de Wayfair a également observé des améliorations prometteuses de latence avec 2.5 Pro: "Gemini 2.5 est revenu plus vite", ce qui rend viable "plus de capacités orientées client", a-t-elle déclaré, quelque chose qui, selon elle, n'a pas été le cas auparavant avec d'autres modèles. Les Gémeaux pourraient devenir le premier modèle que Wayfair utilise pour ces interactions client, a-t-elle déclaré.

Les capacités de la famille Gemini s'étendent à la multimodalité, intégrant de manière transparente avec les autres modèles de premier plan de Google comme Imagen 3 (génération d'images), VEO 2 (génération de vidéos), CHIRP 3 (Audio) et la Lyria nouvellement annoncée (texte à musique), tous accessibles via la plate-forme de Google pour les utilisateurs d'entreprise, Saint-Entrepreneur. Google est la seule entreprise qui propose ses propres modèles de médias génératifs dans toutes les modalités de sa plate-forme. Microsoft, AWS et Openai doivent s'associer à d'autres sociétés pour ce faire.

Pilier 2: Prowess des infrastructures - Le moteur sous le capot

La capacité d'itérer rapidement et de servir efficacement ces modèles puissants provient de l'infrastructure sans doute inégalée de Google, perfectionné au cours des décennies de services à l'échelle de la planète. L'unité de traitement du tenseur (TPU) est au cœur de cela.

Au prochain '25, Google a dévoilé Ironwood, son TPU de septième génération, explicitement conçu pour les exigences de l'inférence et des «modèles de réflexion». L'échelle est immense, sur mesure pour exiger les charges de travail de l'IA: les pods en bois de fer comportent plus de 9 000 puces refroidies en liquide, offrant une réclamation de 42,5 exaflops de puissance de calcul. Le vice-président des systèmes ML de Google, Amin Vahdat, a déclaré sur scène à Next qu'il s'agissait de "plus de 24 fois" la puissance de calcul du supercalculateur # 1 actuel du monde.

Google a déclaré que Ironwood propose 2x perf / watt par rapport à Trillium, la génération précédente de TPU. Ceci est important car les clients d'entreprise affirment de plus en plus que les coûts énergétiques et la disponibilité limitent les déploiements d'IA à grande échelle.

Google Cloud CTO Will Grannis a souligné la cohérence de ces progrès. D'année en année, Google fait des améliorations 10x, 8x, 9x, 10x dans ses processeurs, a-t-il déclaré à VentureBeat dans une interview, créant ce qu'il a appelé une "loi de Hyper Moore" pour les accélérateurs de l'IA. Il a dit que les clients achètent la feuille de route de Google, pas seulement sa technologie.

La position de Google a alimenté cet investissement soutenu de TPU. Il doit alimenter efficacement des services massifs comme la recherche, YouTube et Gmail pour plus de 2 milliards d'utilisateurs. Cela a nécessité le développement de matériel optimisé personnalisé bien avant le boom de l'IA génératif actuel. Alors que Meta fonctionne à une échelle de consommation similaire, d'autres concurrents manquaient de ce conducteur interne spécifique pendant un développement matériel d'IA intégré verticalement d'une décennie.

Désormais, ces investissements TPU sont payants car ils stimulent l'efficacité non seulement pour ses propres applications, mais permettant également à Google d'offrir des Gémeaux à d'autres utilisateurs à une meilleure intelligence par dollar, tout étant égal.

Pourquoi les concurrents de Google ne peuvent-ils pas acheter de processeurs efficaces à Nvidia, demandez-vous? Il est vrai que les processeurs GPU de NVIDIA dominent la pré-formation du processus de LLMS. Mais la demande du marché a augmenté le prix de ces GPU, et Nvidia prend une baisse saine pour lui-même en tant que profit. Cela transmet des coûts importants aux utilisateurs de ses puces. Et aussi, bien que la pré-formation ait dominé jusqu'à présent l'utilisation des puces AI, cela change maintenant que les entreprises déploient réellement ces applications. C'est là que «l'inférence» entre en jeu, et ici les TPU sont considérés comme plus efficaces que les GPU pour les charges de travail à grande échelle.

Lorsque vous demandez aux dirigeants de Google d'où vient leur principal avantage technologique dans l'IA, ils retombent généralement au TPU comme le plus important. Mark Lohmeyer, le vice-président qui dirige l'infrastructure informatique de Google, était sans équivoque: les TPU sont "certainement une partie très différenciée de ce que nous faisons… Openai, ils n'ont pas ces capacités".

De manière significative, Google présente des TPU non isolés, mais dans le cadre de l'architecture d'IA d'entreprise plus large et plus complexe. Pour les initiés techniques, il est entendu que les performances de haut niveau repose sur l'intégration des percées de plus en plus spécialisées. De nombreuses mises à jour ont été détaillées à Suivant. Vahdat l'a décrit comme un «système de supercalcul», intégrant le matériel (TPUS, les derniers GPU NVIDIA comme Blackwell et Vera Rubin à venir, le stockage avancé comme Hyperdisk Exapools, n'importe où Cache et le stockage rapide) avec une pile de logiciels unifiée. Ce logiciel comprend un directeur de cluster pour la gestion des accélérateurs, des voies (Gemini's Distributed Runtime, désormais disponible pour les clients) et apportant des optimisations comme VLLM à TPUS, permettant une migration de charge de travail plus facile pour ceux précédemment sur les piles NVIDIA / PYTORCH. Ce système intégré, a soutenu Vahdat, est la raison pour laquelle Gemini 2.0 Flash obtient une intelligence 24 fois plus élevée par dollar, par rapport à GPT-4O.

Google étend également sa portée d'infrastructure physique. Cloud WAN met le réseau de fibres privés de 2 millions de milles de Google à la disposition des entreprises, promettant jusqu'à 40% de performances plus rapides et 40% de coût total de possession (TCO) par rapport aux réseaux gérés par les clients.

En outre, Google Distributed Cloud (GDC) permet aux Gemini et au matériel Nvidia (via un partenariat Dell) de fonctionner dans des environnements souverains, sur site ou même ouverts, un PDG de Nvidia, Jensen Huang, a salué "complètement gigantesque" pour avoir apporté une AI à l'état de l'état à l'art aux industries et aux nations réglementées. À Suivant, Huang a qualifié l'infrastructure de Google le meilleur au monde: "aucune entreprise n'est meilleure dans chaque couche informatique que Google et Google Cloud", a-t-il déclaré.

Pilier 3: La pile complète intégrée - Connexion des points

L'avantage stratégique de Google augmente lorsque ces modèles et composants d'infrastructure sont tissés dans une plate-forme cohérente. Contrairement aux concurrents, qui s'appuient souvent sur des partenariats pour combler les lacunes, Google contrôle presque toutes les couche, permettant une intégration plus stricte et des cycles d'innovation plus rapides.

Alors pourquoi cette intégration est-elle importante, si un concurrent comme Microsoft peut simplement s'associer à OpenAI pour correspondre à la largeur de l'infrastructure avec les prouesses du modèle LLM? Les Googlers avec lesquels j'ai parlé ont dit que cela faisait une énorme différence, et ils ont proposé des anecdotes pour le sauvegarder.

Prenez l'amélioration significative de la base de données d'entreprise de Google BigQuery. La base de données propose désormais un graphique de connaissances qui permet à LLMS de rechercher des données beaucoup plus efficacement, et elle possède désormais plus de cinq fois les clients de concurrents comme Snowflake et Databricks. Yasmeen Ahmad, responsable du produit pour l'analyse des données chez Google Cloud, a déclaré que les grandes améliorations n'étaient possibles que parce que les équipes de données de Google travaillaient en étroite collaboration avec l'équipe DeepMind. Ils ont travaillé à travers des cas d'utilisation difficiles à résoudre, ce qui a conduit à la base de données à fournir 50% de précision en plus sur les requêtes courantes, du moins selon les tests internes de Google, pour atteindre les bonnes données que les concurrents les plus proches, a déclaré Ahmad à VentureBeat dans une interview. Ahmad a déclaré que ce type d'intégration profonde à travers la pile est de savoir comment Google a "sauté" l'industrie.

Cette cohésion interne contraste fortement avec la dynamique "Frenemies" chez Microsoft. Alors que Microsoft s'associe à OpenAI pour distribuer ses modèles sur le cloud Azure, Microsoft construit également ses propres modèles. Mat Velloso, l'exécutif de Google qui dirige maintenant le programme des développeurs de l'IA, a quitté Microsoft après avoir été frustré à essayer d'aligner les plans de copilote Windows avec les offres de modèle d'Openai. "Comment partagez-vous vos plans de produits avec une autre entreprise qui est en concurrence avec vous ... le tout est une contradiction", se souvient-il. "Ici, je m'assois côte à côte avec les gens qui construisent les modèles."

Cette intégration témoigne de ce que les dirigeants de Google considèrent comme leur avantage principal: sa capacité unique à connecter une expertise approfondie à travers le spectre complet, de la recherche fondamentale et de la construction de modèles au déploiement d'applications «à l'échelle de la planète» et à la conception des infrastructures.

Vertex AI sert de système nerveux central pour les efforts de l'IA de l'entreprise de Google. Et l'intégration va au-delà des propres offres de Google. Model Garden de Vertex propose plus de 200 modèles organisés, notamment Google's, Meta's Llama 4 et de nombreuses options open-source. Vertex fournit des outils pour le réglage, l'évaluation (y compris les évals alimentés par l'IA, que Grannis a mis en évidence comme un accélérateur clé), le déploiement et la surveillance. Ses capacités de mise à la terre exploitent les bases de données internes prêtes à AI ainsi que la compatibilité avec les bases de données vectorielles externes. Ajoutez à cela les nouvelles offres de Google aux modèles au sol avec Google Search, le meilleur moteur de recherche au monde.

L'intégration s'étend à Google Workspace. De nouvelles fonctionnalités annoncées au prochain '25, comme "Aidez-moi à analyser" dans les feuilles (oui, les feuilles ont désormais une formule "= AI"), des aperçus audio dans les documents de documents et d'espace de travail, intégrer davantage les capacités de Gemini dans les flux de travail quotidiens, créant une boucle de rétroaction puissante pour que Google utilise pour améliorer l'expérience.

Tout en conduisant sa pile intégrée, Google défend également l'ouverture où il sert l'écosystème. Après avoir conduit l'adoption de Kubernetes, il fait maintenant la promotion de JAX pour les cadres d'IA et désormais des protocoles ouverts pour la communication d'agent (A2A) parallèlement à la prise en charge des normes existantes (MCP). Google propose également des centaines de connecteurs aux plates-formes externes à partir d'agents espace, qui est la nouvelle interface unifiée de Google pour que les employés puissent trouver et utiliser des agents. Ce concept de hub est convaincant. La démonstration d'agents d'agents espace (à partir de 51:40) l'illustre. Google offre aux utilisateurs des agents prédéfinis, ou des employés ou des développeurs peuvent créer leurs propres capacités d'IA sans code. Ou ils peuvent tirer des agents de l'extérieur via des connecteurs A2A. Il s'intègre dans le navigateur Chrome pour un accès transparent.

Pilier 4: Focus sur la valeur de l'entreprise et l'écosystème de l'agent

Le changement le plus important est peut-être l'accent mis par Google sur la résolution des problèmes d'entreprise en béton, en particulier à travers l'objectif des agents de l'IA. Thomas Kurian, PDG de Google Cloud, a décrit trois raisons pour lesquelles les clients choisissent Google: la plate-forme optimisée AI, l'approche multi-cloud ouverte permettant la connexion à l'informatique existante et la concentration prête à l'entreprise sur la sécurité, la souveraineté et la conformité.

Les agents sont la clé de cette stratégie. Mis à part Agentspace, cela comprend également:

  • Building Blocs: Le kit de développement des agents open source (ADK), annoncé à Next, a déjà connu un intérêt important de la part des développeurs. L'ADK simplifie la création de systèmes multi-agents, tandis que le protocole Agent2Agent (A2A) proposé vise à assurer l'interopérabilité, permettant aux agents construits avec différents outils (Gemini ADK, Langgraph, Crewai, etc.) à collaborer. Grannis de Google a déclaré que l'A2A prévoit les défis de l'échelle et de la sécurité d'un avenir avec des centaines de milliers d'agents en interaction.
  • Agents spécialement conçus: Google a présenté des agents experts intégrés dans Agentspace (comme Notebooklm, Idea Generation, Deep Research) et a mis en évidence cinq catégories clés pour gagner du terrain: les agents clients (outils d'alimentation comme Reddit Answers (Gemini Code Assist) et les agents de sécurité (intégrés dans la nouvelle plate-forme de sécurité Google Unified).

Cette stratégie d'agent complète semble résonner. Des conversations avec des dirigeants de trois autres grandes entreprises la semaine dernière, s'exprimant également de manière anonyme en raison de sensibilités compétitives, ont fait écho à cet enthousiasme pour la stratégie d'agent de Google. Google Cloud Coo Francis Desouza a confirmé dans une interview: "Chaque conversation comprend l'IA. En particulier, chaque conversation comprend des agents."

Kevin Laughridge, un cadre de Deloitte, un grand utilisateur des produits d'IA de Google, et un distributeur d'entre eux à d'autres sociétés, a décrit le marché des agents comme une "saisie des terres" où les premiers mouvements de Google avec les protocoles et sa plate-forme intégrée offrent des avantages importants. "Celui qui sort d'abord et obtient le plus d'agents qui offre réellement de la valeur - c'est qui va gagner dans cette course", a déclaré Laughridge dans une interview. Il a déclaré que les progrès de Google étaient "étonnants", notant que les agents personnalisés que Deloitte a construits il y a à peine un an pouvait désormais être reproduit "hors de la boîte" en utilisant l'espace d'agents. Deloitte lui-même construit 100 agents sur la plate-forme, ciblant des fonctions de milieu de bureau comme la finance, le risque et l'ingénierie, a-t-il déclaré.

Les points de preuve du client montent. À Suivant, Google a cité "500 plus clients plus en production" avec une IA générative, jusqu'à "dizaines de prototypes" il y a un an. Si Microsoft était perçu comme il y a un an, cela ne semble plus évidemment le cas. Compte tenu de la guerre des relations publiques de tous les côtés, il est difficile de dire qui gagne vraiment en ce moment définitivement. Les mesures varient. Le numéro 500 de Google n'est pas directement comparable aux 400 études de cas que Microsoft promeugne (et Microsoft, en réponse, a déclaré à VentureBeat au moment de la presse qu'il prévoyait de mettre à jour ce nombre public à 600 sous peu, soulignant le marketing intense). Et si la distribution de l'IA par Google via ses applications est importante, la distribution de copilote de Microsoft via son offre 365 est tout aussi impressionnante. Les deux frappent maintenant des millions de développeurs via des API.

Mais les exemples abondent de la traction de Google:

  • Wendy's: a déployé un système d'IA au volant à des milliers d'emplacements en seulement un an, améliorant l'expérience des employés et la précision des commandes. Google Cloud CTO Will Grannis a noté que le système d'IA est capable de comprendre l'argot et de filtrer le bruit de fond, réduisant considérablement le stress des interactions des clients en direct. Cela libère le personnel pour se concentrer sur la préparation et la qualité des aliments - un Shift Grannis appelé "un excellent exemple de rationalisation des opérations du monde réel".
  • Salesforce: a annoncé une expansion majeure, permettant à sa plate-forme de fonctionner sur Google Cloud pour la première fois (Beyond AWS), citant la capacité de Google à les aider à "innover et optimiser".
  • Honeywell & Intuit: les entreprises auparavant fortement associées à Microsoft et AWS, respectivement, s'associent désormais à Google Cloud sur les initiatives d'IA.
  • Major Banks (Deutsche Bank, Wells Fargo): Tire en tirant des agents et des Gémeaux pour la recherche, l'analyse et la modernisation du service client.
  • Retaillants (Walmart, Mercado Libre, Lowe's): Utilisation de la recherche, des agents et des plateformes de données.

Cette traction d'entreprise alimente la croissance globale de Google Cloud, qui a dépassé AWS et Azure pendant les trois derniers trimestres. Google Cloud a atteint un taux d'exécution annualisé de 44 milliards de dollars en 2024, contre seulement 5 milliards de dollars en 2018.

Naviguer dans les eaux compétitives

L'ascension de Google ne signifie pas que les concurrents restent immobiles. Les versions rapides d'Openai cette semaine de GPT-4.1 (axées sur le codage et le contexte long) et la série O (raisonnement multimodal, utilisation des outils) démontrent l'innovation continue d'Openai. De plus, la nouvelle mise à jour de la génération d'images d'Openai dans GPT-4O a alimenté une croissance massive au cours du dernier mois, aidant Chatgpt à atteindre 800 millions d'utilisateurs. Microsoft continue de tirer parti de sa vaste empreinte d'entreprise et de sa grande empreinte d'entreprise, tandis que Anthropic reste un concurrent solide, en particulier dans les applications codantes et soucieuses de la sécurité.

Cependant, il est incontestable que le récit de Google s'est considérablement amélioré. Il y a à peine un an, Google a été considéré comme un concurrent stodgy, halting et béant qui était peut-être sur le point de faire exploser sa chance de diriger l'IA. Au lieu de cela, sa pile intégrée unique et sa fermeté des entreprises ont révélé autre chose: Google possède des capacités de classe mondiale dans l'ensemble du spectre - de la conception des puces (TPU) et de l'infrastructure mondiale à la recherche de modèle fondamentale (DeepMind), à un développement d'applications (espace de travail, à la recherche, à l'espace YouTube) et à des services de nuage d'entreprise (Vertex Ai, Bigquery, Agentspace). "Nous sommes le seul hyperscaleur qui se trouve dans la conversation du modèle fondamental", a déclaré Deouza catégoriquement. Cette propriété de bout en bout permet des optimisations (comme «intelligence par dollar») et une profondeur d'intégration que les modèles de partenariat sont luttent pour correspondre. Les concurrents ont souvent besoin de coudre des pièces disparates, de créer potentiellement des frictions ou de limiter la vitesse d'innovation.

Le moment de Google est maintenant

Bien que la course d'IA reste dynamique, Google a assemblé toutes ces pièces au moment précis que le marché leur exige. Comme l'a dit Laughridge de Deloitte, Google a atteint un point où ses capacités s'alignaient parfaitement "où le marché le demandait". Si vous attendiez que Google fait ses preuves dans l'Enterprise IA, vous avez peut-être manqué le moment - il l'a déjà fait. La société qui a inventé bon nombre des technologies de base alimentant cette révolution semble avoir finalement rattrapé - et plus que cela, elle donne maintenant le rythme que les concurrents doivent égaler.

Dans la vidéo ci-dessous, enregistrée juste après, l'expert en IA Sam Witteveen et moi décomposons le paysage actuel et les tendances émergentes, et pourquoi l'écosystème de l'IA de Google est si fort:

Article connexe
MCP通過工具和數據標準化AI連接:出現了新協議 MCP通過工具和數據標準化AI連接:出現了新協議 如果您正在潛入人工智能(AI)世界,那麼您可能會注意到,獲得不同的AI模型,數據源和工具可以很好地播放,這是多麼重要。這就是模型上下文協議(MCP)所在的地方,它是標準化AI連接性的遊戲改變者。 t
虛擬地探索地球:Chatgpt和Google Earth度假計劃者 虛擬地探索地球:Chatgpt和Google Earth度假計劃者 曾經有過逃避日常磨碎的衝動,但發現自己在去哪裡陷入困境?讓我們深入研究一個很酷的方法,以計劃下一個度假勝地,而無需踏出門外。通過利用Chatgpt和Google Earth的力量,您可以踏上一個既令人興奮又相關的虛擬假期
Chatgpt主意使用用戶名在某些人中引發了“令人毛骨悚然”的問題 Chatgpt主意使用用戶名在某些人中引發了“令人毛骨悚然”的問題 Chatgpt的一些用戶最近遇到了一個奇怪的新功能:聊天機器人偶爾在解決問題時使用他們的名字。這不是以前其通常行為的一部分,許多用戶報告Chatgpt提到了他們的名字,而沒有被告知該怎麼稱呼。意見
Commentaires (10)
0/200
JeffreyHarris
JeffreyHarris 20 avril 2025 10:35:09 UTC

Google's sneaky move into enterprise AI is pretty cool. From playing catch-up to leading the pack, they've really turned things around. The tech is solid but the interface could be more user-friendly. Still, it's impressive how fast they've moved! 🚀

WillieJones
WillieJones 22 avril 2025 00:13:31 UTC

グーグルのエンタープライズAIへの静かな進出はかなりクールですね。追いつくことからリードするまで、本当に状況を変えました。技術はしっかりしていますが、インターフェースがもう少しユーザーフレンドリーだといいですね。それでも、進むスピードが印象的です!🚀

WillBaker
WillBaker 22 avril 2025 05:12:49 UTC

구글이 기업용 AI로 몰래 진출한 것이 꽤 멋지네요. 따라잡기에서 선두로 나아가 정말 상황을 바꿨어요. 기술은 훌륭하지만 인터페이스가 좀 더 사용자 친화적이면 좋겠어요. 그래도 이렇게 빠르게 움직인 것이 인상적이에요! 🚀

CharlesMartinez
CharlesMartinez 22 avril 2025 06:10:16 UTC

A jogada furtiva do Google no AI empresarial é bem legal. De tentar alcançar a liderar o grupo, eles realmente mudaram as coisas. A tecnologia é sólida, mas a interface poderia ser mais amigável ao usuário. Ainda assim, é impressionante como eles se moveram rápido! 🚀

JasonRoberts
JasonRoberts 22 avril 2025 07:22:36 UTC

El movimiento sigiloso de Google en la IA empresarial es bastante genial. De ir a la zaga a liderar el grupo, realmente han dado la vuelta a la situación. La tecnología es sólida pero la interfaz podría ser más amigable para el usuario. Aún así, es impresionante lo rápido que se han movido! 🚀

FredAnderson
FredAnderson 22 avril 2025 15:53:12 UTC

Google's move into enterprise AI is impressive. From playing catch-up to leading the pack, they've really stepped up their game. But the interface could use some work; it's a bit clunky. Still, I'm excited to see where they go from here! 🚀

Back to Top
OR