Google übertrifft heimlich in Enterprise AI: Von 'Aufhole', um uns zu fangen
20. April 2025
EricMartin
5
Noch vor einem Jahr schien die Summen um Google und Enterprise KI neutral zu stecken. Trotz der Pioniertechnologien wie dem Transformator schien der Tech -Riese zurückzublieben, in den Schein der viralen Erfolg von OpenAI, den kodierenden Fähigkeiten des Anthropics und des aggressiven Vorstoßes von Microsoft in den Enterprise -Markt.
Aber schneller zur letzten Woche bei Google Cloud nächst 2025 in Las Vegas, und die Szene war deutlich anders. Ein selbstbewusster Google, der mit hochwertigen Modellen, robuster Infrastruktur und einer klaren Unternehmensstrategie ausgestattet war, kündigte eine dramatische Turnaround an. In einem Analyst mit geschlossenen Türen mit hochrangigen Google-Führungskräften verkapulierte ein Analyst die Stimmung: "Dies fühlt sich an, als Google von 'Catch Up' zu 'Catch uns' geworden ist."
Googles Sprung nach vorne
Dieses Gefühl - dass Google nicht nur eingeholt, sondern vor Openai und Microsoft im Enterprise AI -Rennen gestiegen ist - war während der gesamten Veranstaltung tastbar. Und es ist nicht nur Marketing -Hype. Im vergangenen Jahr hat sich Google intensiv auf die Ausführung konzentriert und seine technologischen Fähigkeiten in eine leistungsstarke, integrierte Plattform umgewandelt, die sich schnell über die Entscheidungsträger der Unternehmenswerte einsetzt. Von den mächtigsten KI-Modellen der Welt, die mit hocheffizientem kundenspezifischem Silizium betrieben werden, bis hin zu einem aufkeimenden Ökosystem von AI-Agenten, die auf reale geschäftliche Herausforderungen zugeschnitten sind, macht Google einen starken Fall, dass es nie wirklich verloren hat, sondern sich einer Zeit tiefe, grundlegende Entwicklung unterzogen hat.
Mit seinem integrierten Stack, der jetzt mit voller Kapazität arbeitet, scheint Google die nächste Phase der Enterprise AI -Revolution zu leiten. In meinen Interviews mit Google -Führungskräften im nächsten Mal betonten sie die einzigartigen Vorteile von Google in Bezug auf Infrastruktur und Modellintegration - Anwälte, die Konkurrenten wie OpenAI, Microsoft oder AWS herausfordern würden, um sich zu replizieren.
Der Schatten des Zweifels: Anerkennung der jüngsten Vergangenheit
Um die aktuelle Dynamik von Google voll und ganz zu schätzen, ist es wichtig, die jüngste Vergangenheit anzuerkennen. Google erfand die Transformer-Architektur, löste die moderne Revolution in großen Sprachmodellen (LLMs) aus und investierte vor einem Jahrzehnt, was jetzt die branchenführende Effizienz fördert. Trotzdem war Google unerklärlicherweise vor nur zweieinhalb Jahren eine Verteidigung.
OpenAIs Chatgpt hat das Interesse der Öffentlichkeit in atemberaubendem Tempo geweckt und wurde zur am schnellsten wachsenden App der Geschichte. Konkurrenten wie anthropische Nischen in Bereichen wie Codierung. In der Zwischenzeit schienen die öffentlichen Bewegungen von Google oft vorläufig oder fehlerhaft zu sein. Die berüchtigte Bard -Demo im Jahr 2023 und die Kontroverse über den Bildgenerator, der historisch ungenaue Darstellungen erzeugt, fütterte eine Erzählung eines Unternehmens, das möglicherweise durch die interne Bürokratie oder Überkorrektur bei der Ausrichtung behindert wird. Google schien verloren und wiederholte seine anfängliche Langsamkeit im Cloud -Wettbewerb, wo es hinter Amazon und Microsoft dritter wurde.
Der Drehpunkt: Eine bewusste Entscheidung, zu führen
Hinter den Kulissen trat jedoch eine signifikante Verschiebung auf, die von einer absichtlichen Entscheidung auf höchstem Niveau zur Rückforderung der Führung getrieben wurde. Mat Velloso, VP von Produkt für die KI -Entwicklerplattform von Google DeepMind, spürte diesen entscheidenden Moment, als er im Februar 2024 zu Google kam, nachdem er Microsoft verlassen hatte. "Als ich zu Google kam, sprach ich mit Sundar [Pichai], ich sprach mit mehreren Führungskräften hier und ich hatte das Gefühl, dass dies der Moment war, in dem sie entschieden haben, okay, diese [generative KI] ist eine Sache, die die Branche eindeutig interessiert.
Dieser erneute Druck wurde nicht durch den befürchteten "Brain Drain" behindert, von dem einige Außenstehende glaubten, Google zu erschöpfen. Stattdessen verdoppelte das Unternehmen Anfang 2024 die Ausführung, gekennzeichnet durch aggressive Einstellung, interne Vereinigung und Kundentraktion. Während die Konkurrenten spritzige Einstellungen einnahmen, behielt Google seine KI -Führung der KI, darunter DeepMind -CEO Demis Hassabis und Google Cloud -CEO Thomas Kurian, die Stabilität und tiefe Fachkenntnisse bieten.
Darüber hinaus flossen Talent in Richtung der fokussierten Mission von Google. Logan Kilpatrick kehrte beispielsweise von OpenAI nach Google zurück, das von der Gelegenheit gezogen wurde, die Grundlagen im Unternehmen aufzubauen. Er schloss sich Velloso an, was er als "Null -zu -Ein -Erfahrung" bezeichnete, der die Aufgabe hat, die Entwickler -Traktion für Gemini von Grund auf zu bauen. "Es war, als wäre das Team am ersten Tag ... wir haben tatsächlich keine Benutzer auf dieser Plattform, wir haben keine Einnahmen. Niemand interessiert sich für Gemini", erinnerte sich Kilpatrick an den Ausgangspunkt. Führungskräfte wie Josh Woodward, die beim Start von AI Studio geholfen haben und jetzt die Gemini-App und die Labors leitet, und Noam SHAZEER, ein wichtiger Co-Autor des ursprünglichen "Aufmerksamkeits ist alles, was Sie brauchen" Transformatorpapier, kehrte Ende 2024 als technischer Co-Lead für das wichtige Gemini-Projekt an das Unternehmen zurück.
Säule 1: Gemini 2.5 und die Ära der Denkmodelle
Während sich das Enterprise-Mantra auf "Es geht nicht nur um das Modell" verlagert hat, bleibt die am besten leistungsstarke LLM eine bedeutende Leistung und ein leistungsstarker Validator der überlegenen Forschung und der effizienten Technologiearchitektur eines Unternehmens. Mit der Veröffentlichung von Gemini 2.5 Pro, nur wenige Wochen vor dem nächsten Jahr 25, behauptete Google diesen Mantel entscheidend. Es stellte schnell die unabhängige Chatbot Arena-Rangliste an und übertriffte die neueste GPT-4O-Variante von OpenAI erheblich und war notorisch schwierige Benchmarks wie die letzte Prüfung der Humanity's Last. Wie Pichai in der Keynote sagte: "Es ist unser intelligentestes KI -Modell aller Zeiten. Und es ist das beste Modell der Welt." Das Modell hatte innerhalb eines Monats eine Erhöhung der Zwischendoage von Gemini um 80 Prozent getrieben, twitterte er separat.
Zum ersten Mal stand die Nachfrage nach Gemini in Flammen. Was mich neben der rohen Intelligenz von Gemini 2.5 Pro beeindruckte, war das nachweisbare Denken. Google hat eine "Denken" -Capabilität entwickelt und es dem Modell ermöglicht, mehrstufige Argumentation, Planung und sogar Selbstreflexion durchzuführen, bevor eine Antwort fertiggestellt wird. Die strukturierte, kohärente Kette des Gedankens (COT)-mit nummerierten Schritten und Unterkehlchen-vermeidet die weitläufige oder undurchsichtige Natur von Ausgaben anderer Modelle aus Deepseek oder OpenAI. Für technische Teams, die Ausgaben für kritische Aufgaben bewerten, ermöglicht diese Transparenz Validierung, Korrektur und Umleitung mit beispielloses Vertrauen.
Aber was noch wichtiger für Unternehmensnutzer ist, schloss Gemini 2.5 Pro auch die Codierungslücke dramatisch, was einer der größten Anwendungsbereiche für generative KI ist. In einem Interview mit VentureBeat sagte CTO Fiona Tan des führenden Einzelhändlers Wayfair, dass das Unternehmen nach den ersten Tests feststellte, dass es "ziemlich viel" aufgetreten sei und jetzt "ziemlich vergleichbar" mit dem Claude 3.7 -Sonett von Anthropic war, zuvor die bevorzugte Wahl für viele Entwickler.
Google fügte dem Modell auch ein großes Token -Kontextfenster von 1 Million hinzu und ermöglichte die Argumentation in ganzen Codebasen oder eine lange Dokumentation, die die Fähigkeiten der Modelle von OpenAI oder Anthropen weit überschreitet. (OpenAI reagierte diese Woche mit Modellen mit ähnlich großen Kontextfenstern, obwohl Benchmarks darauf hindeuten, dass Gemini 2.5 Pro einen Vorsprung im Gesamt argumentiert.) Dieser Vorteil ermöglicht komplexe, multi-file-Software-Engineering-Aufgaben.
Das Ergänzung von Pro I ist Gemini 2.5 Flash, angekündigt am nächsten '25 und erst gestern veröffentlicht. Auch ein "Denken" -Modell ist Flash für niedrige Latenz und Kosteneffizienz optimiert. Sie können steuern, wie viel die Modellgründe und die Ausgleich der Leistung mit Ihrem Budget. Dieser abgestufte Ansatz spiegelt die Strategie "Intelligenz pro Dollar" von Google -Führungskräften weiter wider.
Velloso zeigte ein Diagramm, in dem zeigt, dass Google -Modelle im gesamten Intelligenzspektrum den besten Wert bieten. "Wenn wir vor einem Jahr dieses Gespräch hätten ... hätte ich nichts zu zeigen", gab Velloso zu und hob den schnellen Turnaround hervor. "Und jetzt, wie auf der ganzen Linie, sind wir, wenn Sie nach einem Modell suchen, welche Größe, wenn Sie nicht Google sind, verlieren Sie Geld." Ähnliche Diagramme wurden aktualisiert, um die neuesten Modellveröffentlichungen von OpenAI in dieser Woche zu berücksichtigen. Alle zeigen dasselbe: Die Modelle von Google bieten die beste Intelligenz pro Dollar. Siehe unten:

Wayfairs Tan beobachtete auch vielversprechende Latenzverbesserungen mit 2,5 Pro: "Gemini 2.5 kam schneller zurück" und machte es für "mehr kundenorientierte Funktionen", sagte sie, etwas, das sie sagte, es sei mit anderen Modellen noch nicht der Fall gewesen. Gemini könnte das erste Modell sein, das Wayfair für diese Kundeninteraktionen verwendet, sagte sie.
Die Funktionen der Gemini-Familie erstrecken sich auf Multimodalität und integrieren nahtlos in die anderen führenden Modelle von Google wie Imaging 3 (Bildgenerierung), VEO 2 (Videogenerierung), Chirp 3 (Audio) und die neu angekündigte Lyria (Text-to-Music), die über die Plattform von Google für Enterprise-Benutzer, Vertex, zugänglich sind. Google ist das einzige Unternehmen, das seine eigenen generativen Medienmodelle in allen Modalitäten auf seiner Plattform anbietet. Microsoft, AWS und OpenAI müssen mit anderen Unternehmen zusammenarbeiten, um dies zu tun.
Säule 2: Infrastruktur - der Motor unter der Motorhaube
Die Fähigkeit, diese leistungsstarken Modelle schnell zu iterieren und effizient zu bedienen, beruht auf der wohl beispiellosen Infrastruktur von Google, die über Jahrzehnte nach laufenden Diensten im Planetenmaßstab geschliffen hat. Darüber hinaus ist die TPU (Tensor Processing Unit).
Am nächsten '25 enthüllte Google Ironwood, seine TPU der siebten Generation, ausdrücklich auf die Anforderungen von Inferenz und "Denkmodellen". Die Skala ist immens und ist auf anspruchsvolle KI-Workloads zugeschnitten: Ironwood Pods Pack über 9.000 flüssigkeitsgekühlte Chips und liefert eine beanspruchte 42,5 Exaflops Rechenleistung. Der VP von Google von ML Systems Amin Vahdat sagte auf der Bühne, dass dies "mehr als 24 Mal" die Rechenleistung des aktuellen Supercomputers der Welt ist.
Google erklärte, dass Ironwood 2x Perf/Watt im Vergleich zu Trillium, der vorherigen Generation von TPU, anbietet. Dies ist von Bedeutung, da Unternehmenskunden zunehmend sagen, dass Energiekosten und Verfügbarkeit großflächige KI-Bereitstellungen einschränken.
Google Cloud CTO wird Grannis die Konsistenz dieses Fortschritts betonen. Jahr über Jahr macht Google 10x, 8x, 9x und 10x Verbesserungen in seinen Prozessoren, sagte er VentureBeat in einem Interview mit und schuf das, was er als "Hyper Moores Gesetz" für KI -Beschleuniger bezeichnete. Er sagte, dass Kunden die Roadmap von Google kaufen, nicht nur der Technologie.
Die Position von Google hat diese anhaltende TPU -Investition angeheizt. Es muss massive Dienste wie Suche, YouTube und Google Mail für mehr als 2 Milliarden Benutzer effizient anführen. Dies erforderte die Entwicklung einer benutzerdefinierten, optimierten Hardware lange vor dem aktuellen generativen KI -Boom. Während Meta in einem ähnlichen Verbrauchermaßstab arbeitet, fehlten anderen Wettbewerbern dieser spezifische interne Treiber für jahrzehntelange, vertikal integrierte KI-Hardwareentwicklung.
Jetzt zahlen diese TPU -Investitionen aus, weil sie die Effizienz nicht nur für seine eigenen Apps steigern, sondern auch Google ermöglicht, anderen Benutzern mit einer besseren Intelligenz pro Dollar Gemini anzubieten, was alles gleich ist.
Warum können die Wettbewerber von Google keine effizienten Prozessoren bei Nvidia kaufen, fragen Sie? Es ist wahr, dass die GPU-Prozessoren von NVIDIA den Prozess vor dem Training von LLMs dominieren. Die Marktnachfrage hat jedoch den Preis dieser GPUs erhöht, und Nvidia nimmt einen gesunden Kürzung für sich als Gewinn. Dies gilt an den Nutzern seiner Chips erhebliche Kosten. Während die Voraussetzung die Verwendung von AI-Chips bisher dominiert hat, ändert sich dies jetzt, da Unternehmen diese Anwendungen tatsächlich bereitstellen. Hier kommt "Inferenz" ins Spiel, und hier gelten TPUs als effizienter als GPUs für Workloads in Maßstab.
Wenn Sie Google -Führungskräfte fragen, woher deren Haupttechnologievorteil in AI stammt, fallen sie normalerweise als das wichtigste auf die TPU zurück. Mark Lohmeyer, der VP, der die Computerinfrastruktur von Google ausführt, war eindeutig: TPUs sind "sicherlich ein sehr differenzierter Teil dessen, was wir tun ... Openai, sie haben diese Fähigkeiten nicht."
Bezeichnenderweise präsentiert Google TPUs nicht isoliert, sondern als Teil der breiteren, komplexeren Unternehmensarchitektur. Für technische Insider wird davon ausgegangen, dass die erstklassige Leistung auf der Integration immer spezialisierter Technologie-Durchbrüche abhängt. Viele Updates wurden am nächsten detailliert. Vahdat beschrieb dies als ein "Supercomputing -System", das Hardware (TPUS, den neuesten NVIDIA -GPUs wie Blackwell und den kommenden Vera Rubin, den erweiterten Speicher wie Hyperdisk Exapools, überall Cache und Rapid Storage) mit einem einheitlichen Software -Stapel integrieren. Diese Software umfasst Cluster Director für die Verwaltung von Beschleunigern, Pathways (die verteilte Laufzeit von Gemini, die jetzt Kunden zur Verfügung steht), und die Optimierungen wie VllM in TPUs zu bringen, sodass die Arbeitsbelastungswanderung für die zuvor auf NVIDIA/PyTorch -Stapeln eine einfachere Migration für die Arbeitsbelastung ermöglicht. Dieses integrierte System, argumentierte Vahdat, ist der Grund, warum Gemini 2.0 Flash im Vergleich zu GPT-4O eine 24-mal höhere Intelligenz pro Dollar erreicht.
Google erweitert auch die Reichweite der physischen Infrastruktur. Cloud Wan stellt das private Fasernetz von Google 2 Millionen Meilen für Unternehmen zur Verfügung und verspricht im Vergleich zu kundenführenden Netzwerken eine schnellere Leistung von bis zu 40% und 40% niedrigere Gesamtbetriebskosten (TCO).
Darüber hinaus ermöglicht Google Distributed Cloud (GDC) mit Gemini und Nvidia-Hardware (über eine Dell-Partnerschaft) in souveränen, vorhandenen oder sogar luftgeklappten Umgebungen-ein Capability-CEO Jensen Huang als "völlig gigantisch", um hochmoderne Industrie und nationale Industrie und Nation zu bringen. Am nächsten Mal bezeichnete Huang die Infrastruktur von Google als das Beste der Welt: "Kein Unternehmen ist in jeder einzelnen Computerebene besser als Google und Google Cloud", sagte er.
Säule 3: Der integrierte Vollstapel - Verbinden der Punkte
Der strategische Vorteil von Google wächst bei der Überlegung, wie diese Modelle und Infrastrukturkomponenten in eine zusammenhängende Plattform eingebunden werden. Im Gegensatz zu Wettbewerbern, die häufig auf Partnerschaften angewiesen sind, um Lücken zu überbrücken, kontrolliert Google fast jede Schicht und ermöglicht eine engere Integration und schnellere Innovationszyklen.
Warum ist diese Integration von Bedeutung, wenn ein Konkurrent wie Microsoft einfach mit OpenAI zusammenarbeiten kann, um die Infrastrukturbreite mit dem LLM -Modell zu erreichen? Die Googlers, mit denen ich gesprochen habe, sagten, es macht einen großen Unterschied und sie haben Anekdoten entwickelt, um es zu sichern.
Nehmen Sie die erhebliche Verbesserung der Enterprise Database BigQuery von Google. Die Datenbank bietet nun ein Wissensgraphen, mit dem LLMs viel effizienter über Daten suchen können, und bietet jetzt mehr als das Fünffache der Kunden von Konkurrenten wie Snowflake und Databricks. Yasmeen Ahmad, Produktleiter für Datenanalysen bei Google Cloud, sagte, die enormen Verbesserungen seien nur möglich, da die Datenteams von Google eng mit dem DeepMind -Team zusammenarbeiteten. Sie arbeiteten an Anwendungsfällen, die schwer zu lösen waren, und dies führte dazu, dass die Datenbank 50 Prozent mehr Genauigkeit basierend auf gemeinsamen Abfragen lieferte, zumindest gemäß den internen Tests von Google, um die richtigen Daten zu erreichen als die nächsten Konkurrenten, sagte Ahmad VentureBeat in einem Interview mit. Ahmad sagte, diese Art von tiefe Integration über den Stapel sei, wie Google die Branche "übersprungen" habe.
Dieser interne Zusammenhalt stellt sich stark mit der Dynamik der "Frenemies" bei Microsoft ab. Während Microsoft mit OpenAI zusammenarbeitet, um seine Modelle auf der Azure -Cloud zu verteilen, baut Microsoft auch eigene Modelle auf. Mat Velloso, der Google -Manager, der jetzt das KI -Entwicklerprogramm leitet, verließ Microsoft, nachdem er frustriert war, Windows Copilot -Pläne mit den Modellangeboten von OpenAI auszurichten. "Wie teilen Sie Ihre Produktpläne mit einem anderen Unternehmen, das tatsächlich mit Ihnen konkurriert? Das Ganze ist ein Widerspruch", erinnerte er sich. "Hier sitze ich neben den Menschen, die die Modelle bauen."
Diese Integration spricht für das, was Google Leaders als Kernvorteil ansieht: seine einzigartige Fähigkeit, tiefes Fachwissen über das gesamte Spektrum hinweg zu verbinden, von der Grundlagenforschung und des Modells auf dem Modell auf "Planet-Scale" -Anwendungsanwendungen und Infrastrukturdesign.
Die Vertex AI dient als Zentralnervensystem für die Bemühungen von Enterprise AI von Google. Und die Integration geht über die eigenen Angebote von nur Google hinaus. Das Model Garden von Vertex bietet über 200 kuratierte Modelle, darunter Google's, Lama 4 von Meta und zahlreiche Open-Source-Optionen. Vertex bietet Werkzeuge für das Tuning, die Bewertung (einschließlich AI-betriebener Evals, die Grannis als Schlüsselbeschleuniger hervorgehoben hat), die Bereitstellung und die Überwachung. Die Erdungsfunktionen nutzen interne KI-fähige Datenbanken sowie Kompatibilität mit externen Vektordatenbanken. Fügen Sie den neuen Angeboten von Google zu Bodenmodellen mit Google Search hinzu, der weltbesten Suchmaschine.
Die Integration erstreckt sich auf Google Workspace. Neue Funktionen, die beim nächsten '25 angekündigt wurden, wie "Hilf mir Analyse" in Blättern (ja, die Blätter haben jetzt eine "= ai" -Formel), Audioübersichten in Dokumenten und Arbeitsbereiche, die die Funktionen von Gemini in tägliche Workflows einbetten und einen leistungsstarken Feedback -Loop für Google erstellen, um die Erfahrung zu verbessern.
Während der Fahrt mit seinem integrierten Stack die Offenheit der Offenheit, wo es dem Ökosystem dient. Nachdem sie Kubernetes -Einführung angetrieben hat, fördert es jetzt JAX für AI -Frameworks und öffnet jetzt Protokolle für die Agentenkommunikation (A2A) sowie die Unterstützung für bestehende Standards (MCP). Google bietet außerdem Hunderte von Anschlüssen für externe Plattformen innerhalb von AgentSpace an, nämlich die neue Unified -Schnittstelle von Google für Mitarbeiter, um Agenten zu finden und zu verwenden. Dieses Hub -Konzept ist überzeugend. Die Keynote -Demonstration von Agentspace (ab 51:40) zeigt dies. Google bietet Benutzern vorgefertigte Agenten oder Mitarbeiter oder Entwickler können ihre eigenen mithilfe von KI-Funktionen mit No-Code erstellen. Oder sie können Agenten von außen über A2A -Anschlüsse einziehen. Es integriert sich in den Chrombrowser für nahtlosen Zugriff.
Säule 4: Konzentrieren Sie sich auf den Unternehmenswert und das Agent -Ökosystem
Die vielleicht bedeutendste Verschiebung ist die geschärfte Fokussierung von Google auf die Lösung konkreter Unternehmensprobleme, insbesondere durch die Linse von AI -Agenten. Thomas Kurian, CEO von Google Cloud, skizzierte drei Gründe, warum Kunden Google wählen: die AI-optimierte Plattform, den offenen Multi-Cloud-Ansatz, der die Verbindung zu den vorhandenen ITs ermöglicht, und den Fokussierung auf Sicherheit, Souveränität und Compliance.
Agenten sind der Schlüssel zu dieser Strategie. Abgesehen von Agentspace umfasst dies auch:
- Bausteine: Das Open-Source Agent Development Kit (ADK), das auf dem nächsten Mal angekündigt wurde, hat bereits wesentliches Interesse von Entwicklern gesehen. Der ADK vereinfacht das Erstellen von Multi-Agent-Systemen, während das vorgeschlagene Protokoll von Agent2Agent (A2A) darauf abzielt, die Interoperabilität zu gewährleisten und Agenten, die mit unterschiedlichen Werkzeugen (Gemini ADK, Langgraph, Crewai usw.) aufgebaut wurden, sicherzustellen, zusammenzuarbeiten. Laut Grannis von Google geht A2A mit potenziell Hunderttausenden von wechselwirkenden Wirkstoffen die Ausmaß und Sicherheitsherausforderungen einer Zukunft vor.
- Purpose-built Agents: Google showcased expert agents integrated into Agentspace (like NotebookLM, Idea Generation, Deep Research) and highlighted five key categories gaining traction: Customer Agents (powering tools like Reddit Answers, Verizon's support assistant, Wendy's drive-thru), Creative Agents (used by WPP, Brandtech, Sphere), Data Agents (driving insights at Mattel, Spotify, Bayer), Coding Agenten (Gemini Code Assist) und Sicherheitsagenten (in die neue Google Unified Security Platform integriert).
Diese umfassende Agentenstrategie scheint Resonanz zu sein. Gespräche mit Führungskräften bei drei anderen großen Unternehmen in der vergangenen Woche, die auch aufgrund wettbewerbsfähiger Sensibilitäten sprachen, wiederholten diese Begeisterung für die Agent -Strategie von Google. In einem Interview bestätigte Google Cloud Coo Francis Desouza: "Jedes Gespräch beinhaltet KI. Insbesondere enthält jedes Gespräch Agenten."
Kevin Laugridge, Executive bei Deloitte, ein großer Benutzer von Googles AI -Produkten, und ein Distributor von ihnen an andere Unternehmen, beschrieb den Agentenmarkt als "Landgreifer", bei dem Googles frühe Bewegungen mit Protokollen und seiner integrierten Plattform erhebliche Vorteile bieten. "Wer zuerst rauskommt und die meisten Agenten bekommt, die tatsächlich Wert liefern - wer in diesem Rennen gewinnen wird", sagte Laughridge in einem Interview. Er sagte, Googles Fortschritt sei "erstaunlich" und bemerkte, dass die benutzerdefinierten Agenten, die Deloitte erst vor einem Jahr gebaut hat, jetzt mit Agentspace "aus der Schachtel" repliziert werden könne. Deloitte selbst baut 100 Agenten auf der Plattform auf und zielt auf Mid-Office-Funktionen wie Finanzen, Risiko und Engineering ab, sagte er.
Die kundenspezifischen Punkte sind zunehmend. Bei der nächsten zitierte Google "500 Plus -Kunden in der Produktion" mit generativer KI, von nur "Dutzenden von Prototypen" vor einem Jahr. Wenn Microsoft vor einem Jahr als weit vorne wahrgenommen wurde, scheint das nicht mehr so offensichtlich der Fall zu sein. Angesichts des PR -Krieges aller Seiten ist es schwierig zu sagen, wer im Moment wirklich definitiv gewinnt. Metriken variieren. Die 500 -Nummer von Google ist nicht direkt mit den 400 Fallstudien Microsoft -Förderung vergleichbar (und Microsoft als Antwort sagte VentureBeat zum Zeitpunkt des Drucks mit, dass diese öffentliche Anzahl in Kürze auf 600 aktualisiert und das intensive Marketing unterstreicht). Und wenn die Verteilung von KI durch Google über seine Apps erheblich ist, ist die Copilot -Verteilung von Microsoft durch sein 365 -Angebot ebenso beeindruckend. Beide schlagen jetzt Millionen von Entwicklern durch APIs.
Es gibt jedoch viele Beispiele für die Traktion von Google:
- Wendy's: Eingesetzt ein KI-Drive-Thru-System in nur einem Jahr an Tausenden von Standorten, um die Erfahrung der Mitarbeiter und Bestellgenauigkeit zu verbessern. Google Cloud CTO wird Grannis feststellen, dass das KI -System in der Lage ist, Slang zu verstehen und Hintergrundgeräusche herauszufiltern, wodurch der Stress der Live -Kundeninteraktionen erheblich verringert wird. Das fördert die Mitarbeiter, sich auf die Zubereitung und Qualität von Lebensmitteln zu konzentrieren-eine Schicht, die Grannis namens "ein großartiges Beispiel für die operative AI-operierte Operationen" namens ".
- Salesforce: kündigte eine große Expansion an, sodass seine Plattform erstmals auf Google Cloud ausführen kann (Beyond AWS), wobei die Fähigkeit von Google dazu beigetragen hat, "innovieren und optimieren" zu werden.
- Honeywell & Intuit: Unternehmen, die bisher stark mit Microsoft bzw. AWS verbunden sind, arbeiten jetzt mit Google Cloud zu AI -Initiativen zusammen.
- Große Banken (Deutsche Bank, Wells Fargo): Nutzung von Agenten und Gemini für Forschung, Analyse und Modernisierung des Kundendienstes.
- Einzelhändler (Walmart, Mercado Libre, Lowe): Verwenden von Such-, Agenten und Datenplattformen.
Diese Unternehmenstraktion fördert das Gesamtwachstum von Google Cloud, das AWS und Azure in den letzten drei Quartalen übertroffen hat. Google Cloud erreichte 2024 einen jährlichen Laufpreis von 44 Milliarden US -Dollar, gegenüber nur 5 Milliarden US -Dollar im Jahr 2018.
Navigieren in den Wettbewerbsgewässern
Der Aufstieg von Google bedeutet nicht, dass Konkurrenten still stehen. OpenAIs schnelle Veröffentlichungen in dieser Woche von GPT-4.1 (konzentriert sich auf Codierung und langer Kontext) und die O-Serie (Multimodal Argumenting, Tools Use) zeigen die anhaltende Innovation von OpenAI. Darüber hinaus hat das neue Bildgenerierungsfunktion von OpenAI in GPT-4O im letzten Monat ein massives Wachstum angeheizt und Chatgpt 800 Millionen Nutzer erreichen. Microsoft nutzt weiterhin seine umfangreiche Partnerschaft mit Unternehmen und OpenAI, während anthropisch ein starker Anwärter bleibt, insbesondere bei kodierenden und sicherheitsbewussten Anwendungen.
Es ist jedoch unbestreitbar, dass sich die Erzählung von Google bemerkenswert verbessert hat. Noch vor einem Jahr wurde Google als schwindelerregender, angehender, fehlerhafter Konkurrent angesehen, der vielleicht überhaupt seine Chance auf die Führung von KI ausüben wollte. Stattdessen haben seine einzigartige, integrierte Stapel- und Unternehmensbeständigkeit noch etwas anderes enthüllt: Google besitzt Weltklasse-Fähigkeiten im gesamten Spektrum-von Chip Design (TPUs) und globaler Infrastruktur bis hin zu Grundmodellforschung (DeepMind), Anwendungsentwicklung (Workspace, Search, YouTube) und Enterprise Cloud Services (Vertex-Dienste (Vertex). "Wir sind der einzige Hyperscaler, der sich im grundlegenden Modellgespräch befindet", erklärte Desouza rundheraus. Dieser End-to-End-Eigentum ermöglicht Optimierungen (wie "Intelligenz pro Dollar") und die Integrationstiefe, die die Partnerschaftsmodelle zustimmen. Wettbewerber müssen häufig unterschiedliche Stücke zusammenfügen, um möglicherweise Reibung zu schaffen oder die Innovationsgeschwindigkeit zu begrenzen.
Der Moment von Google ist jetzt
Während das KI -Rennen dynamisch bleibt, hat Google all diese Stücke in dem Moment zusammengestellt, in dem der Markt sie erfordert. Wie Deloitte's Laugridge es ausdrückte, erreichte Google einen Punkt, an dem seine Fähigkeiten perfekt ausgerichtet waren, "wo der Markt ihn verlangte". Wenn Sie darauf gewartet haben, dass Google sich in Enterprise AI beweist, haben Sie möglicherweise den Moment verpasst - es hat bereits. Das Unternehmen, das viele der Kerntechnologien erfunden hat, die diese Revolution mit Strom versorgen, scheint endlich eingeholt zu haben - und darüber hinaus setzt es jetzt das Tempo, das die Konkurrenten anpassen müssen.
Im Video unten, kurz nach dem nächsten Mal aufgezeichnet, brechen der KI -Experte Sam Witteeen und ich die aktuelle Landschaft und die aufkommenden Trends auf und warum sich das AI -Ökosystem von Google so stark anfühlt:
Verwandter Artikel
MCP通過工具和數據標準化AI連接:出現了新協議
如果您正在潛入人工智能(AI)世界,那麼您可能會注意到,獲得不同的AI模型,數據源和工具可以很好地播放,這是多麼重要。這就是模型上下文協議(MCP)所在的地方,它是標準化AI連接性的遊戲改變者。 t
虛擬地探索地球:Chatgpt和Google Earth度假計劃者
曾經有過逃避日常磨碎的衝動,但發現自己在去哪裡陷入困境?讓我們深入研究一個很酷的方法,以計劃下一個度假勝地,而無需踏出門外。通過利用Chatgpt和Google Earth的力量,您可以踏上一個既令人興奮又相關的虛擬假期
Chatgpt主意使用用戶名在某些人中引發了“令人毛骨悚然”的問題
Chatgpt的一些用戶最近遇到了一個奇怪的新功能:聊天機器人偶爾在解決問題時使用他們的名字。這不是以前其通常行為的一部分,許多用戶報告Chatgpt提到了他們的名字,而沒有被告知該怎麼稱呼。意見
Kommentare (10)
0/200
JeffreyHarris
20. April 2025 10:35:09 GMT
Google's sneaky move into enterprise AI is pretty cool. From playing catch-up to leading the pack, they've really turned things around. The tech is solid but the interface could be more user-friendly. Still, it's impressive how fast they've moved! 🚀
0
WillieJones
22. April 2025 00:13:31 GMT
グーグルのエンタープライズAIへの静かな進出はかなりクールですね。追いつくことからリードするまで、本当に状況を変えました。技術はしっかりしていますが、インターフェースがもう少しユーザーフレンドリーだといいですね。それでも、進むスピードが印象的です!🚀
0
WillBaker
22. April 2025 05:12:49 GMT
구글이 기업용 AI로 몰래 진출한 것이 꽤 멋지네요. 따라잡기에서 선두로 나아가 정말 상황을 바꿨어요. 기술은 훌륭하지만 인터페이스가 좀 더 사용자 친화적이면 좋겠어요. 그래도 이렇게 빠르게 움직인 것이 인상적이에요! 🚀
0
CharlesMartinez
22. April 2025 06:10:16 GMT
A jogada furtiva do Google no AI empresarial é bem legal. De tentar alcançar a liderar o grupo, eles realmente mudaram as coisas. A tecnologia é sólida, mas a interface poderia ser mais amigável ao usuário. Ainda assim, é impressionante como eles se moveram rápido! 🚀
0
JasonRoberts
22. April 2025 07:22:36 GMT
El movimiento sigiloso de Google en la IA empresarial es bastante genial. De ir a la zaga a liderar el grupo, realmente han dado la vuelta a la situación. La tecnología es sólida pero la interfaz podría ser más amigable para el usuario. Aún así, es impresionante lo rápido que se han movido! 🚀
0
FredAnderson
22. April 2025 15:53:12 GMT
Google's move into enterprise AI is impressive. From playing catch-up to leading the pack, they've really stepped up their game. But the interface could use some work; it's a bit clunky. Still, I'm excited to see where they go from here! 🚀
0






Noch vor einem Jahr schien die Summen um Google und Enterprise KI neutral zu stecken. Trotz der Pioniertechnologien wie dem Transformator schien der Tech -Riese zurückzublieben, in den Schein der viralen Erfolg von OpenAI, den kodierenden Fähigkeiten des Anthropics und des aggressiven Vorstoßes von Microsoft in den Enterprise -Markt.
Aber schneller zur letzten Woche bei Google Cloud nächst 2025 in Las Vegas, und die Szene war deutlich anders. Ein selbstbewusster Google, der mit hochwertigen Modellen, robuster Infrastruktur und einer klaren Unternehmensstrategie ausgestattet war, kündigte eine dramatische Turnaround an. In einem Analyst mit geschlossenen Türen mit hochrangigen Google-Führungskräften verkapulierte ein Analyst die Stimmung: "Dies fühlt sich an, als Google von 'Catch Up' zu 'Catch uns' geworden ist."
Googles Sprung nach vorne
Dieses Gefühl - dass Google nicht nur eingeholt, sondern vor Openai und Microsoft im Enterprise AI -Rennen gestiegen ist - war während der gesamten Veranstaltung tastbar. Und es ist nicht nur Marketing -Hype. Im vergangenen Jahr hat sich Google intensiv auf die Ausführung konzentriert und seine technologischen Fähigkeiten in eine leistungsstarke, integrierte Plattform umgewandelt, die sich schnell über die Entscheidungsträger der Unternehmenswerte einsetzt. Von den mächtigsten KI-Modellen der Welt, die mit hocheffizientem kundenspezifischem Silizium betrieben werden, bis hin zu einem aufkeimenden Ökosystem von AI-Agenten, die auf reale geschäftliche Herausforderungen zugeschnitten sind, macht Google einen starken Fall, dass es nie wirklich verloren hat, sondern sich einer Zeit tiefe, grundlegende Entwicklung unterzogen hat.
Mit seinem integrierten Stack, der jetzt mit voller Kapazität arbeitet, scheint Google die nächste Phase der Enterprise AI -Revolution zu leiten. In meinen Interviews mit Google -Führungskräften im nächsten Mal betonten sie die einzigartigen Vorteile von Google in Bezug auf Infrastruktur und Modellintegration - Anwälte, die Konkurrenten wie OpenAI, Microsoft oder AWS herausfordern würden, um sich zu replizieren.
Der Schatten des Zweifels: Anerkennung der jüngsten Vergangenheit
Um die aktuelle Dynamik von Google voll und ganz zu schätzen, ist es wichtig, die jüngste Vergangenheit anzuerkennen. Google erfand die Transformer-Architektur, löste die moderne Revolution in großen Sprachmodellen (LLMs) aus und investierte vor einem Jahrzehnt, was jetzt die branchenführende Effizienz fördert. Trotzdem war Google unerklärlicherweise vor nur zweieinhalb Jahren eine Verteidigung.
OpenAIs Chatgpt hat das Interesse der Öffentlichkeit in atemberaubendem Tempo geweckt und wurde zur am schnellsten wachsenden App der Geschichte. Konkurrenten wie anthropische Nischen in Bereichen wie Codierung. In der Zwischenzeit schienen die öffentlichen Bewegungen von Google oft vorläufig oder fehlerhaft zu sein. Die berüchtigte Bard -Demo im Jahr 2023 und die Kontroverse über den Bildgenerator, der historisch ungenaue Darstellungen erzeugt, fütterte eine Erzählung eines Unternehmens, das möglicherweise durch die interne Bürokratie oder Überkorrektur bei der Ausrichtung behindert wird. Google schien verloren und wiederholte seine anfängliche Langsamkeit im Cloud -Wettbewerb, wo es hinter Amazon und Microsoft dritter wurde.
Der Drehpunkt: Eine bewusste Entscheidung, zu führen
Hinter den Kulissen trat jedoch eine signifikante Verschiebung auf, die von einer absichtlichen Entscheidung auf höchstem Niveau zur Rückforderung der Führung getrieben wurde. Mat Velloso, VP von Produkt für die KI -Entwicklerplattform von Google DeepMind, spürte diesen entscheidenden Moment, als er im Februar 2024 zu Google kam, nachdem er Microsoft verlassen hatte. "Als ich zu Google kam, sprach ich mit Sundar [Pichai], ich sprach mit mehreren Führungskräften hier und ich hatte das Gefühl, dass dies der Moment war, in dem sie entschieden haben, okay, diese [generative KI] ist eine Sache, die die Branche eindeutig interessiert.
Dieser erneute Druck wurde nicht durch den befürchteten "Brain Drain" behindert, von dem einige Außenstehende glaubten, Google zu erschöpfen. Stattdessen verdoppelte das Unternehmen Anfang 2024 die Ausführung, gekennzeichnet durch aggressive Einstellung, interne Vereinigung und Kundentraktion. Während die Konkurrenten spritzige Einstellungen einnahmen, behielt Google seine KI -Führung der KI, darunter DeepMind -CEO Demis Hassabis und Google Cloud -CEO Thomas Kurian, die Stabilität und tiefe Fachkenntnisse bieten.
Darüber hinaus flossen Talent in Richtung der fokussierten Mission von Google. Logan Kilpatrick kehrte beispielsweise von OpenAI nach Google zurück, das von der Gelegenheit gezogen wurde, die Grundlagen im Unternehmen aufzubauen. Er schloss sich Velloso an, was er als "Null -zu -Ein -Erfahrung" bezeichnete, der die Aufgabe hat, die Entwickler -Traktion für Gemini von Grund auf zu bauen. "Es war, als wäre das Team am ersten Tag ... wir haben tatsächlich keine Benutzer auf dieser Plattform, wir haben keine Einnahmen. Niemand interessiert sich für Gemini", erinnerte sich Kilpatrick an den Ausgangspunkt. Führungskräfte wie Josh Woodward, die beim Start von AI Studio geholfen haben und jetzt die Gemini-App und die Labors leitet, und Noam SHAZEER, ein wichtiger Co-Autor des ursprünglichen "Aufmerksamkeits ist alles, was Sie brauchen" Transformatorpapier, kehrte Ende 2024 als technischer Co-Lead für das wichtige Gemini-Projekt an das Unternehmen zurück.
Säule 1: Gemini 2.5 und die Ära der Denkmodelle
Während sich das Enterprise-Mantra auf "Es geht nicht nur um das Modell" verlagert hat, bleibt die am besten leistungsstarke LLM eine bedeutende Leistung und ein leistungsstarker Validator der überlegenen Forschung und der effizienten Technologiearchitektur eines Unternehmens. Mit der Veröffentlichung von Gemini 2.5 Pro, nur wenige Wochen vor dem nächsten Jahr 25, behauptete Google diesen Mantel entscheidend. Es stellte schnell die unabhängige Chatbot Arena-Rangliste an und übertriffte die neueste GPT-4O-Variante von OpenAI erheblich und war notorisch schwierige Benchmarks wie die letzte Prüfung der Humanity's Last. Wie Pichai in der Keynote sagte: "Es ist unser intelligentestes KI -Modell aller Zeiten. Und es ist das beste Modell der Welt." Das Modell hatte innerhalb eines Monats eine Erhöhung der Zwischendoage von Gemini um 80 Prozent getrieben, twitterte er separat.
Zum ersten Mal stand die Nachfrage nach Gemini in Flammen. Was mich neben der rohen Intelligenz von Gemini 2.5 Pro beeindruckte, war das nachweisbare Denken. Google hat eine "Denken" -Capabilität entwickelt und es dem Modell ermöglicht, mehrstufige Argumentation, Planung und sogar Selbstreflexion durchzuführen, bevor eine Antwort fertiggestellt wird. Die strukturierte, kohärente Kette des Gedankens (COT)-mit nummerierten Schritten und Unterkehlchen-vermeidet die weitläufige oder undurchsichtige Natur von Ausgaben anderer Modelle aus Deepseek oder OpenAI. Für technische Teams, die Ausgaben für kritische Aufgaben bewerten, ermöglicht diese Transparenz Validierung, Korrektur und Umleitung mit beispielloses Vertrauen.
Aber was noch wichtiger für Unternehmensnutzer ist, schloss Gemini 2.5 Pro auch die Codierungslücke dramatisch, was einer der größten Anwendungsbereiche für generative KI ist. In einem Interview mit VentureBeat sagte CTO Fiona Tan des führenden Einzelhändlers Wayfair, dass das Unternehmen nach den ersten Tests feststellte, dass es "ziemlich viel" aufgetreten sei und jetzt "ziemlich vergleichbar" mit dem Claude 3.7 -Sonett von Anthropic war, zuvor die bevorzugte Wahl für viele Entwickler.
Google fügte dem Modell auch ein großes Token -Kontextfenster von 1 Million hinzu und ermöglichte die Argumentation in ganzen Codebasen oder eine lange Dokumentation, die die Fähigkeiten der Modelle von OpenAI oder Anthropen weit überschreitet. (OpenAI reagierte diese Woche mit Modellen mit ähnlich großen Kontextfenstern, obwohl Benchmarks darauf hindeuten, dass Gemini 2.5 Pro einen Vorsprung im Gesamt argumentiert.) Dieser Vorteil ermöglicht komplexe, multi-file-Software-Engineering-Aufgaben.
Das Ergänzung von Pro I ist Gemini 2.5 Flash, angekündigt am nächsten '25 und erst gestern veröffentlicht. Auch ein "Denken" -Modell ist Flash für niedrige Latenz und Kosteneffizienz optimiert. Sie können steuern, wie viel die Modellgründe und die Ausgleich der Leistung mit Ihrem Budget. Dieser abgestufte Ansatz spiegelt die Strategie "Intelligenz pro Dollar" von Google -Führungskräften weiter wider.
Velloso zeigte ein Diagramm, in dem zeigt, dass Google -Modelle im gesamten Intelligenzspektrum den besten Wert bieten. "Wenn wir vor einem Jahr dieses Gespräch hätten ... hätte ich nichts zu zeigen", gab Velloso zu und hob den schnellen Turnaround hervor. "Und jetzt, wie auf der ganzen Linie, sind wir, wenn Sie nach einem Modell suchen, welche Größe, wenn Sie nicht Google sind, verlieren Sie Geld." Ähnliche Diagramme wurden aktualisiert, um die neuesten Modellveröffentlichungen von OpenAI in dieser Woche zu berücksichtigen. Alle zeigen dasselbe: Die Modelle von Google bieten die beste Intelligenz pro Dollar. Siehe unten:
Wayfairs Tan beobachtete auch vielversprechende Latenzverbesserungen mit 2,5 Pro: "Gemini 2.5 kam schneller zurück" und machte es für "mehr kundenorientierte Funktionen", sagte sie, etwas, das sie sagte, es sei mit anderen Modellen noch nicht der Fall gewesen. Gemini könnte das erste Modell sein, das Wayfair für diese Kundeninteraktionen verwendet, sagte sie.
Die Funktionen der Gemini-Familie erstrecken sich auf Multimodalität und integrieren nahtlos in die anderen führenden Modelle von Google wie Imaging 3 (Bildgenerierung), VEO 2 (Videogenerierung), Chirp 3 (Audio) und die neu angekündigte Lyria (Text-to-Music), die über die Plattform von Google für Enterprise-Benutzer, Vertex, zugänglich sind. Google ist das einzige Unternehmen, das seine eigenen generativen Medienmodelle in allen Modalitäten auf seiner Plattform anbietet. Microsoft, AWS und OpenAI müssen mit anderen Unternehmen zusammenarbeiten, um dies zu tun.
Säule 2: Infrastruktur - der Motor unter der Motorhaube
Die Fähigkeit, diese leistungsstarken Modelle schnell zu iterieren und effizient zu bedienen, beruht auf der wohl beispiellosen Infrastruktur von Google, die über Jahrzehnte nach laufenden Diensten im Planetenmaßstab geschliffen hat. Darüber hinaus ist die TPU (Tensor Processing Unit).
Am nächsten '25 enthüllte Google Ironwood, seine TPU der siebten Generation, ausdrücklich auf die Anforderungen von Inferenz und "Denkmodellen". Die Skala ist immens und ist auf anspruchsvolle KI-Workloads zugeschnitten: Ironwood Pods Pack über 9.000 flüssigkeitsgekühlte Chips und liefert eine beanspruchte 42,5 Exaflops Rechenleistung. Der VP von Google von ML Systems Amin Vahdat sagte auf der Bühne, dass dies "mehr als 24 Mal" die Rechenleistung des aktuellen Supercomputers der Welt ist.
Google erklärte, dass Ironwood 2x Perf/Watt im Vergleich zu Trillium, der vorherigen Generation von TPU, anbietet. Dies ist von Bedeutung, da Unternehmenskunden zunehmend sagen, dass Energiekosten und Verfügbarkeit großflächige KI-Bereitstellungen einschränken.
Google Cloud CTO wird Grannis die Konsistenz dieses Fortschritts betonen. Jahr über Jahr macht Google 10x, 8x, 9x und 10x Verbesserungen in seinen Prozessoren, sagte er VentureBeat in einem Interview mit und schuf das, was er als "Hyper Moores Gesetz" für KI -Beschleuniger bezeichnete. Er sagte, dass Kunden die Roadmap von Google kaufen, nicht nur der Technologie.
Die Position von Google hat diese anhaltende TPU -Investition angeheizt. Es muss massive Dienste wie Suche, YouTube und Google Mail für mehr als 2 Milliarden Benutzer effizient anführen. Dies erforderte die Entwicklung einer benutzerdefinierten, optimierten Hardware lange vor dem aktuellen generativen KI -Boom. Während Meta in einem ähnlichen Verbrauchermaßstab arbeitet, fehlten anderen Wettbewerbern dieser spezifische interne Treiber für jahrzehntelange, vertikal integrierte KI-Hardwareentwicklung.
Jetzt zahlen diese TPU -Investitionen aus, weil sie die Effizienz nicht nur für seine eigenen Apps steigern, sondern auch Google ermöglicht, anderen Benutzern mit einer besseren Intelligenz pro Dollar Gemini anzubieten, was alles gleich ist.
Warum können die Wettbewerber von Google keine effizienten Prozessoren bei Nvidia kaufen, fragen Sie? Es ist wahr, dass die GPU-Prozessoren von NVIDIA den Prozess vor dem Training von LLMs dominieren. Die Marktnachfrage hat jedoch den Preis dieser GPUs erhöht, und Nvidia nimmt einen gesunden Kürzung für sich als Gewinn. Dies gilt an den Nutzern seiner Chips erhebliche Kosten. Während die Voraussetzung die Verwendung von AI-Chips bisher dominiert hat, ändert sich dies jetzt, da Unternehmen diese Anwendungen tatsächlich bereitstellen. Hier kommt "Inferenz" ins Spiel, und hier gelten TPUs als effizienter als GPUs für Workloads in Maßstab.
Wenn Sie Google -Führungskräfte fragen, woher deren Haupttechnologievorteil in AI stammt, fallen sie normalerweise als das wichtigste auf die TPU zurück. Mark Lohmeyer, der VP, der die Computerinfrastruktur von Google ausführt, war eindeutig: TPUs sind "sicherlich ein sehr differenzierter Teil dessen, was wir tun ... Openai, sie haben diese Fähigkeiten nicht."
Bezeichnenderweise präsentiert Google TPUs nicht isoliert, sondern als Teil der breiteren, komplexeren Unternehmensarchitektur. Für technische Insider wird davon ausgegangen, dass die erstklassige Leistung auf der Integration immer spezialisierter Technologie-Durchbrüche abhängt. Viele Updates wurden am nächsten detailliert. Vahdat beschrieb dies als ein "Supercomputing -System", das Hardware (TPUS, den neuesten NVIDIA -GPUs wie Blackwell und den kommenden Vera Rubin, den erweiterten Speicher wie Hyperdisk Exapools, überall Cache und Rapid Storage) mit einem einheitlichen Software -Stapel integrieren. Diese Software umfasst Cluster Director für die Verwaltung von Beschleunigern, Pathways (die verteilte Laufzeit von Gemini, die jetzt Kunden zur Verfügung steht), und die Optimierungen wie VllM in TPUs zu bringen, sodass die Arbeitsbelastungswanderung für die zuvor auf NVIDIA/PyTorch -Stapeln eine einfachere Migration für die Arbeitsbelastung ermöglicht. Dieses integrierte System, argumentierte Vahdat, ist der Grund, warum Gemini 2.0 Flash im Vergleich zu GPT-4O eine 24-mal höhere Intelligenz pro Dollar erreicht.
Google erweitert auch die Reichweite der physischen Infrastruktur. Cloud Wan stellt das private Fasernetz von Google 2 Millionen Meilen für Unternehmen zur Verfügung und verspricht im Vergleich zu kundenführenden Netzwerken eine schnellere Leistung von bis zu 40% und 40% niedrigere Gesamtbetriebskosten (TCO).
Darüber hinaus ermöglicht Google Distributed Cloud (GDC) mit Gemini und Nvidia-Hardware (über eine Dell-Partnerschaft) in souveränen, vorhandenen oder sogar luftgeklappten Umgebungen-ein Capability-CEO Jensen Huang als "völlig gigantisch", um hochmoderne Industrie und nationale Industrie und Nation zu bringen. Am nächsten Mal bezeichnete Huang die Infrastruktur von Google als das Beste der Welt: "Kein Unternehmen ist in jeder einzelnen Computerebene besser als Google und Google Cloud", sagte er.
Säule 3: Der integrierte Vollstapel - Verbinden der Punkte
Der strategische Vorteil von Google wächst bei der Überlegung, wie diese Modelle und Infrastrukturkomponenten in eine zusammenhängende Plattform eingebunden werden. Im Gegensatz zu Wettbewerbern, die häufig auf Partnerschaften angewiesen sind, um Lücken zu überbrücken, kontrolliert Google fast jede Schicht und ermöglicht eine engere Integration und schnellere Innovationszyklen.
Warum ist diese Integration von Bedeutung, wenn ein Konkurrent wie Microsoft einfach mit OpenAI zusammenarbeiten kann, um die Infrastrukturbreite mit dem LLM -Modell zu erreichen? Die Googlers, mit denen ich gesprochen habe, sagten, es macht einen großen Unterschied und sie haben Anekdoten entwickelt, um es zu sichern.
Nehmen Sie die erhebliche Verbesserung der Enterprise Database BigQuery von Google. Die Datenbank bietet nun ein Wissensgraphen, mit dem LLMs viel effizienter über Daten suchen können, und bietet jetzt mehr als das Fünffache der Kunden von Konkurrenten wie Snowflake und Databricks. Yasmeen Ahmad, Produktleiter für Datenanalysen bei Google Cloud, sagte, die enormen Verbesserungen seien nur möglich, da die Datenteams von Google eng mit dem DeepMind -Team zusammenarbeiteten. Sie arbeiteten an Anwendungsfällen, die schwer zu lösen waren, und dies führte dazu, dass die Datenbank 50 Prozent mehr Genauigkeit basierend auf gemeinsamen Abfragen lieferte, zumindest gemäß den internen Tests von Google, um die richtigen Daten zu erreichen als die nächsten Konkurrenten, sagte Ahmad VentureBeat in einem Interview mit. Ahmad sagte, diese Art von tiefe Integration über den Stapel sei, wie Google die Branche "übersprungen" habe.
Dieser interne Zusammenhalt stellt sich stark mit der Dynamik der "Frenemies" bei Microsoft ab. Während Microsoft mit OpenAI zusammenarbeitet, um seine Modelle auf der Azure -Cloud zu verteilen, baut Microsoft auch eigene Modelle auf. Mat Velloso, der Google -Manager, der jetzt das KI -Entwicklerprogramm leitet, verließ Microsoft, nachdem er frustriert war, Windows Copilot -Pläne mit den Modellangeboten von OpenAI auszurichten. "Wie teilen Sie Ihre Produktpläne mit einem anderen Unternehmen, das tatsächlich mit Ihnen konkurriert? Das Ganze ist ein Widerspruch", erinnerte er sich. "Hier sitze ich neben den Menschen, die die Modelle bauen."
Diese Integration spricht für das, was Google Leaders als Kernvorteil ansieht: seine einzigartige Fähigkeit, tiefes Fachwissen über das gesamte Spektrum hinweg zu verbinden, von der Grundlagenforschung und des Modells auf dem Modell auf "Planet-Scale" -Anwendungsanwendungen und Infrastrukturdesign.
Die Vertex AI dient als Zentralnervensystem für die Bemühungen von Enterprise AI von Google. Und die Integration geht über die eigenen Angebote von nur Google hinaus. Das Model Garden von Vertex bietet über 200 kuratierte Modelle, darunter Google's, Lama 4 von Meta und zahlreiche Open-Source-Optionen. Vertex bietet Werkzeuge für das Tuning, die Bewertung (einschließlich AI-betriebener Evals, die Grannis als Schlüsselbeschleuniger hervorgehoben hat), die Bereitstellung und die Überwachung. Die Erdungsfunktionen nutzen interne KI-fähige Datenbanken sowie Kompatibilität mit externen Vektordatenbanken. Fügen Sie den neuen Angeboten von Google zu Bodenmodellen mit Google Search hinzu, der weltbesten Suchmaschine.
Die Integration erstreckt sich auf Google Workspace. Neue Funktionen, die beim nächsten '25 angekündigt wurden, wie "Hilf mir Analyse" in Blättern (ja, die Blätter haben jetzt eine "= ai" -Formel), Audioübersichten in Dokumenten und Arbeitsbereiche, die die Funktionen von Gemini in tägliche Workflows einbetten und einen leistungsstarken Feedback -Loop für Google erstellen, um die Erfahrung zu verbessern.
Während der Fahrt mit seinem integrierten Stack die Offenheit der Offenheit, wo es dem Ökosystem dient. Nachdem sie Kubernetes -Einführung angetrieben hat, fördert es jetzt JAX für AI -Frameworks und öffnet jetzt Protokolle für die Agentenkommunikation (A2A) sowie die Unterstützung für bestehende Standards (MCP). Google bietet außerdem Hunderte von Anschlüssen für externe Plattformen innerhalb von AgentSpace an, nämlich die neue Unified -Schnittstelle von Google für Mitarbeiter, um Agenten zu finden und zu verwenden. Dieses Hub -Konzept ist überzeugend. Die Keynote -Demonstration von Agentspace (ab 51:40) zeigt dies. Google bietet Benutzern vorgefertigte Agenten oder Mitarbeiter oder Entwickler können ihre eigenen mithilfe von KI-Funktionen mit No-Code erstellen. Oder sie können Agenten von außen über A2A -Anschlüsse einziehen. Es integriert sich in den Chrombrowser für nahtlosen Zugriff.
Säule 4: Konzentrieren Sie sich auf den Unternehmenswert und das Agent -Ökosystem
Die vielleicht bedeutendste Verschiebung ist die geschärfte Fokussierung von Google auf die Lösung konkreter Unternehmensprobleme, insbesondere durch die Linse von AI -Agenten. Thomas Kurian, CEO von Google Cloud, skizzierte drei Gründe, warum Kunden Google wählen: die AI-optimierte Plattform, den offenen Multi-Cloud-Ansatz, der die Verbindung zu den vorhandenen ITs ermöglicht, und den Fokussierung auf Sicherheit, Souveränität und Compliance.
Agenten sind der Schlüssel zu dieser Strategie. Abgesehen von Agentspace umfasst dies auch:
- Bausteine: Das Open-Source Agent Development Kit (ADK), das auf dem nächsten Mal angekündigt wurde, hat bereits wesentliches Interesse von Entwicklern gesehen. Der ADK vereinfacht das Erstellen von Multi-Agent-Systemen, während das vorgeschlagene Protokoll von Agent2Agent (A2A) darauf abzielt, die Interoperabilität zu gewährleisten und Agenten, die mit unterschiedlichen Werkzeugen (Gemini ADK, Langgraph, Crewai usw.) aufgebaut wurden, sicherzustellen, zusammenzuarbeiten. Laut Grannis von Google geht A2A mit potenziell Hunderttausenden von wechselwirkenden Wirkstoffen die Ausmaß und Sicherheitsherausforderungen einer Zukunft vor.
- Purpose-built Agents: Google showcased expert agents integrated into Agentspace (like NotebookLM, Idea Generation, Deep Research) and highlighted five key categories gaining traction: Customer Agents (powering tools like Reddit Answers, Verizon's support assistant, Wendy's drive-thru), Creative Agents (used by WPP, Brandtech, Sphere), Data Agents (driving insights at Mattel, Spotify, Bayer), Coding Agenten (Gemini Code Assist) und Sicherheitsagenten (in die neue Google Unified Security Platform integriert).
Diese umfassende Agentenstrategie scheint Resonanz zu sein. Gespräche mit Führungskräften bei drei anderen großen Unternehmen in der vergangenen Woche, die auch aufgrund wettbewerbsfähiger Sensibilitäten sprachen, wiederholten diese Begeisterung für die Agent -Strategie von Google. In einem Interview bestätigte Google Cloud Coo Francis Desouza: "Jedes Gespräch beinhaltet KI. Insbesondere enthält jedes Gespräch Agenten."
Kevin Laugridge, Executive bei Deloitte, ein großer Benutzer von Googles AI -Produkten, und ein Distributor von ihnen an andere Unternehmen, beschrieb den Agentenmarkt als "Landgreifer", bei dem Googles frühe Bewegungen mit Protokollen und seiner integrierten Plattform erhebliche Vorteile bieten. "Wer zuerst rauskommt und die meisten Agenten bekommt, die tatsächlich Wert liefern - wer in diesem Rennen gewinnen wird", sagte Laughridge in einem Interview. Er sagte, Googles Fortschritt sei "erstaunlich" und bemerkte, dass die benutzerdefinierten Agenten, die Deloitte erst vor einem Jahr gebaut hat, jetzt mit Agentspace "aus der Schachtel" repliziert werden könne. Deloitte selbst baut 100 Agenten auf der Plattform auf und zielt auf Mid-Office-Funktionen wie Finanzen, Risiko und Engineering ab, sagte er.
Die kundenspezifischen Punkte sind zunehmend. Bei der nächsten zitierte Google "500 Plus -Kunden in der Produktion" mit generativer KI, von nur "Dutzenden von Prototypen" vor einem Jahr. Wenn Microsoft vor einem Jahr als weit vorne wahrgenommen wurde, scheint das nicht mehr so offensichtlich der Fall zu sein. Angesichts des PR -Krieges aller Seiten ist es schwierig zu sagen, wer im Moment wirklich definitiv gewinnt. Metriken variieren. Die 500 -Nummer von Google ist nicht direkt mit den 400 Fallstudien Microsoft -Förderung vergleichbar (und Microsoft als Antwort sagte VentureBeat zum Zeitpunkt des Drucks mit, dass diese öffentliche Anzahl in Kürze auf 600 aktualisiert und das intensive Marketing unterstreicht). Und wenn die Verteilung von KI durch Google über seine Apps erheblich ist, ist die Copilot -Verteilung von Microsoft durch sein 365 -Angebot ebenso beeindruckend. Beide schlagen jetzt Millionen von Entwicklern durch APIs.
Es gibt jedoch viele Beispiele für die Traktion von Google:
- Wendy's: Eingesetzt ein KI-Drive-Thru-System in nur einem Jahr an Tausenden von Standorten, um die Erfahrung der Mitarbeiter und Bestellgenauigkeit zu verbessern. Google Cloud CTO wird Grannis feststellen, dass das KI -System in der Lage ist, Slang zu verstehen und Hintergrundgeräusche herauszufiltern, wodurch der Stress der Live -Kundeninteraktionen erheblich verringert wird. Das fördert die Mitarbeiter, sich auf die Zubereitung und Qualität von Lebensmitteln zu konzentrieren-eine Schicht, die Grannis namens "ein großartiges Beispiel für die operative AI-operierte Operationen" namens ".
- Salesforce: kündigte eine große Expansion an, sodass seine Plattform erstmals auf Google Cloud ausführen kann (Beyond AWS), wobei die Fähigkeit von Google dazu beigetragen hat, "innovieren und optimieren" zu werden.
- Honeywell & Intuit: Unternehmen, die bisher stark mit Microsoft bzw. AWS verbunden sind, arbeiten jetzt mit Google Cloud zu AI -Initiativen zusammen.
- Große Banken (Deutsche Bank, Wells Fargo): Nutzung von Agenten und Gemini für Forschung, Analyse und Modernisierung des Kundendienstes.
- Einzelhändler (Walmart, Mercado Libre, Lowe): Verwenden von Such-, Agenten und Datenplattformen.
Diese Unternehmenstraktion fördert das Gesamtwachstum von Google Cloud, das AWS und Azure in den letzten drei Quartalen übertroffen hat. Google Cloud erreichte 2024 einen jährlichen Laufpreis von 44 Milliarden US -Dollar, gegenüber nur 5 Milliarden US -Dollar im Jahr 2018.
Navigieren in den Wettbewerbsgewässern
Der Aufstieg von Google bedeutet nicht, dass Konkurrenten still stehen. OpenAIs schnelle Veröffentlichungen in dieser Woche von GPT-4.1 (konzentriert sich auf Codierung und langer Kontext) und die O-Serie (Multimodal Argumenting, Tools Use) zeigen die anhaltende Innovation von OpenAI. Darüber hinaus hat das neue Bildgenerierungsfunktion von OpenAI in GPT-4O im letzten Monat ein massives Wachstum angeheizt und Chatgpt 800 Millionen Nutzer erreichen. Microsoft nutzt weiterhin seine umfangreiche Partnerschaft mit Unternehmen und OpenAI, während anthropisch ein starker Anwärter bleibt, insbesondere bei kodierenden und sicherheitsbewussten Anwendungen.
Es ist jedoch unbestreitbar, dass sich die Erzählung von Google bemerkenswert verbessert hat. Noch vor einem Jahr wurde Google als schwindelerregender, angehender, fehlerhafter Konkurrent angesehen, der vielleicht überhaupt seine Chance auf die Führung von KI ausüben wollte. Stattdessen haben seine einzigartige, integrierte Stapel- und Unternehmensbeständigkeit noch etwas anderes enthüllt: Google besitzt Weltklasse-Fähigkeiten im gesamten Spektrum-von Chip Design (TPUs) und globaler Infrastruktur bis hin zu Grundmodellforschung (DeepMind), Anwendungsentwicklung (Workspace, Search, YouTube) und Enterprise Cloud Services (Vertex-Dienste (Vertex). "Wir sind der einzige Hyperscaler, der sich im grundlegenden Modellgespräch befindet", erklärte Desouza rundheraus. Dieser End-to-End-Eigentum ermöglicht Optimierungen (wie "Intelligenz pro Dollar") und die Integrationstiefe, die die Partnerschaftsmodelle zustimmen. Wettbewerber müssen häufig unterschiedliche Stücke zusammenfügen, um möglicherweise Reibung zu schaffen oder die Innovationsgeschwindigkeit zu begrenzen.
Der Moment von Google ist jetzt
Während das KI -Rennen dynamisch bleibt, hat Google all diese Stücke in dem Moment zusammengestellt, in dem der Markt sie erfordert. Wie Deloitte's Laugridge es ausdrückte, erreichte Google einen Punkt, an dem seine Fähigkeiten perfekt ausgerichtet waren, "wo der Markt ihn verlangte". Wenn Sie darauf gewartet haben, dass Google sich in Enterprise AI beweist, haben Sie möglicherweise den Moment verpasst - es hat bereits. Das Unternehmen, das viele der Kerntechnologien erfunden hat, die diese Revolution mit Strom versorgen, scheint endlich eingeholt zu haben - und darüber hinaus setzt es jetzt das Tempo, das die Konkurrenten anpassen müssen.
Im Video unten, kurz nach dem nächsten Mal aufgezeichnet, brechen der KI -Experte Sam Witteeen und ich die aktuelle Landschaft und die aufkommenden Trends auf und warum sich das AI -Ökosystem von Google so stark anfühlt:



Google's sneaky move into enterprise AI is pretty cool. From playing catch-up to leading the pack, they've really turned things around. The tech is solid but the interface could be more user-friendly. Still, it's impressive how fast they've moved! 🚀




グーグルのエンタープライズAIへの静かな進出はかなりクールですね。追いつくことからリードするまで、本当に状況を変えました。技術はしっかりしていますが、インターフェースがもう少しユーザーフレンドリーだといいですね。それでも、進むスピードが印象的です!🚀




구글이 기업용 AI로 몰래 진출한 것이 꽤 멋지네요. 따라잡기에서 선두로 나아가 정말 상황을 바꿨어요. 기술은 훌륭하지만 인터페이스가 좀 더 사용자 친화적이면 좋겠어요. 그래도 이렇게 빠르게 움직인 것이 인상적이에요! 🚀




A jogada furtiva do Google no AI empresarial é bem legal. De tentar alcançar a liderar o grupo, eles realmente mudaram as coisas. A tecnologia é sólida, mas a interface poderia ser mais amigável ao usuário. Ainda assim, é impressionante como eles se moveram rápido! 🚀




El movimiento sigiloso de Google en la IA empresarial es bastante genial. De ir a la zaga a liderar el grupo, realmente han dado la vuelta a la situación. La tecnología es sólida pero la interfaz podría ser más amigable para el usuario. Aún así, es impresionante lo rápido que se han movido! 🚀




Google's move into enterprise AI is impressive. From playing catch-up to leading the pack, they've really stepped up their game. But the interface could use some work; it's a bit clunky. Still, I'm excited to see where they go from here! 🚀












