Google lén lút vượt qua doanh nghiệp AI: Từ 'bắt kịp' đến 'bắt chúng tôi'
Ngày 20 tháng 4 năm 2025
EricMartin
5
Chỉ một năm trước, tiếng vang xung quanh Google và AI doanh nghiệp dường như bị mắc kẹt trong trung lập. Mặc dù các công nghệ tiên phong như máy biến áp, người khổng lồ công nghệ dường như bị tụt lại phía sau, bị lu mờ bởi sự thành công của virus của Openai, năng lực mã hóa của nhân học và thúc đẩy mạnh mẽ của Microsoft vào thị trường doanh nghiệp.
Nhưng nhanh chóng chuyển sang tuần trước tại Google Cloud 2025 tiếp theo tại Las Vegas và cảnh này rất khác biệt. Một Google tự tin, được trang bị các mô hình hiệu suất hàng đầu, cơ sở hạ tầng mạnh mẽ và chiến lược doanh nghiệp rõ ràng, đã công bố một bước ngoặt kịch tính. Trong một cuộc họp phân tích kín với các giám đốc điều hành cao cấp của Google, một nhà phân tích đã gói gọn tâm trạng: "Cảm giác này giống như thời điểm Google đi từ 'Catch Up' để 'bắt chúng tôi.'"
Bước nhảy vọt của Google
Tình cảm này, Google không chỉ bắt kịp mà còn vượt lên trước Openai và Microsoft trong cuộc đua AI của doanh nghiệp, có thể sờ thấy trong suốt sự kiện. Và nó không chỉ là sự cường điệu tiếp thị. Trong năm qua, Google đã tập trung mạnh mẽ vào việc thực thi, biến năng lực công nghệ của mình thành một nền tảng tích hợp hiệu suất cao, nhanh chóng chiến thắng trước những người ra quyết định doanh nghiệp. Từ các mô hình AI mạnh nhất thế giới chạy trên silicon tùy chỉnh hiệu quả cao đến một hệ sinh thái đang phát triển của các đại lý AI phù hợp với các thách thức kinh doanh trong thế giới thực, Google đang đưa ra một trường hợp mạnh mẽ rằng nó không bao giờ thực sự bị mất mà là trải qua một thời kỳ phát triển nền tảng, sâu sắc.
Với ngăn xếp tích hợp hiện đang hoạt động hết công suất, Google xuất hiện sẵn sàng dẫn đầu giai đoạn tiếp theo của cuộc cách mạng AI của doanh nghiệp. Trong các cuộc phỏng vấn của tôi với các giám đốc điều hành của Google, họ nhấn mạnh những lợi thế độc đáo của Google trong cơ sở hạ tầng và tích hợp mô hình, các đối thủ cạnh tranh như Openai, Microsoft hoặc AWS sẽ thấy đầy thách thức để sao chép.
Cái bóng của sự nghi ngờ: thừa nhận quá khứ gần đây
Để đánh giá đầy đủ động lực hiện tại của Google, điều cần thiết là phải thừa nhận quá khứ gần đây. Google đã phát minh ra kiến trúc máy biến áp, gây ra cuộc cách mạng hiện đại trong các mô hình ngôn ngữ lớn (LLM) và bắt đầu đầu tư vào phần cứng AI chuyên ngành (TPU) một thập kỷ trước, hiện đang thúc đẩy hiệu quả hàng đầu trong ngành. Tuy nhiên, không thể giải thích được, chỉ hai năm rưỡi trước, Google thấy mình đang chơi phòng thủ.
Nhà thờ của Openai đã chiếm được trí tưởng tượng của công chúng và sự quan tâm của doanh nghiệp với tốc độ ngoạn mục, trở thành ứng dụng phát triển nhanh nhất trong lịch sử. Các đối thủ cạnh tranh như nhân học khắc ra các hốc trong các khu vực như mã hóa. Trong khi đó, các động thái công khai của Google thường có vẻ dự kiến hoặc thiếu sót. Bản demo khét tiếng của BARD vào năm 2023 và cuộc tranh cãi về người tạo hình ảnh của nó tạo ra các mô tả không chính xác về mặt lịch sử được đưa ra một câu chuyện kể về một công ty có khả năng bị cản trở bởi bộ máy quan liêu nội bộ hoặc quá mức về sự liên kết. Google dường như bị lạc, lặp lại sự chậm chạp ban đầu của mình trong cuộc thi đám mây, nơi nó vẫn là một phần ba xa trong thị phần sau Amazon và Microsoft.
Pivot: Một quyết định có ý thức để lãnh đạo
Tuy nhiên, đằng sau hậu trường, một sự thay đổi đáng kể đã xảy ra, được thúc đẩy bởi một quyết định có chủ ý ở cấp cao nhất để đòi lại sự lãnh đạo. Mat Velloso, VP sản phẩm cho nền tảng Nhà phát triển AI của Google DeepMind, đã cảm nhận được khoảnh khắc quan trọng này khi gia nhập Google vào tháng 2 năm 2024, sau khi rời Microsoft. "Khi tôi đến Google, tôi đã nói chuyện với Sundar [Pichai], tôi đã nói chuyện với một số nhà lãnh đạo ở đây, và tôi cảm thấy đó là khoảnh khắc họ quyết định, được rồi, điều này [AI tổ chức] là một điều mà ngành công nghiệp quan tâm rõ ràng.
Sự thúc đẩy được đổi mới này không bị cản trở bởi sự "chảy máu" đáng sợ mà một số người ngoài tin rằng đang cạn kiệt Google. Thay vào đó, công ty đã tăng gấp đôi khi thực hiện vào đầu năm 2024, được đánh dấu bằng việc tuyển dụng tích cực, thống nhất nội bộ và lực kéo của khách hàng. Trong khi các đối thủ cạnh tranh thực hiện các cuộc tuyển dụng Splashy, Google vẫn giữ vị trí lãnh đạo AI cốt lõi của mình, bao gồm cả Giám đốc điều hành DeepMind Demis Hassabis và Giám đốc điều hành Google Cloud Thomas Kurian, cung cấp sự ổn định và chuyên môn sâu sắc.
Hơn nữa, tài năng bắt đầu trôi chảy về nhiệm vụ tập trung của Google. Logan Kilpatrick, chẳng hạn, đã trở lại Google từ Openai, được rút ra bởi cơ hội xây dựng AI nền tảng trong công ty. Anh ta gia nhập Velloso trong những gì anh ta mô tả là "số không đến một trải nghiệm", được giao nhiệm vụ xây dựng lực kéo cho nhà phát triển cho Song Tử từ đầu. "Nó giống như nhóm là tôi vào ngày đầu tiên ... chúng tôi thực sự không có người dùng trên nền tảng này, chúng tôi không có doanh thu. Không ai quan tâm đến Song Tử tại thời điểm này", Kilpatrick nhớ lại điểm xuất phát. Các nhà lãnh đạo như Josh Woodward, người đã giúp bắt đầu AI Studio và hiện đang dẫn đầu ứng dụng và phòng thí nghiệm của Song Tử, và Noam Shazeer, đồng tác giả quan trọng của "sự chú ý ban đầu là tất cả những gì bạn cần", cũng trở lại công ty vào cuối năm 2024 với tư cách là đồng nghiệp kỹ thuật cho dự án Song Tử.
Trụ cột 1: Song Tử 2.5 và ERA của các mô hình suy nghĩ
Mặc dù câu thần chú doanh nghiệp đã chuyển sang "nó không chỉ là về mô hình", việc có LLM hoạt động tốt nhất vẫn là một thành tựu đáng kể và là một công cụ xác nhận mạnh mẽ về nghiên cứu vượt trội và kiến trúc công nghệ hiệu quả của công ty. Với việc phát hành Gemini 2.5 Pro chỉ vài tuần trước '25 tiếp theo, Google đã quyết định tuyên bố lớp phủ này. Nó nhanh chóng đứng đầu bảng xếp hạng Đấu trường Chatbot độc lập, vượt trội hơn đáng kể ngay cả biến thể GPT-4O mới nhất của Openai, và các điểm chuẩn lý luận khó khăn nổi tiếng như bài kiểm tra cuối cùng của loài người. Như Pichai đã nêu trong bài phát biểu, "Đó là mô hình AI thông minh nhất của chúng tôi từ trước đến nay. Và đó là mô hình tốt nhất trên thế giới." Mô hình đã thúc đẩy việc sử dụng Song Tử tăng 80 % trong vòng một tháng, anh ta đã tweet riêng.
Lần đầu tiên, nhu cầu về Song Tử đã bốc cháy. Điều gây ấn tượng với tôi, ngoài trí thông minh thô của Song Tử 2.5 Pro, là lý do rõ ràng của nó. Google đã thiết kế khả năng "suy nghĩ", cho phép mô hình thực hiện lý luận, lập kế hoạch và thậm chí tự phản ánh nhiều bước trước khi hoàn tất phản hồi. Các chuỗi có cấu trúc, mạch lạc (COT) có cấu trúc-sử dụng các bước được đánh số và hộp số phụ-tránh được tính chất lan man hoặc mờ đục của các đầu ra từ các mô hình khác từ Deepseek hoặc Openai. Đối với các nhóm kỹ thuật đánh giá đầu ra cho các nhiệm vụ quan trọng, tính minh bạch này cho phép xác nhận, điều chỉnh và chuyển hướng với sự tự tin chưa từng có.
Nhưng quan trọng hơn đối với người dùng Enterprise, Gemini 2.5 Pro cũng đã thu hẹp đáng kể khoảng cách về mã hóa, đây là một trong những lĩnh vực ứng dụng lớn nhất cho AI thế hệ. Trong một cuộc phỏng vấn với VentureBeat, CTO Fiona Tan của nhà bán lẻ hàng đầu Wayfair nói rằng sau các thử nghiệm ban đầu, công ty đã phát hiện ra nó "bước lên khá nhiều" và bây giờ "khá tương đương" với Sonnet Claude 3.7 của Anthropic, trước đây là lựa chọn ưa thích cho nhiều nhà phát triển.
Google cũng đã thêm một cửa sổ bối cảnh 1 triệu mã thông báo lớn vào mô hình, cho phép lý luận trên toàn bộ cơ sở mã hoặc tài liệu dài, vượt xa khả năng của các mô hình Openai hoặc Anthropic. . Ưu điểm này cho phép các nhiệm vụ kỹ thuật phần mềm đa tệp phức tạp.
Bổ sung Pro là Gemini 2.5 Flash, được công bố vào '25 tiếp theo và được phát hành chỉ ngày hôm qua. Cũng là một mô hình "suy nghĩ", flash được tối ưu hóa cho độ trễ thấp và hiệu quả chi phí. Bạn có thể kiểm soát mức độ lý do mô hình và hiệu suất cân bằng với ngân sách của bạn. Cách tiếp cận theo cấp độ này phản ánh thêm chiến lược "trí thông minh trên mỗi đô la" do các giám đốc điều hành của Google vô địch.
Velloso cho thấy một biểu đồ tiết lộ rằng trên phổ thông minh, các mô hình Google cung cấp giá trị tốt nhất. "Nếu chúng tôi có cuộc trò chuyện này một năm trước, tôi sẽ không có gì để thể hiện", Velloso thừa nhận, làm nổi bật sự quay vòng nhanh chóng. "Và bây giờ, giống như, trên bảng, chúng tôi, nếu bạn đang tìm kiếm bất kỳ mô hình nào, bất cứ kích thước nào, như, nếu bạn không phải là Google, bạn sẽ mất tiền." Các biểu đồ tương tự đã được cập nhật để tính toán cho các bản phát hành mô hình mới nhất của Openai trong tuần này, tất cả đều hiển thị cùng một điều: các mô hình của Google cung cấp trí thông minh tốt nhất trên mỗi đô la. Xem bên dưới:

Tan của Wayfair cũng quan sát thấy những cải tiến về độ trễ đầy hứa hẹn với 2.5 Pro: "Gemini 2.5 đã trở lại nhanh hơn", khiến nó trở nên khả thi cho "nhiều khả năng của khách hàng", cô nói, điều mà cô nói không phải là trường hợp trước đây với các mô hình khác. Gemini có thể trở thành người mẫu đầu tiên sử dụng Wayfair cho các tương tác của khách hàng này, cô nói.
Khả năng của gia đình Song Tử mở rộng đến đa phương thức, tích hợp liền mạch với các mô hình hàng đầu khác của Google như ImageN 3 (tạo hình ảnh), VEO 2 (tạo video), Chirp 3 (âm thanh) và Lyria mới được công bố (văn bản-to-usic), tất cả đều có thể truy cập thông qua nền tảng của Google cho người dùng doanh nghiệp. Google là công ty duy nhất cung cấp các mô hình phương tiện tổng quát của riêng mình trên tất cả các phương thức trên nền tảng của mình. Microsoft, AWS và Openai phải hợp tác với các công ty khác để làm điều này.
Trụ cột 2: Năng lực cơ sở hạ tầng - động cơ dưới mui xe
Khả năng lặp lại nhanh chóng và phục vụ hiệu quả các mô hình mạnh mẽ này bắt nguồn từ cơ sở hạ tầng vô song của Google, được mài giũa qua nhiều thập kỷ của các dịch vụ quy mô hành tinh. Trọng tâm của điều này là đơn vị xử lý tenxơ (TPU).
Tại '25 tiếp theo, Google đã tiết lộ Ironwood, TPU thế hệ thứ bảy của nó, được thiết kế rõ ràng cho các yêu cầu của suy luận và "mô hình tư duy". Thang đo là rất lớn, được thiết kế riêng cho khối lượng công việc AI yêu cầu: Vỏ gỗ sắt đóng gói hơn 9.000 chip làm mát bằng chất lỏng, cung cấp 42,5 exaflops của công suất tính toán. Các hệ thống ML của Google Amin Vahdat của Google cho biết trên sân khấu tiếp theo rằng đây là "hơn 24 lần" sức mạnh tính toán của siêu máy tính số 1 hiện tại của thế giới.
Google tuyên bố rằng Ironwood cung cấp 2x perf/watt so với Trillium, thế hệ TPU trước đó. Điều này rất có ý nghĩa vì khách hàng doanh nghiệp ngày càng nói chi phí năng lượng và tính khả dụng hạn chế triển khai AI quy mô lớn.
Google Cloud CTO sẽ Grannis nhấn mạnh tính nhất quán của tiến trình này. Năm qua, Google đang thực hiện các cải tiến 10 lần, 8x, 9x, 10x trong bộ xử lý của mình, anh nói với VentureBeat trong một cuộc phỏng vấn, tạo ra cái mà anh gọi là "Luật của Hyper Moore" cho máy gia tốc AI. Ông cho biết khách hàng đang mua lộ trình của Google, không chỉ là công nghệ của nó.
Vị trí của Google đã thúc đẩy khoản đầu tư TPU bền vững này. Nó cần cung cấp năng lượng hiệu quả các dịch vụ lớn như tìm kiếm, YouTube và Gmail cho hơn 2 tỷ người dùng. Điều này đòi hỏi phải phát triển phần cứng tùy chỉnh, tối ưu hóa từ lâu trước khi sự bùng nổ AI hiện tại. Mặc dù meta hoạt động ở quy mô tiêu dùng tương tự, các đối thủ khác thiếu trình điều khiển nội bộ cụ thể này trong một thập kỷ, phát triển phần cứng AI tích hợp theo chiều dọc.
Bây giờ các khoản đầu tư của TPU này đang được đền đáp vì chúng đang thúc đẩy hiệu quả không chỉ cho các ứng dụng của riêng mình mà còn cho phép Google cung cấp Song Tử cho người dùng khác với trí thông minh tốt hơn trên mỗi đô la, tất cả mọi thứ đều bằng nhau.
Tại sao các đối thủ của Google không thể mua bộ xử lý hiệu quả từ NVIDIA, bạn yêu cầu? Đúng là bộ xử lý GPU của NVIDIA thống trị quá trình đào tạo LLMS. Nhưng nhu cầu thị trường đã đẩy giá của các GPU này và NVIDIA tự cắt giảm sức khỏe vì lợi nhuận. Điều này chuyển chi phí đáng kể cho người dùng chip của nó. Ngoài ra, trong khi đào tạo trước đã thống trị việc sử dụng chip AI cho đến nay, điều này đang thay đổi bây giờ các doanh nghiệp thực sự đang triển khai các ứng dụng này. Đây là nơi "suy luận" xuất hiện và ở đây TPU được coi là hiệu quả hơn GPU cho khối lượng công việc ở quy mô.
Khi bạn hỏi các giám đốc điều hành của Google, nơi lợi thế công nghệ chính của họ trong AI đến, họ thường quay trở lại TPU là quan trọng nhất. Mark Lohmeyer, VP, người điều hành cơ sở hạ tầng điện toán của Google, là không rõ ràng: TPU "chắc chắn là một phần khác biệt cao của những gì chúng tôi làm Openai, họ không có những khả năng đó."
Đáng kể, Google trình bày TPU không bị cô lập, mà là một phần của kiến trúc AI doanh nghiệp rộng hơn, phức tạp hơn. Đối với những người trong cuộc kỹ thuật, người ta hiểu rằng hiệu suất hàng đầu trong việc tích hợp các đột phá công nghệ ngày càng chuyên biệt. Nhiều cập nhật đã được chi tiết ở tiếp theo. Vahdat mô tả đây là một "hệ thống siêu máy tính", tích hợp phần cứng (TPU, GPU NVIDIA mới nhất như Blackwell và Vera Rubin sắp tới, lưu trữ nâng cao như HyperDisk Exapools, mọi nơi bộ đệm và lưu trữ nhanh) với ngăn xếp phần mềm thống nhất. Phần mềm này bao gồm Giám đốc cụm để quản lý máy gia tốc, Pathways (thời gian chạy phân tán của Gemini, hiện có sẵn cho khách hàng) và đưa các tối ưu hóa như VLLM đến TPU, cho phép di chuyển khối lượng công việc dễ dàng hơn cho những người trước đây trên các ngăn xếp NVIDIA/PYTORCH. Hệ thống tích hợp này, Vahdat lập luận, là lý do tại sao Gemini 2.0 Flash đạt được trí thông minh cao hơn 24 lần trên mỗi đô la, so với GPT-4O.
Google cũng đang mở rộng phạm vi cơ sở hạ tầng vật lý của mình. Cloud WAN làm cho mạng lưới sợi riêng 2 triệu dặm có độ trễ thấp của Google có sẵn cho các doanh nghiệp, hứa hẹn hiệu suất nhanh hơn tới 40% và tổng chi phí sở hữu (TCO) thấp hơn 40% so với các mạng do khách hàng quản lý.
Hơn nữa, đám mây phân phối của Google (GDC) cho phép Gemini và NVIDIA phần cứng (thông qua quan hệ đối tác Dell) để chạy trong các môi trường có chủ quyền, tại chỗ hoặc thậm chí là không khí-một công ty NVIDIA CEO Jensen Huang được ca ngợi là "hoàn toàn khổng lồ". Tiếp theo, Huang gọi cơ sở hạ tầng của Google là tốt nhất trên thế giới: "Không có công ty nào tốt hơn ở mỗi lớp điện toán so với Google và Google Cloud", ông nói.
Trụ cột 3: Ngăn xếp đầy đủ tích hợp - Kết nối các dấu chấm
Lợi thế chiến lược của Google tăng lên khi xem xét làm thế nào các mô hình và thành phần cơ sở hạ tầng này được dệt thành một nền tảng gắn kết. Không giống như các đối thủ cạnh tranh, thường dựa vào quan hệ đối tác để thu hẹp khoảng cách, Google kiểm soát gần như mọi lớp, cho phép tích hợp chặt chẽ hơn và các chu kỳ đổi mới nhanh hơn.
Vậy tại sao sự tích hợp này lại quan trọng, nếu một đối thủ cạnh tranh như Microsoft có thể đơn giản hợp tác với OpenAI để phù hợp với chiều rộng cơ sở hạ tầng với khả năng mô hình LLM? Những kẻ lừa đảo mà tôi đã nói chuyện nói rằng nó tạo ra một sự khác biệt lớn, và họ đã đưa ra những giai thoại để sao lưu nó.
Hãy cải thiện đáng kể cơ sở dữ liệu doanh nghiệp của Google BigQuery. Cơ sở dữ liệu hiện cung cấp biểu đồ kiến thức cho phép LLM tìm kiếm dữ liệu hiệu quả hơn nhiều và giờ đây nó tự hào hơn năm lần khách hàng của các đối thủ cạnh tranh như Snowflake và Databricks. Yasmeen Ahmad, người đứng đầu sản phẩm phân tích dữ liệu tại Google Cloud, cho biết những cải tiến lớn chỉ có thể vì các nhóm dữ liệu của Google đang hợp tác chặt chẽ với nhóm DeepMind. Họ đã làm việc thông qua các trường hợp sử dụng khó giải quyết và điều này dẫn đến cơ sở dữ liệu cung cấp độ chính xác cao hơn 50 % dựa trên các truy vấn chung, ít nhất là theo thử nghiệm nội bộ của Google, trong việc đưa dữ liệu đúng so với các đối thủ cạnh tranh gần nhất, Ahmad nói với VentureBeat trong một cuộc phỏng vấn. Ahmad cho biết loại tích hợp sâu này trên toàn bộ ngăn xếp là cách Google "nhảy vọt" ngành công nghiệp.
Sự gắn kết nội bộ này tương phản mạnh mẽ với động lực "FreneNe" tại Microsoft. Trong khi Microsoft hợp tác với OpenAI để phân phối các mô hình của mình trên Azure Cloud, Microsoft cũng đang xây dựng các mô hình của riêng mình. Mat Velloso, giám đốc điều hành của Google hiện đang lãnh đạo chương trình Nhà phát triển AI, đã rời Microsoft sau khi thất vọng khi cố gắng sắp xếp các kế hoạch của Windows Copilot với các dịch vụ mô hình của Openai. "Làm thế nào để bạn chia sẻ kế hoạch sản phẩm của mình với một công ty khác thực sự cạnh tranh với bạn, toàn bộ điều này là một mâu thuẫn", ông nhớ lại. "Ở đây tôi ngồi cạnh nhau với những người đang xây dựng các mô hình."
Sự tích hợp này nói lên những gì các nhà lãnh đạo Google coi là lợi thế cốt lõi của họ: khả năng độc đáo của nó để kết nối chuyên môn sâu trên toàn bộ phổ, từ nghiên cứu nền tảng và xây dựng mô hình đến triển khai ứng dụng và cơ sở hạ tầng "quy mô hành tinh".
Vertex AI đóng vai trò là hệ thống thần kinh trung ương cho các nỗ lực AI của doanh nghiệp của Google. Và sự tích hợp vượt xa các dịch vụ của chính Google. Model Garden của Vertex cung cấp hơn 200 mô hình được quản lý, bao gồm Google, Meta's Llama 4 và nhiều tùy chọn nguồn mở. Vertex cung cấp các công cụ để điều chỉnh, đánh giá (bao gồm các evals do AI cung cấp, mà Grannis nhấn mạnh làm máy gia tốc chính), triển khai và giám sát. Khả năng nối đất của nó tận dụng cơ sở dữ liệu AI sẵn sàng AI bên trong khả năng tương thích với cơ sở dữ liệu vectơ bên ngoài. Thêm vào đó các dịch vụ mới của Google vào các mô hình mặt đất với Google Search, công cụ tìm kiếm tốt nhất thế giới.
Tích hợp mở rộng đến không gian làm việc của Google. Các tính năng mới được công bố vào '25 tiếp theo, như "Giúp tôi phân tích" trong các tờ (vâng, các tờ hiện có một công thức "= AI"), tổng quan âm thanh trong các luồng tài liệu và không gian làm việc, tiếp tục đưa các khả năng của Song Tử vào các quy trình công việc hàng ngày, tạo ra một vòng phản hồi mạnh mẽ cho Google sử dụng để cải thiện trải nghiệm.
Trong khi lái ngăn xếp tích hợp của mình, Google cũng vô địch sự cởi mở nơi nó phục vụ hệ sinh thái. Đã điều khiển việc áp dụng Kubernetes, giờ đây họ đang quảng bá JAX cho AI Frameworks và hiện mở các giao thức cho Truyền thông đại lý (A2A) cùng với hỗ trợ cho các tiêu chuẩn hiện có (MCP). Google cũng đang cung cấp hàng trăm đầu nối cho các nền tảng bên ngoài từ bên trong AgentsPace, đó là giao diện hợp nhất mới của Google để nhân viên tìm và sử dụng các đại lý. Khái niệm trung tâm này là hấp dẫn. Trình diễn chính của Agentspace (bắt đầu từ 51:40) minh họa điều này. Google cung cấp cho người dùng các đại lý được xây dựng sẵn hoặc nhân viên hoặc nhà phát triển có thể tự xây dựng các khả năng AI không có mã. Hoặc họ có thể kéo các tác nhân từ bên ngoài thông qua các đầu nối A2A. Nó tích hợp vào trình duyệt Chrome để truy cập liền mạch.
Trụ cột 4: Tập trung vào giá trị doanh nghiệp và hệ sinh thái đại lý
Có lẽ sự thay đổi đáng kể nhất là sự tập trung mài giũa của Google vào việc giải quyết các vấn đề doanh nghiệp cụ thể, đặc biệt là thông qua ống kính của các đại lý AI. Thomas Kurian, Giám đốc điều hành Google Cloud, đã phác thảo ba lý do khách hàng chọn Google: Nền tảng được tối ưu hóa AI, cách tiếp cận đa đám mây mở cho phép kết nối với CNTT hiện tại và tập trung vào doanh nghiệp vào bảo mật, chủ quyền và tuân thủ.
Đại lý là chìa khóa cho chiến lược này. Bên cạnh Agentspace, điều này cũng bao gồm:
- Các khối xây dựng: Bộ phát triển đại lý nguồn mở (ADK), được công bố vào tiếp theo, đã thấy sự quan tâm đáng kể từ các nhà phát triển. ADK đơn giản hóa việc tạo ra các hệ thống đa tác nhân, trong khi giao thức Agent2Agent (A2A) đề xuất nhằm mục đích đảm bảo khả năng tương tác, cho phép các tác nhân được xây dựng với các công cụ khác nhau (Gemini ADK, Langgraph, phi hành đoàn, v.v.) để hợp tác. Grannis của Google cho biết A2A dự đoán các thách thức về quy mô và bảo mật trong tương lai với hàng trăm ngàn đại lý tương tác.
- Các đại lý được xây dựng có mục đích: Google đã giới thiệu các tác nhân chuyên gia được tích hợp vào không gian đại lý (như máy tính xách tay, tạo ý tưởng, nghiên cứu sâu) và nhấn mạnh năm loại chính đạt được lực kéo: các tác nhân khách hàng (công cụ cung cấp năng lượng như Reddit trả lời Đại lý (Hỗ trợ mã Gemini) và các tác nhân bảo mật (được tích hợp vào nền tảng bảo mật mới của Google Unified).
Chiến lược đại lý toàn diện này dường như được cộng hưởng. Cuộc trò chuyện với các giám đốc điều hành tại ba doanh nghiệp lớn khác trong tuần qua, cũng nói một cách ẩn danh do sự nhạy cảm cạnh tranh, đã lặp lại sự nhiệt tình này đối với chiến lược đại lý của Google. Google Cloud Coo Francis Desouza đã xác nhận trong một cuộc phỏng vấn: "Mọi cuộc trò chuyện đều bao gồm AI. Cụ thể, mọi cuộc trò chuyện đều bao gồm các đại lý."
Kevin Smileridge, một giám đốc điều hành tại Deloitte, một người dùng lớn các sản phẩm AI của Google và là nhà phân phối chúng cho các công ty khác, đã mô tả thị trường đại lý là "lấy đất" trong đó các chuyển động sớm của Google với các giao thức và nền tảng tích hợp của nó mang lại lợi thế đáng kể. "Bất cứ ai sẽ ra ngoài trước và nhận được nhiều đại lý thực sự mang lại giá trị - là người sẽ giành chiến thắng trong cuộc đua này," Smilridge nói trong một cuộc phỏng vấn. Ông nói rằng tiến trình của Google là "đáng kinh ngạc", lưu ý rằng các đại lý tùy chỉnh Deloitte được xây dựng chỉ một năm trước đây có thể được nhân rộng "ra khỏi hộp" bằng cách sử dụng Agentspace. Bản thân Deloitte đang xây dựng 100 đại lý trên nền tảng, nhắm mục tiêu các chức năng trung cấp như tài chính, rủi ro và kỹ thuật, ông nói.
Các điểm chứng minh khách hàng đang gắn kết. Tiếp theo, Google đã trích dẫn "500 khách hàng trong sản xuất" với AI thế hệ, tăng từ "hàng chục nguyên mẫu" một năm trước. Nếu Microsoft được coi là con đường phía trước một năm trước, điều đó dường như không còn rõ ràng là trường hợp nữa. Với cuộc chiến PR từ mọi phía, thật khó để nói ai đang thực sự chiến thắng ngay bây giờ. Số liệu khác nhau. Số 500 của Google không thể so sánh trực tiếp với 400 nghiên cứu trường hợp mà Microsoft quảng bá (và Microsoft, để trả lời, nói với VentureBeat vào thời điểm báo chí rằng họ có kế hoạch cập nhật số lượng công khai này lên 600 trong thời gian ngắn, nhấn mạnh tiếp thị mạnh mẽ). Và nếu phân phối AI của Google thông qua các ứng dụng của mình là rất quan trọng, thì phân phối Copilot của Microsoft thông qua việc cung cấp 365 của nó cũng ấn tượng không kém. Cả hai hiện đang đạt hàng triệu nhà phát triển thông qua API.
Nhưng các ví dụ có rất nhiều lực kéo của Google:
- Wendy's: Đã triển khai một hệ thống lái xe AI đến hàng ngàn địa điểm chỉ trong một năm, cải thiện trải nghiệm của nhân viên và chính xác đặt hàng. Google Cloud CTO sẽ Grannis lưu ý rằng hệ thống AI có khả năng hiểu tiếng lóng và lọc ra tiếng ồn nền, làm giảm đáng kể sự căng thẳng của các tương tác khách hàng trực tiếp. Điều đó giải phóng nhân viên để tập trung vào chuẩn bị thực phẩm và chất lượng-một ca làm việc gọi là "một ví dụ tuyệt vời về các hoạt động của AI hợp lý hóa trong thế giới thực."
- Salesforce: Đã công bố một bản mở rộng lớn, cho phép nền tảng của mình chạy trên Google Cloud lần đầu tiên (ngoài AWS), trích dẫn khả năng của Google để giúp họ "đổi mới và tối ưu hóa".
- Honeywell & Intuit: Các công ty trước đây liên kết mạnh mẽ với Microsoft và AWS, hiện, hiện đang hợp tác với Google Cloud trên các sáng kiến AI.
- Các ngân hàng lớn (Deutsche Bank, Wells Fargo): Tận dụng các đại lý và Song Tử để nghiên cứu, phân tích và hiện đại hóa dịch vụ khách hàng.
- Các nhà bán lẻ (Walmart, Mercado Libre, Lowe's): Sử dụng tìm kiếm, đại lý và nền tảng dữ liệu.
Lực kéo doanh nghiệp này thúc đẩy sự tăng trưởng chung của Google Cloud, đã vượt xa AWS và Azure trong ba quý vừa qua. Google Cloud đạt tỷ lệ chạy hàng năm trị giá 44 tỷ đô la vào năm 2024, tăng từ chỉ 5 tỷ đô la trong năm 2018.
Điều hướng các vùng nước cạnh tranh
Google Ascent không có nghĩa là các đối thủ cạnh tranh đang đứng yên. Openai phát hành nhanh trong tuần này của GPT-4.1 (tập trung vào mã hóa và bối cảnh dài) và các-series (lý luận đa phương thức, sử dụng công cụ) thể hiện sự đổi mới liên tục của Openai. Hơn nữa, bản cập nhật tính năng tạo hình ảnh mới của Openai trong GPT-4O đã thúc đẩy sự tăng trưởng lớn chỉ trong tháng trước, giúp Chatpt tiếp cận 800 triệu người dùng. Microsoft tiếp tục tận dụng dấu chân doanh nghiệp rộng lớn của mình và quan hệ đối tác Openai, trong khi nhân học vẫn là một ứng cử viên mạnh mẽ, đặc biệt là trong các ứng dụng mã hóa và ý thức an toàn.
Tuy nhiên, không thể chối cãi rằng tường thuật của Google đã được cải thiện đáng kể. Chỉ một năm trước, Google đã được xem là một đối thủ cạnh tranh nghiêm khắc, tạm dừng, ngớ ngẩn mà có lẽ sắp thổi bay cơ hội lãnh đạo AI. Thay vào đó, sự kiên định độc đáo, tích hợp của nó và sự kiên định của công ty đã tiết lộ một điều khác: Google sở hữu các khả năng đẳng cấp thế giới trên toàn bộ quang phổ-từ Thiết kế chip (TPU) và cơ sở hạ tầng toàn cầu đến nghiên cứu mô hình nền tảng (DeepMind), phát triển ứng dụng (không gian làm việc, tìm kiếm). "Chúng tôi là người siêu âm duy nhất trong cuộc trò chuyện mô hình nền tảng", Desouza tuyên bố thẳng thừng. Quyền sở hữu đầu cuối này cho phép tối ưu hóa (như "trí thông minh trên mỗi đô la") và độ sâu tích hợp mà các mô hình hợp tác hỗ trợ đấu tranh để phù hợp. Các đối thủ cạnh tranh thường cần ghép các mảnh khác nhau, có khả năng tạo ra ma sát hoặc hạn chế tốc độ đổi mới.
Khoảnh khắc của Google bây giờ là
Trong khi cuộc đua AI vẫn còn năng động, Google đã tập hợp tất cả các phần này vào thời điểm chính xác thị trường đòi hỏi họ. Như Smilesridge của Deloitte đã nói, Google đã đạt được một điểm mà khả năng của nó phù hợp hoàn hảo "nơi thị trường yêu cầu nó." Nếu bạn đang chờ Google chứng minh chính mình trong AI Enterprise, bạn có thể đã bỏ lỡ khoảnh khắc - nó đã có. Công ty đã phát minh ra nhiều công nghệ cốt lõi cung cấp năng lượng cho cuộc cách mạng này cuối cùng đã bắt kịp - và hơn thế nữa, giờ đây nó đang thiết lập tốc độ mà các đối thủ cạnh tranh cần phải phù hợp.
Trong video dưới đây, được ghi lại ngay sau tiếp theo, chuyên gia AI Sam Witteveen và tôi phá vỡ cảnh quan hiện tại và các xu hướng mới nổi, và tại sao hệ sinh thái AI của Google cảm thấy mạnh mẽ như vậy:
Bài viết liên quan
MCP通過工具和數據標準化AI連接:出現了新協議
如果您正在潛入人工智能(AI)世界,那麼您可能會注意到,獲得不同的AI模型,數據源和工具可以很好地播放,這是多麼重要。這就是模型上下文協議(MCP)所在的地方,它是標準化AI連接性的遊戲改變者。 t
虛擬地探索地球:Chatgpt和Google Earth度假計劃者
曾經有過逃避日常磨碎的衝動,但發現自己在去哪裡陷入困境?讓我們深入研究一個很酷的方法,以計劃下一個度假勝地,而無需踏出門外。通過利用Chatgpt和Google Earth的力量,您可以踏上一個既令人興奮又相關的虛擬假期
Chatgpt主意使用用戶名在某些人中引發了“令人毛骨悚然”的問題
Chatgpt的一些用戶最近遇到了一個奇怪的新功能:聊天機器人偶爾在解決問題時使用他們的名字。這不是以前其通常行為的一部分,許多用戶報告Chatgpt提到了他們的名字,而沒有被告知該怎麼稱呼。意見
Nhận xét (10)
0/200
JeffreyHarris
10:35:09 GMT Ngày 20 tháng 4 năm 2025
Google's sneaky move into enterprise AI is pretty cool. From playing catch-up to leading the pack, they've really turned things around. The tech is solid but the interface could be more user-friendly. Still, it's impressive how fast they've moved! 🚀
0
WillieJones
00:13:31 GMT Ngày 22 tháng 4 năm 2025
グーグルのエンタープライズAIへの静かな進出はかなりクールですね。追いつくことからリードするまで、本当に状況を変えました。技術はしっかりしていますが、インターフェースがもう少しユーザーフレンドリーだといいですね。それでも、進むスピードが印象的です!🚀
0
WillBaker
05:12:49 GMT Ngày 22 tháng 4 năm 2025
구글이 기업용 AI로 몰래 진출한 것이 꽤 멋지네요. 따라잡기에서 선두로 나아가 정말 상황을 바꿨어요. 기술은 훌륭하지만 인터페이스가 좀 더 사용자 친화적이면 좋겠어요. 그래도 이렇게 빠르게 움직인 것이 인상적이에요! 🚀
0
CharlesMartinez
06:10:16 GMT Ngày 22 tháng 4 năm 2025
A jogada furtiva do Google no AI empresarial é bem legal. De tentar alcançar a liderar o grupo, eles realmente mudaram as coisas. A tecnologia é sólida, mas a interface poderia ser mais amigável ao usuário. Ainda assim, é impressionante como eles se moveram rápido! 🚀
0
JasonRoberts
07:22:36 GMT Ngày 22 tháng 4 năm 2025
El movimiento sigiloso de Google en la IA empresarial es bastante genial. De ir a la zaga a liderar el grupo, realmente han dado la vuelta a la situación. La tecnología es sólida pero la interfaz podría ser más amigable para el usuario. Aún así, es impresionante lo rápido que se han movido! 🚀
0
FredAnderson
15:53:12 GMT Ngày 22 tháng 4 năm 2025
Google's move into enterprise AI is impressive. From playing catch-up to leading the pack, they've really stepped up their game. But the interface could use some work; it's a bit clunky. Still, I'm excited to see where they go from here! 🚀
0






Chỉ một năm trước, tiếng vang xung quanh Google và AI doanh nghiệp dường như bị mắc kẹt trong trung lập. Mặc dù các công nghệ tiên phong như máy biến áp, người khổng lồ công nghệ dường như bị tụt lại phía sau, bị lu mờ bởi sự thành công của virus của Openai, năng lực mã hóa của nhân học và thúc đẩy mạnh mẽ của Microsoft vào thị trường doanh nghiệp.
Nhưng nhanh chóng chuyển sang tuần trước tại Google Cloud 2025 tiếp theo tại Las Vegas và cảnh này rất khác biệt. Một Google tự tin, được trang bị các mô hình hiệu suất hàng đầu, cơ sở hạ tầng mạnh mẽ và chiến lược doanh nghiệp rõ ràng, đã công bố một bước ngoặt kịch tính. Trong một cuộc họp phân tích kín với các giám đốc điều hành cao cấp của Google, một nhà phân tích đã gói gọn tâm trạng: "Cảm giác này giống như thời điểm Google đi từ 'Catch Up' để 'bắt chúng tôi.'"
Bước nhảy vọt của Google
Tình cảm này, Google không chỉ bắt kịp mà còn vượt lên trước Openai và Microsoft trong cuộc đua AI của doanh nghiệp, có thể sờ thấy trong suốt sự kiện. Và nó không chỉ là sự cường điệu tiếp thị. Trong năm qua, Google đã tập trung mạnh mẽ vào việc thực thi, biến năng lực công nghệ của mình thành một nền tảng tích hợp hiệu suất cao, nhanh chóng chiến thắng trước những người ra quyết định doanh nghiệp. Từ các mô hình AI mạnh nhất thế giới chạy trên silicon tùy chỉnh hiệu quả cao đến một hệ sinh thái đang phát triển của các đại lý AI phù hợp với các thách thức kinh doanh trong thế giới thực, Google đang đưa ra một trường hợp mạnh mẽ rằng nó không bao giờ thực sự bị mất mà là trải qua một thời kỳ phát triển nền tảng, sâu sắc.
Với ngăn xếp tích hợp hiện đang hoạt động hết công suất, Google xuất hiện sẵn sàng dẫn đầu giai đoạn tiếp theo của cuộc cách mạng AI của doanh nghiệp. Trong các cuộc phỏng vấn của tôi với các giám đốc điều hành của Google, họ nhấn mạnh những lợi thế độc đáo của Google trong cơ sở hạ tầng và tích hợp mô hình, các đối thủ cạnh tranh như Openai, Microsoft hoặc AWS sẽ thấy đầy thách thức để sao chép.
Cái bóng của sự nghi ngờ: thừa nhận quá khứ gần đây
Để đánh giá đầy đủ động lực hiện tại của Google, điều cần thiết là phải thừa nhận quá khứ gần đây. Google đã phát minh ra kiến trúc máy biến áp, gây ra cuộc cách mạng hiện đại trong các mô hình ngôn ngữ lớn (LLM) và bắt đầu đầu tư vào phần cứng AI chuyên ngành (TPU) một thập kỷ trước, hiện đang thúc đẩy hiệu quả hàng đầu trong ngành. Tuy nhiên, không thể giải thích được, chỉ hai năm rưỡi trước, Google thấy mình đang chơi phòng thủ.
Nhà thờ của Openai đã chiếm được trí tưởng tượng của công chúng và sự quan tâm của doanh nghiệp với tốc độ ngoạn mục, trở thành ứng dụng phát triển nhanh nhất trong lịch sử. Các đối thủ cạnh tranh như nhân học khắc ra các hốc trong các khu vực như mã hóa. Trong khi đó, các động thái công khai của Google thường có vẻ dự kiến hoặc thiếu sót. Bản demo khét tiếng của BARD vào năm 2023 và cuộc tranh cãi về người tạo hình ảnh của nó tạo ra các mô tả không chính xác về mặt lịch sử được đưa ra một câu chuyện kể về một công ty có khả năng bị cản trở bởi bộ máy quan liêu nội bộ hoặc quá mức về sự liên kết. Google dường như bị lạc, lặp lại sự chậm chạp ban đầu của mình trong cuộc thi đám mây, nơi nó vẫn là một phần ba xa trong thị phần sau Amazon và Microsoft.
Pivot: Một quyết định có ý thức để lãnh đạo
Tuy nhiên, đằng sau hậu trường, một sự thay đổi đáng kể đã xảy ra, được thúc đẩy bởi một quyết định có chủ ý ở cấp cao nhất để đòi lại sự lãnh đạo. Mat Velloso, VP sản phẩm cho nền tảng Nhà phát triển AI của Google DeepMind, đã cảm nhận được khoảnh khắc quan trọng này khi gia nhập Google vào tháng 2 năm 2024, sau khi rời Microsoft. "Khi tôi đến Google, tôi đã nói chuyện với Sundar [Pichai], tôi đã nói chuyện với một số nhà lãnh đạo ở đây, và tôi cảm thấy đó là khoảnh khắc họ quyết định, được rồi, điều này [AI tổ chức] là một điều mà ngành công nghiệp quan tâm rõ ràng.
Sự thúc đẩy được đổi mới này không bị cản trở bởi sự "chảy máu" đáng sợ mà một số người ngoài tin rằng đang cạn kiệt Google. Thay vào đó, công ty đã tăng gấp đôi khi thực hiện vào đầu năm 2024, được đánh dấu bằng việc tuyển dụng tích cực, thống nhất nội bộ và lực kéo của khách hàng. Trong khi các đối thủ cạnh tranh thực hiện các cuộc tuyển dụng Splashy, Google vẫn giữ vị trí lãnh đạo AI cốt lõi của mình, bao gồm cả Giám đốc điều hành DeepMind Demis Hassabis và Giám đốc điều hành Google Cloud Thomas Kurian, cung cấp sự ổn định và chuyên môn sâu sắc.
Hơn nữa, tài năng bắt đầu trôi chảy về nhiệm vụ tập trung của Google. Logan Kilpatrick, chẳng hạn, đã trở lại Google từ Openai, được rút ra bởi cơ hội xây dựng AI nền tảng trong công ty. Anh ta gia nhập Velloso trong những gì anh ta mô tả là "số không đến một trải nghiệm", được giao nhiệm vụ xây dựng lực kéo cho nhà phát triển cho Song Tử từ đầu. "Nó giống như nhóm là tôi vào ngày đầu tiên ... chúng tôi thực sự không có người dùng trên nền tảng này, chúng tôi không có doanh thu. Không ai quan tâm đến Song Tử tại thời điểm này", Kilpatrick nhớ lại điểm xuất phát. Các nhà lãnh đạo như Josh Woodward, người đã giúp bắt đầu AI Studio và hiện đang dẫn đầu ứng dụng và phòng thí nghiệm của Song Tử, và Noam Shazeer, đồng tác giả quan trọng của "sự chú ý ban đầu là tất cả những gì bạn cần", cũng trở lại công ty vào cuối năm 2024 với tư cách là đồng nghiệp kỹ thuật cho dự án Song Tử.
Trụ cột 1: Song Tử 2.5 và ERA của các mô hình suy nghĩ
Mặc dù câu thần chú doanh nghiệp đã chuyển sang "nó không chỉ là về mô hình", việc có LLM hoạt động tốt nhất vẫn là một thành tựu đáng kể và là một công cụ xác nhận mạnh mẽ về nghiên cứu vượt trội và kiến trúc công nghệ hiệu quả của công ty. Với việc phát hành Gemini 2.5 Pro chỉ vài tuần trước '25 tiếp theo, Google đã quyết định tuyên bố lớp phủ này. Nó nhanh chóng đứng đầu bảng xếp hạng Đấu trường Chatbot độc lập, vượt trội hơn đáng kể ngay cả biến thể GPT-4O mới nhất của Openai, và các điểm chuẩn lý luận khó khăn nổi tiếng như bài kiểm tra cuối cùng của loài người. Như Pichai đã nêu trong bài phát biểu, "Đó là mô hình AI thông minh nhất của chúng tôi từ trước đến nay. Và đó là mô hình tốt nhất trên thế giới." Mô hình đã thúc đẩy việc sử dụng Song Tử tăng 80 % trong vòng một tháng, anh ta đã tweet riêng.
Lần đầu tiên, nhu cầu về Song Tử đã bốc cháy. Điều gây ấn tượng với tôi, ngoài trí thông minh thô của Song Tử 2.5 Pro, là lý do rõ ràng của nó. Google đã thiết kế khả năng "suy nghĩ", cho phép mô hình thực hiện lý luận, lập kế hoạch và thậm chí tự phản ánh nhiều bước trước khi hoàn tất phản hồi. Các chuỗi có cấu trúc, mạch lạc (COT) có cấu trúc-sử dụng các bước được đánh số và hộp số phụ-tránh được tính chất lan man hoặc mờ đục của các đầu ra từ các mô hình khác từ Deepseek hoặc Openai. Đối với các nhóm kỹ thuật đánh giá đầu ra cho các nhiệm vụ quan trọng, tính minh bạch này cho phép xác nhận, điều chỉnh và chuyển hướng với sự tự tin chưa từng có.
Nhưng quan trọng hơn đối với người dùng Enterprise, Gemini 2.5 Pro cũng đã thu hẹp đáng kể khoảng cách về mã hóa, đây là một trong những lĩnh vực ứng dụng lớn nhất cho AI thế hệ. Trong một cuộc phỏng vấn với VentureBeat, CTO Fiona Tan của nhà bán lẻ hàng đầu Wayfair nói rằng sau các thử nghiệm ban đầu, công ty đã phát hiện ra nó "bước lên khá nhiều" và bây giờ "khá tương đương" với Sonnet Claude 3.7 của Anthropic, trước đây là lựa chọn ưa thích cho nhiều nhà phát triển.
Google cũng đã thêm một cửa sổ bối cảnh 1 triệu mã thông báo lớn vào mô hình, cho phép lý luận trên toàn bộ cơ sở mã hoặc tài liệu dài, vượt xa khả năng của các mô hình Openai hoặc Anthropic. . Ưu điểm này cho phép các nhiệm vụ kỹ thuật phần mềm đa tệp phức tạp.
Bổ sung Pro là Gemini 2.5 Flash, được công bố vào '25 tiếp theo và được phát hành chỉ ngày hôm qua. Cũng là một mô hình "suy nghĩ", flash được tối ưu hóa cho độ trễ thấp và hiệu quả chi phí. Bạn có thể kiểm soát mức độ lý do mô hình và hiệu suất cân bằng với ngân sách của bạn. Cách tiếp cận theo cấp độ này phản ánh thêm chiến lược "trí thông minh trên mỗi đô la" do các giám đốc điều hành của Google vô địch.
Velloso cho thấy một biểu đồ tiết lộ rằng trên phổ thông minh, các mô hình Google cung cấp giá trị tốt nhất. "Nếu chúng tôi có cuộc trò chuyện này một năm trước, tôi sẽ không có gì để thể hiện", Velloso thừa nhận, làm nổi bật sự quay vòng nhanh chóng. "Và bây giờ, giống như, trên bảng, chúng tôi, nếu bạn đang tìm kiếm bất kỳ mô hình nào, bất cứ kích thước nào, như, nếu bạn không phải là Google, bạn sẽ mất tiền." Các biểu đồ tương tự đã được cập nhật để tính toán cho các bản phát hành mô hình mới nhất của Openai trong tuần này, tất cả đều hiển thị cùng một điều: các mô hình của Google cung cấp trí thông minh tốt nhất trên mỗi đô la. Xem bên dưới:
Tan của Wayfair cũng quan sát thấy những cải tiến về độ trễ đầy hứa hẹn với 2.5 Pro: "Gemini 2.5 đã trở lại nhanh hơn", khiến nó trở nên khả thi cho "nhiều khả năng của khách hàng", cô nói, điều mà cô nói không phải là trường hợp trước đây với các mô hình khác. Gemini có thể trở thành người mẫu đầu tiên sử dụng Wayfair cho các tương tác của khách hàng này, cô nói.
Khả năng của gia đình Song Tử mở rộng đến đa phương thức, tích hợp liền mạch với các mô hình hàng đầu khác của Google như ImageN 3 (tạo hình ảnh), VEO 2 (tạo video), Chirp 3 (âm thanh) và Lyria mới được công bố (văn bản-to-usic), tất cả đều có thể truy cập thông qua nền tảng của Google cho người dùng doanh nghiệp. Google là công ty duy nhất cung cấp các mô hình phương tiện tổng quát của riêng mình trên tất cả các phương thức trên nền tảng của mình. Microsoft, AWS và Openai phải hợp tác với các công ty khác để làm điều này.
Trụ cột 2: Năng lực cơ sở hạ tầng - động cơ dưới mui xe
Khả năng lặp lại nhanh chóng và phục vụ hiệu quả các mô hình mạnh mẽ này bắt nguồn từ cơ sở hạ tầng vô song của Google, được mài giũa qua nhiều thập kỷ của các dịch vụ quy mô hành tinh. Trọng tâm của điều này là đơn vị xử lý tenxơ (TPU).
Tại '25 tiếp theo, Google đã tiết lộ Ironwood, TPU thế hệ thứ bảy của nó, được thiết kế rõ ràng cho các yêu cầu của suy luận và "mô hình tư duy". Thang đo là rất lớn, được thiết kế riêng cho khối lượng công việc AI yêu cầu: Vỏ gỗ sắt đóng gói hơn 9.000 chip làm mát bằng chất lỏng, cung cấp 42,5 exaflops của công suất tính toán. Các hệ thống ML của Google Amin Vahdat của Google cho biết trên sân khấu tiếp theo rằng đây là "hơn 24 lần" sức mạnh tính toán của siêu máy tính số 1 hiện tại của thế giới.
Google tuyên bố rằng Ironwood cung cấp 2x perf/watt so với Trillium, thế hệ TPU trước đó. Điều này rất có ý nghĩa vì khách hàng doanh nghiệp ngày càng nói chi phí năng lượng và tính khả dụng hạn chế triển khai AI quy mô lớn.
Google Cloud CTO sẽ Grannis nhấn mạnh tính nhất quán của tiến trình này. Năm qua, Google đang thực hiện các cải tiến 10 lần, 8x, 9x, 10x trong bộ xử lý của mình, anh nói với VentureBeat trong một cuộc phỏng vấn, tạo ra cái mà anh gọi là "Luật của Hyper Moore" cho máy gia tốc AI. Ông cho biết khách hàng đang mua lộ trình của Google, không chỉ là công nghệ của nó.
Vị trí của Google đã thúc đẩy khoản đầu tư TPU bền vững này. Nó cần cung cấp năng lượng hiệu quả các dịch vụ lớn như tìm kiếm, YouTube và Gmail cho hơn 2 tỷ người dùng. Điều này đòi hỏi phải phát triển phần cứng tùy chỉnh, tối ưu hóa từ lâu trước khi sự bùng nổ AI hiện tại. Mặc dù meta hoạt động ở quy mô tiêu dùng tương tự, các đối thủ khác thiếu trình điều khiển nội bộ cụ thể này trong một thập kỷ, phát triển phần cứng AI tích hợp theo chiều dọc.
Bây giờ các khoản đầu tư của TPU này đang được đền đáp vì chúng đang thúc đẩy hiệu quả không chỉ cho các ứng dụng của riêng mình mà còn cho phép Google cung cấp Song Tử cho người dùng khác với trí thông minh tốt hơn trên mỗi đô la, tất cả mọi thứ đều bằng nhau.
Tại sao các đối thủ của Google không thể mua bộ xử lý hiệu quả từ NVIDIA, bạn yêu cầu? Đúng là bộ xử lý GPU của NVIDIA thống trị quá trình đào tạo LLMS. Nhưng nhu cầu thị trường đã đẩy giá của các GPU này và NVIDIA tự cắt giảm sức khỏe vì lợi nhuận. Điều này chuyển chi phí đáng kể cho người dùng chip của nó. Ngoài ra, trong khi đào tạo trước đã thống trị việc sử dụng chip AI cho đến nay, điều này đang thay đổi bây giờ các doanh nghiệp thực sự đang triển khai các ứng dụng này. Đây là nơi "suy luận" xuất hiện và ở đây TPU được coi là hiệu quả hơn GPU cho khối lượng công việc ở quy mô.
Khi bạn hỏi các giám đốc điều hành của Google, nơi lợi thế công nghệ chính của họ trong AI đến, họ thường quay trở lại TPU là quan trọng nhất. Mark Lohmeyer, VP, người điều hành cơ sở hạ tầng điện toán của Google, là không rõ ràng: TPU "chắc chắn là một phần khác biệt cao của những gì chúng tôi làm Openai, họ không có những khả năng đó."
Đáng kể, Google trình bày TPU không bị cô lập, mà là một phần của kiến trúc AI doanh nghiệp rộng hơn, phức tạp hơn. Đối với những người trong cuộc kỹ thuật, người ta hiểu rằng hiệu suất hàng đầu trong việc tích hợp các đột phá công nghệ ngày càng chuyên biệt. Nhiều cập nhật đã được chi tiết ở tiếp theo. Vahdat mô tả đây là một "hệ thống siêu máy tính", tích hợp phần cứng (TPU, GPU NVIDIA mới nhất như Blackwell và Vera Rubin sắp tới, lưu trữ nâng cao như HyperDisk Exapools, mọi nơi bộ đệm và lưu trữ nhanh) với ngăn xếp phần mềm thống nhất. Phần mềm này bao gồm Giám đốc cụm để quản lý máy gia tốc, Pathways (thời gian chạy phân tán của Gemini, hiện có sẵn cho khách hàng) và đưa các tối ưu hóa như VLLM đến TPU, cho phép di chuyển khối lượng công việc dễ dàng hơn cho những người trước đây trên các ngăn xếp NVIDIA/PYTORCH. Hệ thống tích hợp này, Vahdat lập luận, là lý do tại sao Gemini 2.0 Flash đạt được trí thông minh cao hơn 24 lần trên mỗi đô la, so với GPT-4O.
Google cũng đang mở rộng phạm vi cơ sở hạ tầng vật lý của mình. Cloud WAN làm cho mạng lưới sợi riêng 2 triệu dặm có độ trễ thấp của Google có sẵn cho các doanh nghiệp, hứa hẹn hiệu suất nhanh hơn tới 40% và tổng chi phí sở hữu (TCO) thấp hơn 40% so với các mạng do khách hàng quản lý.
Hơn nữa, đám mây phân phối của Google (GDC) cho phép Gemini và NVIDIA phần cứng (thông qua quan hệ đối tác Dell) để chạy trong các môi trường có chủ quyền, tại chỗ hoặc thậm chí là không khí-một công ty NVIDIA CEO Jensen Huang được ca ngợi là "hoàn toàn khổng lồ". Tiếp theo, Huang gọi cơ sở hạ tầng của Google là tốt nhất trên thế giới: "Không có công ty nào tốt hơn ở mỗi lớp điện toán so với Google và Google Cloud", ông nói.
Trụ cột 3: Ngăn xếp đầy đủ tích hợp - Kết nối các dấu chấm
Lợi thế chiến lược của Google tăng lên khi xem xét làm thế nào các mô hình và thành phần cơ sở hạ tầng này được dệt thành một nền tảng gắn kết. Không giống như các đối thủ cạnh tranh, thường dựa vào quan hệ đối tác để thu hẹp khoảng cách, Google kiểm soát gần như mọi lớp, cho phép tích hợp chặt chẽ hơn và các chu kỳ đổi mới nhanh hơn.
Vậy tại sao sự tích hợp này lại quan trọng, nếu một đối thủ cạnh tranh như Microsoft có thể đơn giản hợp tác với OpenAI để phù hợp với chiều rộng cơ sở hạ tầng với khả năng mô hình LLM? Những kẻ lừa đảo mà tôi đã nói chuyện nói rằng nó tạo ra một sự khác biệt lớn, và họ đã đưa ra những giai thoại để sao lưu nó.
Hãy cải thiện đáng kể cơ sở dữ liệu doanh nghiệp của Google BigQuery. Cơ sở dữ liệu hiện cung cấp biểu đồ kiến thức cho phép LLM tìm kiếm dữ liệu hiệu quả hơn nhiều và giờ đây nó tự hào hơn năm lần khách hàng của các đối thủ cạnh tranh như Snowflake và Databricks. Yasmeen Ahmad, người đứng đầu sản phẩm phân tích dữ liệu tại Google Cloud, cho biết những cải tiến lớn chỉ có thể vì các nhóm dữ liệu của Google đang hợp tác chặt chẽ với nhóm DeepMind. Họ đã làm việc thông qua các trường hợp sử dụng khó giải quyết và điều này dẫn đến cơ sở dữ liệu cung cấp độ chính xác cao hơn 50 % dựa trên các truy vấn chung, ít nhất là theo thử nghiệm nội bộ của Google, trong việc đưa dữ liệu đúng so với các đối thủ cạnh tranh gần nhất, Ahmad nói với VentureBeat trong một cuộc phỏng vấn. Ahmad cho biết loại tích hợp sâu này trên toàn bộ ngăn xếp là cách Google "nhảy vọt" ngành công nghiệp.
Sự gắn kết nội bộ này tương phản mạnh mẽ với động lực "FreneNe" tại Microsoft. Trong khi Microsoft hợp tác với OpenAI để phân phối các mô hình của mình trên Azure Cloud, Microsoft cũng đang xây dựng các mô hình của riêng mình. Mat Velloso, giám đốc điều hành của Google hiện đang lãnh đạo chương trình Nhà phát triển AI, đã rời Microsoft sau khi thất vọng khi cố gắng sắp xếp các kế hoạch của Windows Copilot với các dịch vụ mô hình của Openai. "Làm thế nào để bạn chia sẻ kế hoạch sản phẩm của mình với một công ty khác thực sự cạnh tranh với bạn, toàn bộ điều này là một mâu thuẫn", ông nhớ lại. "Ở đây tôi ngồi cạnh nhau với những người đang xây dựng các mô hình."
Sự tích hợp này nói lên những gì các nhà lãnh đạo Google coi là lợi thế cốt lõi của họ: khả năng độc đáo của nó để kết nối chuyên môn sâu trên toàn bộ phổ, từ nghiên cứu nền tảng và xây dựng mô hình đến triển khai ứng dụng và cơ sở hạ tầng "quy mô hành tinh".
Vertex AI đóng vai trò là hệ thống thần kinh trung ương cho các nỗ lực AI của doanh nghiệp của Google. Và sự tích hợp vượt xa các dịch vụ của chính Google. Model Garden của Vertex cung cấp hơn 200 mô hình được quản lý, bao gồm Google, Meta's Llama 4 và nhiều tùy chọn nguồn mở. Vertex cung cấp các công cụ để điều chỉnh, đánh giá (bao gồm các evals do AI cung cấp, mà Grannis nhấn mạnh làm máy gia tốc chính), triển khai và giám sát. Khả năng nối đất của nó tận dụng cơ sở dữ liệu AI sẵn sàng AI bên trong khả năng tương thích với cơ sở dữ liệu vectơ bên ngoài. Thêm vào đó các dịch vụ mới của Google vào các mô hình mặt đất với Google Search, công cụ tìm kiếm tốt nhất thế giới.
Tích hợp mở rộng đến không gian làm việc của Google. Các tính năng mới được công bố vào '25 tiếp theo, như "Giúp tôi phân tích" trong các tờ (vâng, các tờ hiện có một công thức "= AI"), tổng quan âm thanh trong các luồng tài liệu và không gian làm việc, tiếp tục đưa các khả năng của Song Tử vào các quy trình công việc hàng ngày, tạo ra một vòng phản hồi mạnh mẽ cho Google sử dụng để cải thiện trải nghiệm.
Trong khi lái ngăn xếp tích hợp của mình, Google cũng vô địch sự cởi mở nơi nó phục vụ hệ sinh thái. Đã điều khiển việc áp dụng Kubernetes, giờ đây họ đang quảng bá JAX cho AI Frameworks và hiện mở các giao thức cho Truyền thông đại lý (A2A) cùng với hỗ trợ cho các tiêu chuẩn hiện có (MCP). Google cũng đang cung cấp hàng trăm đầu nối cho các nền tảng bên ngoài từ bên trong AgentsPace, đó là giao diện hợp nhất mới của Google để nhân viên tìm và sử dụng các đại lý. Khái niệm trung tâm này là hấp dẫn. Trình diễn chính của Agentspace (bắt đầu từ 51:40) minh họa điều này. Google cung cấp cho người dùng các đại lý được xây dựng sẵn hoặc nhân viên hoặc nhà phát triển có thể tự xây dựng các khả năng AI không có mã. Hoặc họ có thể kéo các tác nhân từ bên ngoài thông qua các đầu nối A2A. Nó tích hợp vào trình duyệt Chrome để truy cập liền mạch.
Trụ cột 4: Tập trung vào giá trị doanh nghiệp và hệ sinh thái đại lý
Có lẽ sự thay đổi đáng kể nhất là sự tập trung mài giũa của Google vào việc giải quyết các vấn đề doanh nghiệp cụ thể, đặc biệt là thông qua ống kính của các đại lý AI. Thomas Kurian, Giám đốc điều hành Google Cloud, đã phác thảo ba lý do khách hàng chọn Google: Nền tảng được tối ưu hóa AI, cách tiếp cận đa đám mây mở cho phép kết nối với CNTT hiện tại và tập trung vào doanh nghiệp vào bảo mật, chủ quyền và tuân thủ.
Đại lý là chìa khóa cho chiến lược này. Bên cạnh Agentspace, điều này cũng bao gồm:
- Các khối xây dựng: Bộ phát triển đại lý nguồn mở (ADK), được công bố vào tiếp theo, đã thấy sự quan tâm đáng kể từ các nhà phát triển. ADK đơn giản hóa việc tạo ra các hệ thống đa tác nhân, trong khi giao thức Agent2Agent (A2A) đề xuất nhằm mục đích đảm bảo khả năng tương tác, cho phép các tác nhân được xây dựng với các công cụ khác nhau (Gemini ADK, Langgraph, phi hành đoàn, v.v.) để hợp tác. Grannis của Google cho biết A2A dự đoán các thách thức về quy mô và bảo mật trong tương lai với hàng trăm ngàn đại lý tương tác.
- Các đại lý được xây dựng có mục đích: Google đã giới thiệu các tác nhân chuyên gia được tích hợp vào không gian đại lý (như máy tính xách tay, tạo ý tưởng, nghiên cứu sâu) và nhấn mạnh năm loại chính đạt được lực kéo: các tác nhân khách hàng (công cụ cung cấp năng lượng như Reddit trả lời Đại lý (Hỗ trợ mã Gemini) và các tác nhân bảo mật (được tích hợp vào nền tảng bảo mật mới của Google Unified).
Chiến lược đại lý toàn diện này dường như được cộng hưởng. Cuộc trò chuyện với các giám đốc điều hành tại ba doanh nghiệp lớn khác trong tuần qua, cũng nói một cách ẩn danh do sự nhạy cảm cạnh tranh, đã lặp lại sự nhiệt tình này đối với chiến lược đại lý của Google. Google Cloud Coo Francis Desouza đã xác nhận trong một cuộc phỏng vấn: "Mọi cuộc trò chuyện đều bao gồm AI. Cụ thể, mọi cuộc trò chuyện đều bao gồm các đại lý."
Kevin Smileridge, một giám đốc điều hành tại Deloitte, một người dùng lớn các sản phẩm AI của Google và là nhà phân phối chúng cho các công ty khác, đã mô tả thị trường đại lý là "lấy đất" trong đó các chuyển động sớm của Google với các giao thức và nền tảng tích hợp của nó mang lại lợi thế đáng kể. "Bất cứ ai sẽ ra ngoài trước và nhận được nhiều đại lý thực sự mang lại giá trị - là người sẽ giành chiến thắng trong cuộc đua này," Smilridge nói trong một cuộc phỏng vấn. Ông nói rằng tiến trình của Google là "đáng kinh ngạc", lưu ý rằng các đại lý tùy chỉnh Deloitte được xây dựng chỉ một năm trước đây có thể được nhân rộng "ra khỏi hộp" bằng cách sử dụng Agentspace. Bản thân Deloitte đang xây dựng 100 đại lý trên nền tảng, nhắm mục tiêu các chức năng trung cấp như tài chính, rủi ro và kỹ thuật, ông nói.
Các điểm chứng minh khách hàng đang gắn kết. Tiếp theo, Google đã trích dẫn "500 khách hàng trong sản xuất" với AI thế hệ, tăng từ "hàng chục nguyên mẫu" một năm trước. Nếu Microsoft được coi là con đường phía trước một năm trước, điều đó dường như không còn rõ ràng là trường hợp nữa. Với cuộc chiến PR từ mọi phía, thật khó để nói ai đang thực sự chiến thắng ngay bây giờ. Số liệu khác nhau. Số 500 của Google không thể so sánh trực tiếp với 400 nghiên cứu trường hợp mà Microsoft quảng bá (và Microsoft, để trả lời, nói với VentureBeat vào thời điểm báo chí rằng họ có kế hoạch cập nhật số lượng công khai này lên 600 trong thời gian ngắn, nhấn mạnh tiếp thị mạnh mẽ). Và nếu phân phối AI của Google thông qua các ứng dụng của mình là rất quan trọng, thì phân phối Copilot của Microsoft thông qua việc cung cấp 365 của nó cũng ấn tượng không kém. Cả hai hiện đang đạt hàng triệu nhà phát triển thông qua API.
Nhưng các ví dụ có rất nhiều lực kéo của Google:
- Wendy's: Đã triển khai một hệ thống lái xe AI đến hàng ngàn địa điểm chỉ trong một năm, cải thiện trải nghiệm của nhân viên và chính xác đặt hàng. Google Cloud CTO sẽ Grannis lưu ý rằng hệ thống AI có khả năng hiểu tiếng lóng và lọc ra tiếng ồn nền, làm giảm đáng kể sự căng thẳng của các tương tác khách hàng trực tiếp. Điều đó giải phóng nhân viên để tập trung vào chuẩn bị thực phẩm và chất lượng-một ca làm việc gọi là "một ví dụ tuyệt vời về các hoạt động của AI hợp lý hóa trong thế giới thực."
- Salesforce: Đã công bố một bản mở rộng lớn, cho phép nền tảng của mình chạy trên Google Cloud lần đầu tiên (ngoài AWS), trích dẫn khả năng của Google để giúp họ "đổi mới và tối ưu hóa".
- Honeywell & Intuit: Các công ty trước đây liên kết mạnh mẽ với Microsoft và AWS, hiện, hiện đang hợp tác với Google Cloud trên các sáng kiến AI.
- Các ngân hàng lớn (Deutsche Bank, Wells Fargo): Tận dụng các đại lý và Song Tử để nghiên cứu, phân tích và hiện đại hóa dịch vụ khách hàng.
- Các nhà bán lẻ (Walmart, Mercado Libre, Lowe's): Sử dụng tìm kiếm, đại lý và nền tảng dữ liệu.
Lực kéo doanh nghiệp này thúc đẩy sự tăng trưởng chung của Google Cloud, đã vượt xa AWS và Azure trong ba quý vừa qua. Google Cloud đạt tỷ lệ chạy hàng năm trị giá 44 tỷ đô la vào năm 2024, tăng từ chỉ 5 tỷ đô la trong năm 2018.
Điều hướng các vùng nước cạnh tranh
Google Ascent không có nghĩa là các đối thủ cạnh tranh đang đứng yên. Openai phát hành nhanh trong tuần này của GPT-4.1 (tập trung vào mã hóa và bối cảnh dài) và các-series (lý luận đa phương thức, sử dụng công cụ) thể hiện sự đổi mới liên tục của Openai. Hơn nữa, bản cập nhật tính năng tạo hình ảnh mới của Openai trong GPT-4O đã thúc đẩy sự tăng trưởng lớn chỉ trong tháng trước, giúp Chatpt tiếp cận 800 triệu người dùng. Microsoft tiếp tục tận dụng dấu chân doanh nghiệp rộng lớn của mình và quan hệ đối tác Openai, trong khi nhân học vẫn là một ứng cử viên mạnh mẽ, đặc biệt là trong các ứng dụng mã hóa và ý thức an toàn.
Tuy nhiên, không thể chối cãi rằng tường thuật của Google đã được cải thiện đáng kể. Chỉ một năm trước, Google đã được xem là một đối thủ cạnh tranh nghiêm khắc, tạm dừng, ngớ ngẩn mà có lẽ sắp thổi bay cơ hội lãnh đạo AI. Thay vào đó, sự kiên định độc đáo, tích hợp của nó và sự kiên định của công ty đã tiết lộ một điều khác: Google sở hữu các khả năng đẳng cấp thế giới trên toàn bộ quang phổ-từ Thiết kế chip (TPU) và cơ sở hạ tầng toàn cầu đến nghiên cứu mô hình nền tảng (DeepMind), phát triển ứng dụng (không gian làm việc, tìm kiếm). "Chúng tôi là người siêu âm duy nhất trong cuộc trò chuyện mô hình nền tảng", Desouza tuyên bố thẳng thừng. Quyền sở hữu đầu cuối này cho phép tối ưu hóa (như "trí thông minh trên mỗi đô la") và độ sâu tích hợp mà các mô hình hợp tác hỗ trợ đấu tranh để phù hợp. Các đối thủ cạnh tranh thường cần ghép các mảnh khác nhau, có khả năng tạo ra ma sát hoặc hạn chế tốc độ đổi mới.
Khoảnh khắc của Google bây giờ là
Trong khi cuộc đua AI vẫn còn năng động, Google đã tập hợp tất cả các phần này vào thời điểm chính xác thị trường đòi hỏi họ. Như Smilesridge của Deloitte đã nói, Google đã đạt được một điểm mà khả năng của nó phù hợp hoàn hảo "nơi thị trường yêu cầu nó." Nếu bạn đang chờ Google chứng minh chính mình trong AI Enterprise, bạn có thể đã bỏ lỡ khoảnh khắc - nó đã có. Công ty đã phát minh ra nhiều công nghệ cốt lõi cung cấp năng lượng cho cuộc cách mạng này cuối cùng đã bắt kịp - và hơn thế nữa, giờ đây nó đang thiết lập tốc độ mà các đối thủ cạnh tranh cần phải phù hợp.
Trong video dưới đây, được ghi lại ngay sau tiếp theo, chuyên gia AI Sam Witteveen và tôi phá vỡ cảnh quan hiện tại và các xu hướng mới nổi, và tại sao hệ sinh thái AI của Google cảm thấy mạnh mẽ như vậy:



Google's sneaky move into enterprise AI is pretty cool. From playing catch-up to leading the pack, they've really turned things around. The tech is solid but the interface could be more user-friendly. Still, it's impressive how fast they've moved! 🚀




グーグルのエンタープライズAIへの静かな進出はかなりクールですね。追いつくことからリードするまで、本当に状況を変えました。技術はしっかりしていますが、インターフェースがもう少しユーザーフレンドリーだといいですね。それでも、進むスピードが印象的です!🚀




구글이 기업용 AI로 몰래 진출한 것이 꽤 멋지네요. 따라잡기에서 선두로 나아가 정말 상황을 바꿨어요. 기술은 훌륭하지만 인터페이스가 좀 더 사용자 친화적이면 좋겠어요. 그래도 이렇게 빠르게 움직인 것이 인상적이에요! 🚀




A jogada furtiva do Google no AI empresarial é bem legal. De tentar alcançar a liderar o grupo, eles realmente mudaram as coisas. A tecnologia é sólida, mas a interface poderia ser mais amigável ao usuário. Ainda assim, é impressionante como eles se moveram rápido! 🚀




El movimiento sigiloso de Google en la IA empresarial es bastante genial. De ir a la zaga a liderar el grupo, realmente han dado la vuelta a la situación. La tecnología es sólida pero la interfaz podría ser más amigable para el usuario. Aún así, es impresionante lo rápido que se han movido! 🚀




Google's move into enterprise AI is impressive. From playing catch-up to leading the pack, they've really stepped up their game. But the interface could use some work; it's a bit clunky. Still, I'm excited to see where they go from here! 🚀












