소식 Google은 Enterprise AI의 은밀하게 능가합니다.

Google은 Enterprise AI의 은밀하게 능가합니다.

2025년 4월 20일
EricMartin
5

불과 1 년 전, Google과 Enterprise AI에 대한 버즈는 중립적 인 것처럼 보였습니다. Transformer와 같은 선구적인 기술에도 불구하고, 기술 거인은 Openai의 바이러스 성공, 인류의 코딩 능력, Microsoft의 엔터프라이즈 시장으로의 공격적인 추진에 의해 뒤쳐져있는 것처럼 보였다.

그러나 지난 주 Las Vegas의 Google Cloud에서 지난 주에 빨리 전달 했으며이 장면은 현저히 달랐습니다. 최고 성능의 모델, 강력한 인프라 및 명확한 엔터프라이즈 전략으로 무장 한 자신감있는 Google은 극적인 처리 시간을 발표했습니다. 수석 Google 경영진과의 폐쇄 된 도어 분석가 회의에서 한 분석가는 분위기를 캡슐화했습니다. "이것은 Google이 '잡기'에서 '우리를 잡는'순간처럼 느껴집니다."

구글의 도약

Google은 Enterprise AI Race에서 OpenAI와 Microsoft보다 앞서 나갔을뿐만 아니라 급증했다는이 감정은 이벤트 전반에 걸쳐 눈에 띄었습니다. 그리고 그것은 단지 마케팅 과대 광고가 아닙니다. 지난 1 년 동안 Google은 실행에 집중하여 기술력을 고성능 통합 플랫폼으로 바꾸어 엔터프라이즈 의사 결정자보다 빠르게 승리하고 있습니다. Google은 실제 비즈니스 도전 과제에 맞는 AI 요원의 급격한 AI 에이전트 생태계에 이르기까지 세계에서 가장 강력한 AI 모델에서 급성장하는 AI 요원의 생태계에 이르기까지 진정으로 잃어버린 적이 없지만 깊고 기초적인 개발의시기를 겪고있는 강력한 사례를 만들고 있습니다.

통합 스택이 현재 최대 용량으로 작동하면서 Google은 Enterprise AI Revolution의 다음 단계를 이끌어 낼 준비가되어 있습니다. 다음에 Google 경영진과의 인터뷰에서 그들은 OpenAi, Microsoft 또는 AWS와 같은 경쟁 업체가 복제하기가 어려울 것이라는 인프라 및 모델 통합에 대한 Google의 고유 한 장점을 강조했습니다.

의심의 그림자 : 최근 과거를 인정합니다

Google의 현재 모멘텀을 충분히 이해하려면 최근 과거를 인정해야합니다. Google은 Transformer Architecture를 발명하여 LLMS (Lange Language Models)에서 현대 혁명을 일으키고 10 년 전 SPU (Specialized AI Hardware)에 투자하기 시작하여 현재 업계 최고의 효율성을 유도했습니다. 그러나 불과 2 년 반 전에 구글은 방어력을 발휘하는 것을 발견했습니다.

Openai의 chatgpt는 대중의 상상력과 기업 관심사를 숨막히는 속도로 포착하여 역사상 가장 빠르게 성장하는 앱이되었습니다. 의인성과 같은 경쟁자들은 코딩과 같은 분야에서 틈새 시장을 조각했습니다. 한편, 구글의 공개 움직임은 종종 잠정적이거나 결함이있는 것처럼 보였다. 악명 높은 바드 데모는 2023 년에 울려 퍼지고 역사적으로 부정확 한 묘사를 생성하는 이미지 생성기에 대한 논란은 내부 관료주의 또는 과잉 변형에 의해 잠재적으로 방해가 된 회사의 이야기를 공급했다. 구글은 클라우드 경쟁에서 초기 느린 속도를 반영하여 아마존과 마이크로 소프트의 시장 점유율에서 3 위를 차지했다.

피벗 : 의식적인 결정

그러나 무대 뒤에서도 리더십을 되찾기 위해 최고 수준의 의도적 인 결정에 의해 중대한 변화가 발생했습니다. Google DeepMind의 AI 개발자 플랫폼 용 제품 부사장 인 Mat Velloso는 2024 년 2 월 Microsoft를 떠난 후 Google에 합류했을 때이 중추적 인 순간을 감지했습니다. "내가 Google에 왔을 때, 나는 Sundar [Pichai]와 이야기를 나 when 다. 나는 여기에서 여러 지도자들과 이야기를 나 sphed 다. 그리고 나는 그들이 결정한 순간, 좋아한다.

이 새로운 푸시는 일부 외부인들이 Google을 고갈시키고 있다고 믿는 두려운 "뇌 배수"에 의해 방해받지 않았습니다. 대신, 회사는 2024 년 초에 공격적인 채용, 내부 통일 및 고객 트랙션으로 인해 실행을 두 배로 늘 렸습니다. 경쟁 업체가 화려한 채용을 만들었지 만 Google은 Deepmind CEO Demis Hassabis 및 Google Cloud CEO Thomas Kurian을 포함하여 핵심 AI 리더십을 유지하여 안정성과 깊은 전문 지식을 제공했습니다.

또한 재능은 Google의 집중된 사명으로 흐르기 시작했습니다. 예를 들어 Logan Kilpatrick은 회사 내에서 기초 AI를 구축 할 수있는 기회로 인해 Openai에서 Google로 돌아 왔습니다. 그는 자신이 "제로에서 일대일 경험"이라고 묘사 한 것에서 Velloso에 합류했으며, Gemini를위한 개발자 트랙션을 처음부터 제작했습니다. Kilpatrick은 "이 플랫폼에 실제로 사용자가없고 실제로는 수익이 없다.이 순간에는 아무도 Gemini에 관심이 없다"고 Kilpatrick은 시작점을 회상했다. AI Studio를 시작하고 Gemini 앱과 실험실을 이끌고있는 Josh Woodward와 같은 리더와 원래 "주의가 필요한 모든 것"변압기 용지의 주요 공동 저자 인 Noam Shazeer도 2024 년 후반에 중요한 Gemini 프로젝트의 기술적 공동 리딩으로 ​​회사로 돌아 왔습니다.

기둥 1 : Gemini 2.5 및 사고 모델의 시대

Enterprise Mantra는 "모델에 관한 것이 아니라"로 바뀌었지만, 가장 성능이 좋은 LLM을 갖는 것은 회사의 우수한 연구 및 효율적인 기술 아키텍처의 중요한 성과이며 강력한 성과로 남아 있습니다. Google은 다음 '25 년 몇 주 전에 Gemini 2.5 Pro가 출시 되면서이 맨틀을 결정적으로 주장했습니다. 독립적 인 챗봇 경기장 리더 보드를 신속하게 차지하고 OpenAI의 최신 GPT-4O 변형조차 크게 성능이 뛰어 났으며 인류의 마지막 시험과 같은 악명 높은 추론 벤치 마크를 사용했습니다. Pichai가 기조 연설에서 언급했듯이, "그것은 우리의 가장 지능적인 AI 모델입니다. 그리고 그것은 세계 최고의 모델입니다." 이 모델은 한 달 안에 Gemini 사용량이 80 % 증가했으며 별도로 트윗했습니다.

처음으로 Gemini에 대한 수요가 불에 탔습니다. Gemini 2.5 Pro의 원시 인텔리전스를 제외하고 나에게 깊은 인상을 준 것은 입증 가능한 추론이었습니다. Google은 "사고"기능을 설계하여 모델이 응답을 마무리하기 전에 다단계 추론, 계획 및 자체 반성을 수행 할 수 있도록했습니다. 번호가 매겨진 단계와 서브 룰렛을 사용하는 구조적이고 일관된 사슬의 사슬 (COT)은 DeepSeek 또는 OpenAI의 다른 모델의 출력의 끔찍하거나 불투명 한 특성을 피합니다. 중요한 작업에 대한 출력을 평가하는 기술 팀의 경우이 투명성을 통해 전례없는 신뢰로 검증, 수정 및 리디렉션이 가능합니다.

그러나 더 중요한 것은 엔터프라이즈 사용자의 경우, Gemini 2.5 Pro도 코딩의 격차를 극적으로 마감했는데, 이는 생성 AI의 가장 큰 응용 분야 중 하나입니다. 벤처 비트 (VentureBeat)와의 인터뷰에서 CTO Fiona Tan의 주요 소매 업체 Wayfair는 초기 테스트 후에이 회사는 "약간의 강화"를 발견했으며 이제는 Anthropic의 Claude 3.7 Sonnet과 "매우 비슷한"것으로 밝혀 졌다고 밝혔다.

Google은 또한 모델에 1 백만 개의 토큰 컨텍스트 창을 추가하여 전체 코드베이스 또는 긴 문서에 대한 추론을 가능하게하여 OpenAI 또는 인류 모델의 기능을 훨씬 능가했습니다. (OpenAi는 이번 주에 비슷한 컨텍스트 Windows를 특징으로하는 모델로 이번 주에 응답했지만 벤치 마크는 Gemini 2.5 Pro가 전반적인 추론에서 우위를 유지한다고 제안합니다). 이 장점은 복잡한 멀티 파일 소프트웨어 엔지니어링 작업을 허용합니다.

Pro 보완은 Gemini 2.5 Flash이며 다음 '25 년에 발표되어 어제 출시되었습니다. 또한 "사고"모델 인 Flash는 낮은 대기 시간 및 비용 효율성에 최적화됩니다. 예산으로 모델 이유와 균형 성능의 양을 제어 할 수 있습니다. 이 계층화 된 접근 방식은 Google 경영진이 옹호하는 "달러당 정보"전략을 추가로 반영합니다.

Velloso는 인텔리전스 스펙트럼 전체에서 Google 모델이 최고의 가치를 제공한다는 차트를 보여주었습니다. Velloso는 "1 년 전에이 대화를 나누면… 보여줄 것이 없을 것"이라고 Velloso는 빠른 처리 시간을 강조하면서 인정했다. "그리고 지금, 우리는 전반적으로, 우리는 당신이 어떤 모델을 찾고 있다면, 당신이 Google이 아니라면 돈을 잃고 있다면 어떤 크기를 찾고 있다면." 이번 주 OpenAI의 최신 모델 릴리스를 설명하기 위해 비슷한 차트가 업데이트되었으며, 모두 같은 것을 보여줍니다. Google의 모델은 달러당 최고의 인텔리전스를 제공합니다. 아래를 참조하십시오 :

주어진 가격으로 Google의 모델은 다른 모델보다 약 90 %의 지능을 제공합니다. 출처 : Pierre Bongrand.

Wayfair의 Tan은 또한 2.5 Pro의 유망한 대기 시간 개선을 관찰했습니다. "Gemini 2.5는 더 빨리 돌아 왔으며"더 빨리 돌아 왔습니다. 그녀는 Gemini가 이러한 고객 상호 작용에 최초의 모델이 될 수 있다고 말했다.

Gemini Family의 기능은 MultimoDality로 확장되어 Imagen 3 (이미지 생성), VEO 2 (비디오 생성), Chirp 3 (오디오) 및 새로 발표 된 Lyria (텍스트-음악)와 같은 Google의 다른 주요 모델과 완벽하게 통합됩니다. Google은 플랫폼의 모든 양식에서 자체 생성 미디어 모델을 제공하는 유일한 회사입니다. Microsoft, AWS 및 OpenAi는 다른 회사와 파트너 관계를 맺어야합니다.

Pillar 2 : 인프라 능력 - 후드 아래의 엔진

이러한 강력한 모델이 빠르게 반복하고 효율적으로 제공하는 능력은 수십 년 동안 행성 규모 서비스를 운영하는 Google의 비교할 수없는 인프라에서 비롯된 것입니다. 이것의 중심은 텐서 처리 장치 (TPU)입니다.

다음 '25 년에 Google은 7 세대 TPU 인 Ironwood를 공개했으며 추론 및 "사고 모델"의 요구를 위해 명시 적으로 설계되었습니다. 규모는 엄청나게 AI 워크로드에 맞게 조정되었습니다. Ironwood Pods는 9,000 개가 넘는 액체 냉각 칩을 포장하여 42.5 엑사 플롭의 ​​컴퓨팅 전력을 제공합니다. Google의 ML 시스템 부사장 Amin Vahdat는 다음 단계에서 세계 1 위 슈퍼 컴퓨터의 컴퓨팅 전력 인 "24 배 이상"이라고 말했다.

Google은 Ironwood가 이전 세대의 TPU 인 Trillium에 비해 2x Perf/Watt를 제공한다고 밝혔다. 엔터프라이즈 고객이 점점 더 에너지 비용과 가용성이 대규모 AI 배포를 제한한다고 말하기 때문에 이는 중요합니다.

Google Cloud CTO는 Grannis 가이 진행 상황의 일관성을 강조했습니다. 1 년 동안 Google은 프로세서에서 10 배, 8 배, 9 배, 10 배 향상을 만들고 있으며 벤처 비트에 인터뷰에서 AI 가속기를위한 "하이퍼 무어 법칙"을 만들었습니다. 그는 고객이 기술뿐만 아니라 Google의 로드맵을 구매하고 있다고 말했다.

Google의 입장은 이러한 지속적인 TPU 투자를 촉진했습니다. Search, YouTube 및 Gmail과 같은 대규모 서비스를 20 억 명이 넘는 사용자에게 효율적으로 전원을 공급해야합니다. 이를 위해서는 현재 생성 AI 붐 이전에 맞춤형 최적화 하드웨어를 개발해야했습니다. Meta는 유사한 소비자 규모로 운영되는 반면, 다른 경쟁 업체는 10 년 동안 수직으로 통합 된 AI 하드웨어 개발 동안이 특정 내부 운전자가 부족했습니다.

이제 이러한 TPU 투자는 자체 앱뿐만 아니라 Google이 1 달러당 더 나은 인텔리전스에 다른 사용자에게 Gemini를 제공 할 수 있기 때문에 상환하고 있습니다.

Google의 경쟁 업체가 Nvidia에서 효율적인 프로세서를 구매할 수없는 이유는 무엇입니까? NVIDIA의 GPU 프로세서가 LLM의 프로세스 사전 훈련을 지배하는 것은 사실입니다. 그러나 시장 수요는 이러한 GPU의 가격을 올렸고 Nvidia는 그 자체로 건강을 인하합니다. 이것은 칩 사용자에게 상당한 비용을 통과합니다. 또한 사전 훈련은 지금까지 AI 칩의 사용을 지배했지만 이제는 기업이 실제로 이러한 애플리케이션을 배포하고 있음을 변경하고 있습니다. 여기에서 "추론"이 들어오는 곳이며, 여기서는 TPU가 스케일로 워크로드에 대한 GPU보다 더 효율적인 것으로 간주됩니다.

Google 경영진에게 AI의 주요 기술 이점이 어디에서 왔는지 물어 보면 일반적으로 가장 중요한 TPU로 돌아갑니다. Google의 컴퓨팅 인프라를 운영하는 부사장 인 Mark Lohmeyer는 명백했습니다. TPU는 "우리가하는 일의 분명히 차별화 된 부분입니다.

중요하게도 Google은 TPU가 분리되지 않고 더 넓고 복잡한 엔터프라이즈 AI 아키텍처의 일부로 제시합니다. 기술 내부자의 경우 최상위 성능이 점점 더 전문화 된 기술 혁신을 통합하는 데 달려 있다는 것이 이해됩니다. 많은 업데이트가 다음에 자세히 설명되었습니다. Vahdat는 이것을 "슈퍼 컴퓨팅 시스템", 하드웨어 통합 (TPU, Blackwell 및 다가오는 Vera Rubin과 같은 최신 NVIDIA GPUS, HyperDisk Exapools, 어디에서나 캐시 캐시 및 빠른 스토리지와 같은 고급 스토리지)를 통합하여 통합 하드웨어 (TPU)로 설명했습니다. 이 소프트웨어에는 가속기 관리, Pathways (Gemini의 분산 런타임, 현재 고객이 사용할 수 있음)를위한 클러스터 디렉터가 포함되어 있으며 VLLM과 같은 최적화를 TPU로 가져 오므로 이전에 NVIDIA/PYTORCH Stacks의 작업량 마이그레이션이 더 쉬워집니다. Vahdat에 따르면이 통합 시스템은 Gemini 2.0 Flash가 GPT-4O에 비해 달러당 24 배 높은 인텔리전스를 달성하는 이유라고 Vahdat은 주장했다.

Google은 또한 물리적 인프라 범위를 확장하고 있습니다. Cloud Wan은 기업이 Google의 2 백만 마일 개인 파이버 네트워크를 이용할 수있게 해주므로 고객 관리 네트워크에 비해 최대 40% 더 빠른 성능과 40% 낮은 총 소유 비용 (TCO)을 약속합니다.

또한 Google 분산 클라우드 (GDC)를 통해 Gemini 및 Nvidia 하드웨어 (Dell 파트너십을 통해)는 주권, 온-프레미스 또는 공기 갭 환경에서 실행할 수 있습니다. NVIDIA CEO 인 Jensen Huang은 최첨단 AI를 산업과 국가를 규제하기위한 "전적으로 거대한"것으로 유명합니다. 다음으로 Huang은 Google의 인프라를 세계 최고라고 불렀습니다. "Google 및 Google Cloud보다 컴퓨팅의 모든 계층에서 더 나은 회사는 없습니다."

Pillar 3 : 통합 된 풀 스택 - 도트 연결

이러한 모델과 인프라 구성 요소가 응집력있는 플랫폼으로 어떻게 짜여져 있는지 고려할 때 Google의 전략적 이점이 증가합니다. Google은 종종 파트너십에 의존하는 경쟁 업체와 달리 거의 모든 계층을 제어하여 통합이 더 엄격하고 혁신주기를 더욱 발전시킬 수 있습니다.

그렇다면 Microsoft와 같은 경쟁자가 OpenAI와 파트너 관계를 맺어 LLM 모델 능력과 인프라 폭을 일치시키기 위해 이러한 통합이 중요한 이유는 무엇입니까? 내가 말한 Googlers는 큰 차이를 만들어 내고 일화를 뒷받침 할 것이라고 말했다.

Google의 Enterprise Database BigQuery를 크게 개선하십시오. 데이터베이스는 이제 LLM이 데이터를 훨씬 더 효율적으로 검색 할 수있는 지식 그래프를 제공하며 이제는 Snowflake 및 Databricks와 같은 경쟁 업체의 고객의 5 배 이상을 자랑합니다. Google Cloud의 Data Analytics 제품 책임자 인 Yasmeen Ahmad는 Google의 데이터 팀이 DeepMind 팀과 긴밀히 협력하고 있었기 때문에 큰 개선이 가능하다고 말했다. 그들은 해결하기 어려운 사용 사례를 통해 일했으며, 이로 인해 Google의 내부 테스트에 따르면 가장 가까운 경쟁사보다 올바른 데이터를 얻는 데있어 공통 쿼리를 기반으로 50 % 더 많은 정확도를 제공했다고 Ahmad는 인터뷰에서 VentureBeat에 말했습니다. Ahmad는 스택 전체에 걸쳐 이런 종류의 깊은 통합은 Google이 업계를 "도약"한 방식이라고 말했다.

이 내부 응집력은 Microsoft의 "Frenemies"역학과 크게 대조됩니다. Microsoft는 OpenAI와 파트너 관계를 맺고 Azure Cloud에 모델을 배포하지만 Microsoft는 자체 모델을 구축하고 있습니다. 이제 AI 개발자 프로그램을 이끌고있는 Google 경영진 인 Mat Velloso는 OpenAI의 모델 오퍼링과 Windows Copilot 계획을 정렬하려고 노력한 후 Microsoft를 떠났습니다. "실제로 당신과 실제로 당신과 경쟁하는 다른 회사와 제품 계획을 공유하는 방법은 무엇입니까? "여기서 나는 모델을 만들고있는 사람들과 나란히 앉아있다."

이 통합은 Google 리더가 자신의 핵심 이점으로보고있는 내용을 말합니다. 기초 연구 및 모델 구축에서 "행성 규모"응용 프로그램 배포 및 인프라 설계에 이르기까지 전체 스펙트럼에서 깊은 전문 지식을 연결하는 독특한 기능.

Vertex AI는 Google 기업 AI 노력의 중추 신경계 역할을합니다. 그리고 통합은 Google 자체 제품을 넘어선 것입니다. Vertex의 Model Garden은 Google, Meta 's Llama 4 및 수많은 오픈 소스 옵션을 포함하여 200 개가 넘는 선별 된 모델을 제공합니다. Vertex는 튜닝, 평가 (Grannis가 주요 가속기로 강조한 AI 기반 EVAL 포함), 배포 및 모니터링을위한 도구를 제공합니다. 접지 기능은 외부 벡터 데이터베이스와의 호환성과 함께 내부 AI-Ready 데이터베이스를 활용합니다. Google의 새로운 오퍼링에 세계 최고의 검색 엔진 인 Google 검색을 통해 지상 모델에 추가하십시오.

통합은 Google 작업 공간으로 확장됩니다. 다음 '25 년에 시트 (예, 시트에는 "= AI"공식이 있음), 문서 및 작업 공간 흐름의 오디오 개요가 있으며, Gemini의 기능을 일일 워크 플로에 추가로 포함시켜 Google에 대한 강력한 피드백 루프를 만들기 위해 경험을 향상시킬 수 있도록 강력한 피드백을 만들었습니다.

Google은 통합 스택을 운전하는 동안 생태계에 서비스를 제공하는 곳에서 개방성을 챔피언합니다. Kubernetes 채택을 주도하고있는 것은 이제 AI 프레임 워크를위한 JAX를 홍보하고 있으며 현재 기존 표준 (MCP) 지원과 함께 에이전트 커뮤니케이션 (A2A)을위한 공개 프로토콜을 홍보하고 있습니다. Google은 또한 직원이 대리인을 찾고 사용할 수있는 Google의 새로운 통합 인터페이스 인 Agentspace 내에서 외부 플랫폼에 수백 개의 커넥터를 제공하고 있습니다. 이 허브 개념은 설득력이 있습니다. 에이전트 공간의 기조 연설 (51:40에서 시작)은 이것을 보여줍니다. Google은 사용자에게 사전 구축 된 에이전트를 제공하거나 직원 또는 개발자는 No-Code AI 기능을 사용하여 자체적으로 구축 할 수 있습니다. 또는 A2A 커넥터를 통해 외부에서 에이전트를 당길 수 있습니다. 원활한 액세스를 위해 Chrome 브라우저에 통합됩니다.

기둥 4 : 엔터프라이즈 가치 및 에이전트 생태계에 중점을 둡니다.

아마도 가장 중요한 변화는 특히 AI 에이전트의 렌즈를 통해 구체적인 엔터프라이즈 문제를 해결하는 데 Google의 날카로운 초점입니다. Google Cloud CEO 인 Thomas Kurian은 고객이 Google을 선택하는 세 가지 이유를 설명했습니다. AI-OP 최적화 플랫폼, 기존 IT와의 연결을 허용하는 열린 멀티 클라우드 접근 방식 및 보안, 주권 및 규정 준수에 대한 엔터프라이즈의 준비된 초점.

에이전트는이 전략의 핵심입니다. 에이전트 공간 외에도 다음과 같은 포함됩니다.

  • 빌딩 블록 : NEXT에서 발표 된 오픈 소스 에이전트 개발 키트 (ADK)는 이미 개발자들로부터 큰 관심을 보였습니다. ADK는 다중 에이전트 시스템 생성을 단순화하는 반면, 제안 된 Agent2Agent (A2A) 프로토콜은 상호 운용성을 보장하는 것을 목표로하며, 다른 도구 (Gemini ADK, Langgraph, Crewai 등)가 공동 작업 할 수 있도록합니다. Google의 Grannis는 A2A는 잠재적으로 수십만 명의 상호 작용 에이전트와 함께 미래의 규모와 보안 문제를 예상한다고 말했다.
  • 목적에 달하는 에이전트 : Google은 Agentpace (Notebooklm, Idea Generation, Deep Research)에 통합 된 전문가 에이전트를 선보이며 견인력을 얻는 5 가지 주요 범주 (Reddit Answers, Verizon의 지원 어시스턴트, Wendy의 Drive-Stru와 같은 파워링 도구), Creative Agents (WPP, Brandtech, Sphere), Mattifor in Matter, Spoterns, Spoterns, Spoterns, Bayer의 Drimings, Bayer). (Gemini Code Assist) 및 보안 에이전트 (새로운 Google Unified Security 플랫폼에 통합).

이 포괄적 인 에이전트 전략은 공명하는 것으로 보입니다. 지난 주 3 개의 다른 대기업에서 경영진과의 대화와 경쟁 ​​민감성으로 인해 익명으로 말하면서 Google 에이전트 전략에 대한 이러한 열정을 반영했습니다. Google Cloud COO Francis Desouza는 인터뷰에서 확인했습니다. "모든 대화에는 AI가 포함됩니다. 특히 모든 대화에는 에이전트가 포함됩니다."

Google의 AI 제품의 대규모 사용자 인 Deloitte의 경영진이자 다른 회사에 유통 업체 인 Kevin Laughridge는 에이전트 시장을 프로토콜과 통합 플랫폼으로 이동하는 "랜드 횡령"으로 에이전트 시장을 설명했습니다. Laughridge는 인터뷰에서 "먼저 나가서 실제로 가치를 제공하는 가장 많은 요원을 얻는 사람은이 레이스에서 누가 이길 것인지"라고 말했다. 그는 Google의 진행 상황이 "놀랍다"고 말했다. Deloitte가 1 년 전에 만든 커스텀 에이전트는 이제 Agentspace를 사용하여 "상자 밖으로"복제 될 수 있다고 지적했다. Deloitte 자체는 플랫폼에 100 명의 에이전트를 구축하여 금융, 위험 및 엔지니어링과 같은 중간 사무실 기능을 목표로하고 있다고 그는 말했다.

고객 증거 포인트가 장착됩니다. 다음으로 Google은 1 년 전 "수십 개의 프로토 타입"에서 발전 AI를 통해 "500 플러스 프로덕션 고객"을 인용했습니다. Microsoft가 1 년 전에 앞으로 나아가는 것으로 인식 되었다면 더 이상 그 사실이 분명하지 않은 것 같습니다. 모든면에서 PR 전쟁을 감안할 때, 누가 지금 당장 실제로 이기고 있는지 말하기는 어렵습니다. 지표는 다양합니다. Google의 500 개 숫자는 400 건의 사례 연구와 직접 비교할 수 없으며 Microsoft는 Press Time에서 VentureBeat 에이 공개 수를 600으로 업데이트하여 강렬한 마케팅을 강조 할 계획이라고 벤처 비트에 말했다). 또한 앱을 통한 Google의 AI 배포가 중요하다면 365 개의 오퍼링을 통한 Microsoft의 Copilot 배포도 마찬가지로 인상적입니다. 둘 다 이제 API를 통해 수백만 명의 개발자를 때리고 있습니다.

그러나 Google의 견인력에 대한 예 :

  • Wendy 's : AI 드라이브 스루 시스템을 1 년 만에 수천 곳에 배치하여 직원 경험과 주문 정확도를 향상 시켰습니다. Google Cloud CTO Will Grannis는 AI 시스템이 속어를 이해하고 배경 노이즈를 필터링하여 라이브 고객 상호 작용의 스트레스를 크게 줄일 수 있다고 지적했습니다. 이는 직원들이 음식 준비와 품질에 집중할 수 있도록 해방됩니다.
  • Salesforce : 주요 확장을 발표하여 Google이 처음으로 Google Cloud에서 플랫폼을 실행할 수있게 해주었습니다 (Google은 혁신 및 최적화”를 돕는 Google의 능력을 언급했습니다.
  • Honeywell & Intuit : 회사는 이전에 Microsoft 및 AWS와 각각 강력하게 관련되어 있으며 이제 AI 이니셔티브에서 Google Cloud와 파트너 관계를 맺고 있습니다.
  • 주요 은행 (Deutsche Bank, Wells Fargo) : 연구, 분석 및 현대화 고객 서비스를 위해 에이전트 및 Gemini를 활용합니다.
  • 소매 업체 (Walmart, Mercado Libre, Lowe 's) : 검색, 에이전트 및 데이터 플랫폼 사용.

이 Enterprise Traction은 지난 3 분기 동안 AWS와 Azure를 능가하는 Google Cloud의 전반적인 성장에 영향을 미칩니다. Google Cloud는 2024 년에 2018 년 50 억 달러에서 440 억 달러의 연간 실행 금리에 도달했습니다.

경쟁적인 물을 탐색합니다

Google의 상승은 경쟁 업체가 여전히 서 있다는 것을 의미하지는 않습니다. OpenAi의 빠른 출시 이번 주 GPT-4.1 (코딩 및 긴 상황에 중점을 둔)과 O 시리즈 (멀티 모달 추론, 도구 사용)는 OpenAI의 지속적인 혁신을 보여줍니다. 또한 GPT-4O의 OpenAi의 새로운 이미지 생성 기능 업데이트 업데이트는 지난 달 동안 막대한 성장을 촉발하여 ChatGpt가 8 억 명의 사용자에게 도달 할 수 있도록 도와줍니다. Microsoft는 광대 한 엔터프라이즈 풋 프린트 및 OpenAi 파트너십을 계속 활용하는 반면, 인류는 특히 코딩 및 안전 의식 애플리케이션에서 강력한 경쟁자로 남아 있습니다.

그러나 Google의 이야기가 놀랍게 개선 된 것은 논란의 여지가 없습니다. 불과 1 년 전, Google은 AI를 전혀 이끌어 줄 수있는 기회를 날려 버리는 경쟁자를 멈추고 멈추는 경쟁자로 여겨졌습니다. 대신, 독특하고 통합 된 스택 및 기업의 확고함은 다른 것을 공개했습니다. Google은 칩 디자인 (TPU) 및 글로벌 인프라 (DeepMind), 애플리케이션 개발 (작업 영역, 검색, YouTube) 및 Enterprise Cloud Services (Vertex AI, BigQuery, Agentspace)에서 전체 스펙트럼 전반에 걸쳐 세계적 수준의 기능을 보유하고 있습니다. Desouza는 "우리는 기초 모델 대화에있는 유일한 초고 문자입니다."Desouza는 평평하게 말했습니다. 이 엔드 투 엔드 소유권은 파트너십 관련 모델이 어울리는 데 어려움을 겪는 최적화 ( "달러당 지능")와 통합 깊이를 허용합니다. 경쟁 업체는 종종 다른 조각을 함께 꿰매어 잠재적으로 마찰을 일으키거나 혁신 속도를 제한해야합니다.

Google의 순간은 지금입니다

AI 경주는 역동적 인 반면, Google은 시장이 요구하는 정확한 순간 에이 모든 부분을 조립했습니다. Deloitte의 Laughridge가 말한 것처럼 Google은 "시장이 요구 한 곳"기능이 완벽하게 맞춰진 곳을 쳤다. Google이 Enterprise AI에서 스스로를 증명하기를 기다리고 있다면, 당신은 그 순간을 놓쳤을 것입니다. 이미 가지고 있습니다. 이 혁명을 강화하는 많은 핵심 기술을 발명 한 회사는 마침내 따라 잡은 것으로 보입니다. 그 이상으로 경쟁 업체가 일치하는 데 필요한 속도를 설정하고 있습니다.

아래의 비디오에서 다음에 기록 된 AI 전문가 Sam Witteveen과 나는 현재 환경과 신흥 트렌드를 분류하고 Google의 AI 생태계가 왜 그렇게 강하게 느끼는지를 분류합니다.

관련 기사
MCP通過工具和數據標準化AI連接:出現了新協議 MCP通過工具和數據標準化AI連接:出現了新協議 如果您正在潛入人工智能(AI)世界,那麼您可能會注意到,獲得不同的AI模型,數據源和工具可以很好地播放,這是多麼重要。這就是模型上下文協議(MCP)所在的地方,它是標準化AI連接性的遊戲改變者。 t
虛擬地探索地球:Chatgpt和Google Earth度假計劃者 虛擬地探索地球:Chatgpt和Google Earth度假計劃者 曾經有過逃避日常磨碎的衝動,但發現自己在去哪裡陷入困境?讓我們深入研究一個很酷的方法,以計劃下一個度假勝地,而無需踏出門外。通過利用Chatgpt和Google Earth的力量,您可以踏上一個既令人興奮又相關的虛擬假期
Chatgpt主意使用用戶名在某些人中引發了“令人毛骨悚然”的問題 Chatgpt主意使用用戶名在某些人中引發了“令人毛骨悚然”的問題 Chatgpt的一些用戶最近遇到了一個奇怪的新功能:聊天機器人偶爾在解決問題時使用他們的名字。這不是以前其通常行為的一部分,許多用戶報告Chatgpt提到了他們的名字,而沒有被告知該怎麼稱呼。意見
의견 (10)
0/200
JeffreyHarris
JeffreyHarris 2025년 4월 20일 오전 10시 35분 9초 GMT

Google's sneaky move into enterprise AI is pretty cool. From playing catch-up to leading the pack, they've really turned things around. The tech is solid but the interface could be more user-friendly. Still, it's impressive how fast they've moved! 🚀

WillieJones
WillieJones 2025년 4월 22일 오전 12시 13분 31초 GMT

グーグルのエンタープライズAIへの静かな進出はかなりクールですね。追いつくことからリードするまで、本当に状況を変えました。技術はしっかりしていますが、インターフェースがもう少しユーザーフレンドリーだといいですね。それでも、進むスピードが印象的です!🚀

WillBaker
WillBaker 2025년 4월 22일 오전 5시 12분 49초 GMT

구글이 기업용 AI로 몰래 진출한 것이 꽤 멋지네요. 따라잡기에서 선두로 나아가 정말 상황을 바꿨어요. 기술은 훌륭하지만 인터페이스가 좀 더 사용자 친화적이면 좋겠어요. 그래도 이렇게 빠르게 움직인 것이 인상적이에요! 🚀

CharlesMartinez
CharlesMartinez 2025년 4월 22일 오전 6시 10분 16초 GMT

A jogada furtiva do Google no AI empresarial é bem legal. De tentar alcançar a liderar o grupo, eles realmente mudaram as coisas. A tecnologia é sólida, mas a interface poderia ser mais amigável ao usuário. Ainda assim, é impressionante como eles se moveram rápido! 🚀

JasonRoberts
JasonRoberts 2025년 4월 22일 오전 7시 22분 36초 GMT

El movimiento sigiloso de Google en la IA empresarial es bastante genial. De ir a la zaga a liderar el grupo, realmente han dado la vuelta a la situación. La tecnología es sólida pero la interfaz podría ser más amigable para el usuario. Aún así, es impresionante lo rápido que se han movido! 🚀

FredAnderson
FredAnderson 2025년 4월 22일 오후 3시 53분 12초 GMT

Google's move into enterprise AI is impressive. From playing catch-up to leading the pack, they've really stepped up their game. But the interface could use some work; it's a bit clunky. Still, I'm excited to see where they go from here! 🚀

Back to Top
OR