

Google révèle de nouvelles améliorations de Kubernetes et GKE pour l'innovation de l'IA
11 avril 2025
JosephScott
58

La poussée de Google dans l'IA n'est pas un secret et pour raison. Comme l'a souligné le PDG de Sundar Pichai lors d'une réunion interne avant les vacances de l'année dernière, "en 2025, nous devons nous concentrer sans relâche sur la déverrouillage des avantages de la technologie [IA] et la résolution de problèmes d'utilisateurs réels." Cette vision pousse Google à améliorer considérablement ses offres, en particulier dans les services cloud et l'intégration de l'IA.
Lors de l'événement Google Cloud 2025 à Las Vegas, Google a dévoilé des progrès substantiels dans Kubernetes et Google Kubernetes Engine (GKE). Ces mises à jour visent à permettre aux équipes et aux développeurs de plate-forme pour exploiter l'IA tout en tirant parti de leur expertise existante de Kubernetes. Gabe Monroy, vice-président de Google de Cloud Runtime, le dit succinctement: "Vos compétences et investissements Kubernetes ne sont pas seulement pertinents; ils sont votre superpuissance AI."
Alors, quelles sont exactement ces nouvelles avancées? Plongeons-nous dans les détails.
Gestion simplifiée des cluster AI: GKE introduit la gestion simplifiée du cluster d'IA via des outils tels que Cluster Director for GKE, précédemment connu sous le nom de cluster Hypercompute. Cet outil permet aux utilisateurs de déployer et de gérer de grands grappes de machines virtuelles (VM) avec des GPU NVIDIA attachés, ce qui facilite la mise à l'échelle des charges de travail AI efficacement.
Un service à venir connexe est le directeur de cluster pour Slurm. Slurm, un planificateur de travaux open source et un gestionnaire de charge de travail pour Linux, sera plus facile à fournir et à utiliser grâce à l'interface utilisateur et aux API simplifiées de Google. Ceux-ci comprendront des plans pour les charges de travail typiques avec des logiciels préconfigurés, assurant des déploiements fiables et reproductibles.
Déploiement optimisé du modèle d'IA: les nouvelles fonctionnalités de GKE se concentrent également sur l'optimisation du déploiement du modèle d'IA. La passerelle GKE Inférence QuickStart et Gke Inference Simplify la sélection et le déploiement des modèles AI, garantissant qu'ils fonctionnent bien avec l'équilibrage de la charge intelligent.
Gabe Monroy a souligné la tendance de l'innovation de l'IA se croit avec l'informatique traditionnelle, en particulier dans le domaine de l'inférence. Il a noté: "Nous constatons une tendance claire à l'ère de l'IA: une innovation incroyable se produit lorsque le calcul traditionnel interagit avec les réseaux de neurones - autrement connu sous le nom de« inférence ». Les sociétés opérant à la pointe de Kubernetes et de l'IA, comme Livex et Moloco, gèrent l'inférence de l'IA sur GKE. "
Inférence rentable: GKE fait des progrès dans une inférence rentable avec la passerelle d'inférence. Monroy affirme que cette approche peut réduire les coûts de service jusqu'à 30%, réduire la latence jusqu'à 60% et augmenter le débit de 40% par rapport aux autres offres de Kubernetes gérées et open source. Bien que ce soient des chiffres prometteurs, nous devrons les voir en action pour confirmer leur impact.
L'équilibrage de la charge consciente du modèle est un élément clé de cette stratégie. Compte tenu des longueurs de réponse variable dans les modèles d'IA, les méthodes d'équilibrage traditionnelles comme le rond-robin peuvent être inefficaces. La passerelle d'inférence, cependant, offre une passerelle consciente du modèle optimisée pour l'IA, avec un routage avancé vers différentes versions de modèle.
Amélioration de l'efficacité des ressources: GKE se concentre également sur l'amélioration de l'efficacité des ressources. L'autopilote GKE offre désormais une planification plus rapide des pods, des temps de réaction à l'échelle plus rapides et une meilleure capacité de la bonne capacité. Cela signifie que les utilisateurs peuvent gérer plus de trafic avec les mêmes ressources ou maintenir le trafic existant avec moins de ressources. Google affirme qu'avec l'amélioration du pilote automatique, la capacité de cluster sera toujours de bonne taille.
Actuellement, le pilote automatique comprend un outil de configuration de cluster de meilleure pratique et une plate-forme de calcul optimisée par conteneurs qui ajuste automatiquement la capacité pour correspondre aux charges de travail. Cependant, il ne taille pas les clusters existants à droite sans configuration spécifique. À partir du troisième trimestre, la plate-forme de calcul optimisée par les conteneurs du pilote automatique sera également disponible pour les grappes GKE standard sans avoir besoin d'une configuration spécifique, qui pourrait changer la donne.
Assistation du cloud Gemini compatible compatible AI: le débogage et le diagnostic des problèmes d'application peuvent ralentir considérablement l'innovation. Pour y remédier, Google a introduit Gemini Cloud Assist, offrant une assistance alimentée par l'IA tout au long du cycle de vie de l'application. L'aperçu privé de Gemini Cloud Assist Investigations aide les utilisateurs à comprendre rapidement les causes profondes et à résoudre les problèmes.
La meilleure partie? Les enquêtes d'assistance seront accessibles directement à partir de la console GKE, réduisant le temps de dépannage et libérant plus de temps pour l'innovation. Il vous permettra de diagnostiquer les problèmes de pod et de cluster de la console GKE sur divers services Google Cloud, y compris les nœuds, IAM et les équilibreurs de charge. Vous pouvez afficher les journaux et les erreurs sur plusieurs services GKE, contrôleurs, gousses et nœuds sous-jacents. Inscrivez-vous à l'aperçu privé pour découvrir cette fonctionnalité de première main.
Dans le cadre de sa stratégie technologique émergente plus large, Google se positionne comme un leader dans les plateformes optimisées en AI. Ces développements permettent aux entreprises de toutes les industries d'utiliser plus efficacement l'IA, ce qui stimule l'innovation et l'efficacité des opérations et des expériences clients.
Par exemple, Intuit exploite le document et les Gémeaux de Google Cloud pour simplifier la préparation des revenus pour des millions d'utilisateurs de Turbotax. Reddit utilise Gemini via Vertex AI, le constructeur d'agent AI de Google, pour améliorer Reddit Answers, une nouvelle plate-forme de conversation alimentée par AI conçue pour améliorer l'expérience de la page d'accueil.
Google peut-il exécuter avec succès ces transformations compatibles AI? Seul le temps nous le dira. Comme Pichai l'a déclaré en décembre, "dans l'histoire, vous n'avez pas toujours besoin d'être le premier, mais vous devez bien exécuter et être vraiment le meilleur de la classe en tant que produit. Je pense que c'est ce qu'est 2025."
Article connexe
Décodage d'Oshi No Ko's `` Idol '': une analyse de plongée profonde
Le thème d'ouverture de * Oshi no ko *, intitulé "Idol", transcende juste un morceau J-pop accrocheur; C'est un chef-d'œuvre narratif qui plonge profondément dans les complexités de la célébrité, de l'identité et des lignes souvent brutes entre l'image publique d'une idole et la réalité privée. Cette chanson ouvre non seulement la scène pour
Réaction de fanfiction de Wattpad: prise hilarante de Timi Saint
Si vous êtes d'humeur pour une balade sauvage remplie de rires et de ces moments dignes de grincer des dents, alors vous devez consulter la dernière escapade YouTube de Timi Saint. Cette étoile montante est connue pour ses réactions non filtrées et son talent pour apporter l'humour relatable à l'écran. Dans sa nouvelle vidéo, Timi Di
Comment nous utilisons l'IA pour aider les villes à lutter contre la chaleur extrême
Il semble que 2024 pourrait simplement battre le record de l'année la plus chaude à ce jour, dépassant 2023. Cette tendance est particulièrement difficile pour les gens vivant dans les îlots de chaleur urbaine - ces endroits dans les villes où le béton et l'asphalte absorbent les rayons du soleil, puis rayonnent la chaleur. Ces zones peuvent se réchauffer
Commentaires (45)
0/200
BenRoberts
12 avril 2025 12:27:35 UTC
The new Kubernetes and GKE enhancements are pretty cool for AI projects! It's made deploying and managing AI workloads a breeze. Though, it can be a bit overwhelming for beginners, so maybe Google could offer more tutorials?
0
LucasWalker
12 avril 2025 12:27:35 UTC
新しいKubernetesとGKEの強化は、AIプロジェクトに最適ですね!AIワークロードのデプロイと管理が簡単になりました。ただ、初心者には少し圧倒的かもしれないので、Googleがもっとチュートリアルを提供してくれると良いですね。
0
DonaldSanchez
12 avril 2025 12:27:35 UTC
새로운 Kubernetes와 GKE 개선은 AI 프로젝트에 정말 좋네요! AI 워크로드를 배포하고 관리하는 것이 훨씬 쉬워졌어요. 다만, 초보자에게는 조금 압도적일 수 있으니, 구글이 더 많은 튜토리얼을 제공하면 좋겠어요.
0
KennethKing
12 avril 2025 12:27:35 UTC
As novas melhorias do Kubernetes e GKE são ótimas para projetos de IA! Tornou o deploy e a gestão de cargas de trabalho de IA muito mais fáceis. No entanto, pode ser um pouco esmagador para iniciantes, então talvez o Google pudesse oferecer mais tutoriais?
0
AnthonyPerez
12 avril 2025 12:27:35 UTC
Las nuevas mejoras de Kubernetes y GKE son geniales para proyectos de IA. Ha facilitado mucho el despliegue y la gestión de cargas de trabajo de IA. Aunque puede ser un poco abrumador para principiantes, ¿quizás Google podría ofrecer más tutoriales?
0
KevinScott
12 avril 2025 07:56:26 UTC
Google's focus on AI with Kubernetes and GKE is impressive, but I'm still figuring out how to use it effectively. It's like they're speaking a different language sometimes. Can anyone give me a simple guide or something? I want to harness this power, but it's a bit overwhelming right now!
0






La poussée de Google dans l'IA n'est pas un secret et pour raison. Comme l'a souligné le PDG de Sundar Pichai lors d'une réunion interne avant les vacances de l'année dernière, "en 2025, nous devons nous concentrer sans relâche sur la déverrouillage des avantages de la technologie [IA] et la résolution de problèmes d'utilisateurs réels." Cette vision pousse Google à améliorer considérablement ses offres, en particulier dans les services cloud et l'intégration de l'IA.
Lors de l'événement Google Cloud 2025 à Las Vegas, Google a dévoilé des progrès substantiels dans Kubernetes et Google Kubernetes Engine (GKE). Ces mises à jour visent à permettre aux équipes et aux développeurs de plate-forme pour exploiter l'IA tout en tirant parti de leur expertise existante de Kubernetes. Gabe Monroy, vice-président de Google de Cloud Runtime, le dit succinctement: "Vos compétences et investissements Kubernetes ne sont pas seulement pertinents; ils sont votre superpuissance AI."
Alors, quelles sont exactement ces nouvelles avancées? Plongeons-nous dans les détails.
Gestion simplifiée des cluster AI: GKE introduit la gestion simplifiée du cluster d'IA via des outils tels que Cluster Director for GKE, précédemment connu sous le nom de cluster Hypercompute. Cet outil permet aux utilisateurs de déployer et de gérer de grands grappes de machines virtuelles (VM) avec des GPU NVIDIA attachés, ce qui facilite la mise à l'échelle des charges de travail AI efficacement.
Un service à venir connexe est le directeur de cluster pour Slurm. Slurm, un planificateur de travaux open source et un gestionnaire de charge de travail pour Linux, sera plus facile à fournir et à utiliser grâce à l'interface utilisateur et aux API simplifiées de Google. Ceux-ci comprendront des plans pour les charges de travail typiques avec des logiciels préconfigurés, assurant des déploiements fiables et reproductibles.
Déploiement optimisé du modèle d'IA: les nouvelles fonctionnalités de GKE se concentrent également sur l'optimisation du déploiement du modèle d'IA. La passerelle GKE Inférence QuickStart et Gke Inference Simplify la sélection et le déploiement des modèles AI, garantissant qu'ils fonctionnent bien avec l'équilibrage de la charge intelligent.
Gabe Monroy a souligné la tendance de l'innovation de l'IA se croit avec l'informatique traditionnelle, en particulier dans le domaine de l'inférence. Il a noté: "Nous constatons une tendance claire à l'ère de l'IA: une innovation incroyable se produit lorsque le calcul traditionnel interagit avec les réseaux de neurones - autrement connu sous le nom de« inférence ». Les sociétés opérant à la pointe de Kubernetes et de l'IA, comme Livex et Moloco, gèrent l'inférence de l'IA sur GKE. "
Inférence rentable: GKE fait des progrès dans une inférence rentable avec la passerelle d'inférence. Monroy affirme que cette approche peut réduire les coûts de service jusqu'à 30%, réduire la latence jusqu'à 60% et augmenter le débit de 40% par rapport aux autres offres de Kubernetes gérées et open source. Bien que ce soient des chiffres prometteurs, nous devrons les voir en action pour confirmer leur impact.
L'équilibrage de la charge consciente du modèle est un élément clé de cette stratégie. Compte tenu des longueurs de réponse variable dans les modèles d'IA, les méthodes d'équilibrage traditionnelles comme le rond-robin peuvent être inefficaces. La passerelle d'inférence, cependant, offre une passerelle consciente du modèle optimisée pour l'IA, avec un routage avancé vers différentes versions de modèle.
Amélioration de l'efficacité des ressources: GKE se concentre également sur l'amélioration de l'efficacité des ressources. L'autopilote GKE offre désormais une planification plus rapide des pods, des temps de réaction à l'échelle plus rapides et une meilleure capacité de la bonne capacité. Cela signifie que les utilisateurs peuvent gérer plus de trafic avec les mêmes ressources ou maintenir le trafic existant avec moins de ressources. Google affirme qu'avec l'amélioration du pilote automatique, la capacité de cluster sera toujours de bonne taille.
Actuellement, le pilote automatique comprend un outil de configuration de cluster de meilleure pratique et une plate-forme de calcul optimisée par conteneurs qui ajuste automatiquement la capacité pour correspondre aux charges de travail. Cependant, il ne taille pas les clusters existants à droite sans configuration spécifique. À partir du troisième trimestre, la plate-forme de calcul optimisée par les conteneurs du pilote automatique sera également disponible pour les grappes GKE standard sans avoir besoin d'une configuration spécifique, qui pourrait changer la donne.
Assistation du cloud Gemini compatible compatible AI: le débogage et le diagnostic des problèmes d'application peuvent ralentir considérablement l'innovation. Pour y remédier, Google a introduit Gemini Cloud Assist, offrant une assistance alimentée par l'IA tout au long du cycle de vie de l'application. L'aperçu privé de Gemini Cloud Assist Investigations aide les utilisateurs à comprendre rapidement les causes profondes et à résoudre les problèmes.
La meilleure partie? Les enquêtes d'assistance seront accessibles directement à partir de la console GKE, réduisant le temps de dépannage et libérant plus de temps pour l'innovation. Il vous permettra de diagnostiquer les problèmes de pod et de cluster de la console GKE sur divers services Google Cloud, y compris les nœuds, IAM et les équilibreurs de charge. Vous pouvez afficher les journaux et les erreurs sur plusieurs services GKE, contrôleurs, gousses et nœuds sous-jacents. Inscrivez-vous à l'aperçu privé pour découvrir cette fonctionnalité de première main.
Dans le cadre de sa stratégie technologique émergente plus large, Google se positionne comme un leader dans les plateformes optimisées en AI. Ces développements permettent aux entreprises de toutes les industries d'utiliser plus efficacement l'IA, ce qui stimule l'innovation et l'efficacité des opérations et des expériences clients.
Par exemple, Intuit exploite le document et les Gémeaux de Google Cloud pour simplifier la préparation des revenus pour des millions d'utilisateurs de Turbotax. Reddit utilise Gemini via Vertex AI, le constructeur d'agent AI de Google, pour améliorer Reddit Answers, une nouvelle plate-forme de conversation alimentée par AI conçue pour améliorer l'expérience de la page d'accueil.
Google peut-il exécuter avec succès ces transformations compatibles AI? Seul le temps nous le dira. Comme Pichai l'a déclaré en décembre, "dans l'histoire, vous n'avez pas toujours besoin d'être le premier, mais vous devez bien exécuter et être vraiment le meilleur de la classe en tant que produit. Je pense que c'est ce qu'est 2025."




The new Kubernetes and GKE enhancements are pretty cool for AI projects! It's made deploying and managing AI workloads a breeze. Though, it can be a bit overwhelming for beginners, so maybe Google could offer more tutorials?




新しいKubernetesとGKEの強化は、AIプロジェクトに最適ですね!AIワークロードのデプロイと管理が簡単になりました。ただ、初心者には少し圧倒的かもしれないので、Googleがもっとチュートリアルを提供してくれると良いですね。




새로운 Kubernetes와 GKE 개선은 AI 프로젝트에 정말 좋네요! AI 워크로드를 배포하고 관리하는 것이 훨씬 쉬워졌어요. 다만, 초보자에게는 조금 압도적일 수 있으니, 구글이 더 많은 튜토리얼을 제공하면 좋겠어요.




As novas melhorias do Kubernetes e GKE são ótimas para projetos de IA! Tornou o deploy e a gestão de cargas de trabalho de IA muito mais fáceis. No entanto, pode ser um pouco esmagador para iniciantes, então talvez o Google pudesse oferecer mais tutoriais?




Las nuevas mejoras de Kubernetes y GKE son geniales para proyectos de IA. Ha facilitado mucho el despliegue y la gestión de cargas de trabajo de IA. Aunque puede ser un poco abrumador para principiantes, ¿quizás Google podría ofrecer más tutoriales?




Google's focus on AI with Kubernetes and GKE is impressive, but I'm still figuring out how to use it effectively. It's like they're speaking a different language sometimes. Can anyone give me a simple guide or something? I want to harness this power, but it's a bit overwhelming right now!












