Google Search présente le «mode AI» pour les requêtes complexes et multi-parties
Google dévoile le "mode AI" dans la recherche pour rivaliser avec perplexité AI et Chatgpt
Google intensifie son jeu dans l'arène AI avec le lancement d'une fonctionnalité expérimentale "Mode AI" dans son moteur de recherche. Visant à affronter la recherche de ChatGPT d'Openai et d'Openai, ce nouveau mode a été annoncé mercredi et est conçu pour permettre aux utilisateurs de se plonger dans des questions complexes et multiformes à partir de l'interface de recherche.
À partir de cette semaine, Google One AI Premium Abonders peut accéder au mode AI via des laboratoires de recherche, Google's Hub pour les fonctionnalités expérimentales. Le mode exploite une version sur mesure de Gemini 2.0, améliorant sa capacité à gérer des questions qui nécessitent une exploration et des comparaisons plus profondes, grâce à ses capacités avancées de raisonnement, de pensée et de multimodal.
Par exemple, si vous êtes curieux de suivre le suivi du sommeil, vous pourriez demander: "Quelle est la différence dans les fonctionnalités de suivi du sommeil entre une bague intelligente, une smartwatch et un tapis de suivi?" Le mode AI fournirait alors une comparaison approfondie, avec des liens vers les articles source. Vous pourriez suivre: "Qu'arrive-t-il à votre rythme cardiaque pendant le sommeil profond?" Pour continuer l'exploration.

Crédits d'image: Google
Google explique qu'auparavant, de telles comparaisons ou explorations détaillées auraient nécessité plusieurs recherches. Désormais, avec le mode IA, les utilisateurs peuvent appuyer sur le contenu Web, les données en temps réel du graphique de connaissances et les informations d'achat pour des milliards de produits à la fois.
Robby Stein, vice-président de produit de Google Search, a partagé avec TechCrunch que les tests ont montré que les utilisateurs posent des questions qui sont environ deux fois plus longues que les requêtes de recherche typiques, avec des suivis se produisant environ un quart du temps. "Et donc ils se posent vraiment à ces questions peut-être plus difficiles, celles qui ont besoin de plus de va-et-vient, et nous pensons que cela crée une occasion élargie de faire plus avec Google Search, et c'est ce qui nous passionne vraiment", a déclaré Stein.
L'introduction du mode AI vient dans les talons du déploiement réussi des aperçus de l'IA, qui fournissent un instantané d'informations en haut des résultats de recherche. Les commentaires des utilisateurs ont indiqué un désir de plus de réponses alimentées par l'IA dans une gamme plus large de recherches, ce qui a incité Google à lancer le mode IA.
Le mode AI fonctionne à l'aide d'une technique de "fan-out-out de requête", qui mène simultanément plusieurs recherches connexes sur diverses sources de données, puis compile les résultats en une réponse cohérente et facile à comprendre.

Crédits d'image: Google
Stein a souligné l'accent mis par le modèle sur la factualité et la capacité de sauvegarder ses déclarations avec des informations vérifiables, en particulier dans des domaines sensibles comme la santé. "Donc, cela peut être la santé, par exemple, et où il n'est pas confiant, il pourrait en fait répondre avec une liste de liens Web et d'URL Web, car c'est très utile dans l'instant", a-t-il expliqué. "Il va faire de son mieux et être très utile étant donné le contexte des informations disponibles et à quel point il peut être confiant dans la réponse.
Comme il s'agit d'une première expérience, Google prévoit d'affiner l'expérience utilisateur et d'élargir les fonctionnalités du mode IA. La société vise à rendre l'expérience plus visuelle et à inclure des informations provenant de diverses sources, y compris du contenu généré par les utilisateurs. Google forme également le modèle pour décider quand inclure les hyperliens (par exemple, pour la réservation de billets) ou quand prioriser les images ou les vidéos (par exemple, pour les requêtes pratiques).
Les abonnés de Google One AI Premium peuvent accéder au mode AI en optant dans des laboratoires de recherche, puis en entrant une question dans la barre de recherche et en appuyant sur l'onglet "Mode AI". Alternativement, ils peuvent aller directement sur google.com/aimode. Sur les appareils mobiles, la fonctionnalité est accessible en ouvrant l'application Google et en appuyant sur l'icône "Mode AI" sous la barre de recherche sur l'écran d'accueil.
Parallèlement à l'annonce du mode AI, Google a également révélé le lancement de Gemini 2.0 pour les aperçus de l'IA aux États-Unis, cette mise à jour améliorera la capacité des aperçus de l'IA à aborder des questions plus difficiles, y compris celles liées au codage, aux mathématiques avancées et aux requêtes multimodales. De plus, Google a rendu les aperçus de l'IA accessibles sans exigence de connexion et déploie désormais la fonctionnalité des utilisateurs des adolescents.
Article connexe
億萬富翁討論自動化取代工作在本週的AI更新中
大家好,歡迎回到TechCrunch的AI通訊!如果您尚未訂閱,可以在此訂閱,每週三直接送到您的收件箱。我們上週稍作休息,但理由充分——AI新聞週期火熱異常,很大程度上要歸功於中國AI公司DeepSeek的突然崛起。這段時間風起雲湧,但我們現在回來了,正好為您更新OpenAI的最新動態。週末,OpenAI執行長Sam Altman在東京停留,與SoftBank負責人孫正義會面。SoftBank是O
NotebookLM應用上線:AI驅動的知識工具
NotebookLM 行動版上線:你的AI研究助手現已登陸Android與iOS我們對 NotebookLM 的熱烈反響感到驚喜——數百萬用戶已將其視為理解複雜資訊的首選工具。但有一個請求不斷出現:「什麼時候才能帶著NotebookLM隨時使用?」等待結束了!🎉 NotebookLM行動應用程式現已登陸Android和iOS平台,將AI輔助學習的力量裝進你的
Imagen 4:谷歌最新AI圖像生成器
Google近日發表最新圖像生成AI模型「Imagen 4」,宣稱將為用戶帶來比前代Imagen 3更出色的視覺體驗。本週稍早在Google I/O 2025大會亮相的這款新模型,被譽為在畫質與多樣性方面取得重大突破。Google表示,Imagen 4特別擅長處理織物質感、水珠反光與動物毛髮等精細紋理,同時能輕鬆駕馭寫實與抽象風格。其輸出解析度最高可達2K,
commentaires (0)
0/200
Google dévoile le "mode AI" dans la recherche pour rivaliser avec perplexité AI et Chatgpt
Google intensifie son jeu dans l'arène AI avec le lancement d'une fonctionnalité expérimentale "Mode AI" dans son moteur de recherche. Visant à affronter la recherche de ChatGPT d'Openai et d'Openai, ce nouveau mode a été annoncé mercredi et est conçu pour permettre aux utilisateurs de se plonger dans des questions complexes et multiformes à partir de l'interface de recherche.
À partir de cette semaine, Google One AI Premium Abonders peut accéder au mode AI via des laboratoires de recherche, Google's Hub pour les fonctionnalités expérimentales. Le mode exploite une version sur mesure de Gemini 2.0, améliorant sa capacité à gérer des questions qui nécessitent une exploration et des comparaisons plus profondes, grâce à ses capacités avancées de raisonnement, de pensée et de multimodal.
Par exemple, si vous êtes curieux de suivre le suivi du sommeil, vous pourriez demander: "Quelle est la différence dans les fonctionnalités de suivi du sommeil entre une bague intelligente, une smartwatch et un tapis de suivi?" Le mode AI fournirait alors une comparaison approfondie, avec des liens vers les articles source. Vous pourriez suivre: "Qu'arrive-t-il à votre rythme cardiaque pendant le sommeil profond?" Pour continuer l'exploration.
Google explique qu'auparavant, de telles comparaisons ou explorations détaillées auraient nécessité plusieurs recherches. Désormais, avec le mode IA, les utilisateurs peuvent appuyer sur le contenu Web, les données en temps réel du graphique de connaissances et les informations d'achat pour des milliards de produits à la fois.
Robby Stein, vice-président de produit de Google Search, a partagé avec TechCrunch que les tests ont montré que les utilisateurs posent des questions qui sont environ deux fois plus longues que les requêtes de recherche typiques, avec des suivis se produisant environ un quart du temps. "Et donc ils se posent vraiment à ces questions peut-être plus difficiles, celles qui ont besoin de plus de va-et-vient, et nous pensons que cela crée une occasion élargie de faire plus avec Google Search, et c'est ce qui nous passionne vraiment", a déclaré Stein.
L'introduction du mode AI vient dans les talons du déploiement réussi des aperçus de l'IA, qui fournissent un instantané d'informations en haut des résultats de recherche. Les commentaires des utilisateurs ont indiqué un désir de plus de réponses alimentées par l'IA dans une gamme plus large de recherches, ce qui a incité Google à lancer le mode IA.
Le mode AI fonctionne à l'aide d'une technique de "fan-out-out de requête", qui mène simultanément plusieurs recherches connexes sur diverses sources de données, puis compile les résultats en une réponse cohérente et facile à comprendre.
Stein a souligné l'accent mis par le modèle sur la factualité et la capacité de sauvegarder ses déclarations avec des informations vérifiables, en particulier dans des domaines sensibles comme la santé. "Donc, cela peut être la santé, par exemple, et où il n'est pas confiant, il pourrait en fait répondre avec une liste de liens Web et d'URL Web, car c'est très utile dans l'instant", a-t-il expliqué. "Il va faire de son mieux et être très utile étant donné le contexte des informations disponibles et à quel point il peut être confiant dans la réponse.
Comme il s'agit d'une première expérience, Google prévoit d'affiner l'expérience utilisateur et d'élargir les fonctionnalités du mode IA. La société vise à rendre l'expérience plus visuelle et à inclure des informations provenant de diverses sources, y compris du contenu généré par les utilisateurs. Google forme également le modèle pour décider quand inclure les hyperliens (par exemple, pour la réservation de billets) ou quand prioriser les images ou les vidéos (par exemple, pour les requêtes pratiques).
Les abonnés de Google One AI Premium peuvent accéder au mode AI en optant dans des laboratoires de recherche, puis en entrant une question dans la barre de recherche et en appuyant sur l'onglet "Mode AI". Alternativement, ils peuvent aller directement sur google.com/aimode. Sur les appareils mobiles, la fonctionnalité est accessible en ouvrant l'application Google et en appuyant sur l'icône "Mode AI" sous la barre de recherche sur l'écran d'accueil.
Parallèlement à l'annonce du mode AI, Google a également révélé le lancement de Gemini 2.0 pour les aperçus de l'IA aux États-Unis, cette mise à jour améliorera la capacité des aperçus de l'IA à aborder des questions plus difficiles, y compris celles liées au codage, aux mathématiques avancées et aux requêtes multimodales. De plus, Google a rendu les aperçus de l'IA accessibles sans exigence de connexion et déploie désormais la fonctionnalité des utilisateurs des adolescents.












