Google検索では、複雑なマルチパートクエリ用に「AIモード」が導入されています
Googleは検索で「AIモード」を発表します。
Googleは、検索エンジンに実験的な「AIモード」機能を開始することで、AIアリーナでゲームを強化しています。 Perplexity AIやOpenaiのChatGPT検索などを引き受けることを目的としたこの新しいモードは、水曜日に発表され、ユーザーが検索インターフェイスから複雑で多面的な質問を掘り下げるように設計されています。
今週から、Google One AIプレミアムサブスクライバーは、実験機能についてGoogleのハブである検索ラボを介してAIモードにアクセスできます。このモードは、Gemini 2.0のテーラードバージョンを活用し、高度な推論、思考、マルチモーダル機能のおかげで、より深い探索と比較を必要とする質問を処理する能力を高めます。
たとえば、睡眠追跡に興味がある場合は、「スマートリング、スマートウォッチ、追跡マットの間の睡眠追跡機能の違いは何ですか?」と尋ねることができます。 AIモードは、ソース記事へのリンクを備えた徹底的な比較を提供します。 「深い睡眠中に心拍数はどうなりますか?」とフォローアップできます。探索を続けるため。

画像クレジット:Google
Googleは、以前には、このような詳細な比較または調査には複数の検索が必要だったと説明しています。現在、AIモードを使用すると、ユーザーはWebコンテンツ、ナレッジグラフからのリアルタイムデータ、および数十億の製品のショッピング情報を一度にタップすることができます。
Google Searchの製品担当副社長であるRobby Steinは、テストがユーザーが典型的な検索クエリの約2倍の質問をしていることを示していることをTechCrunchと共有し、フォローアップが約4分の1で発生しています。 「それで、彼らは本当にこれらの難しい質問に到達しているのは、より多くのやり取りが必要な質問であり、Google検索でもっと多くのことをする機会が拡大していると思います。それが私たちが本当に興奮していることです」
AIモードの導入は、AIの概要の展開が成功したとすぐにあります。これは、検索結果の上部に情報のスナップショットを提供します。ユーザーからのフィードバックは、より広い範囲の検索にわたってより多くのAIを搭載した回答を望んでいることを示し、GoogleにAIモードを起動するように促しました。
AIモードは、「クエリファンアウト」手法を使用して動作します。これは、さまざまなデータソースで複数の関連検索を同時に実行し、結果をコヒーレントでわかりやすい応答にコンパイルします。

画像クレジット:Google
Steinは、モデルが事実性に焦点を当て、特に健康のような敏感な分野で、検証可能な情報で声明をバックアップする能力を強調しました。 「したがって、これは例として健康である可能性があり、自信がない場合は、実際にはWebリンクとWeb URLのリストだけで応答する可能性があります。 「利用可能な情報のコンテキストとそれが返信に自信があることを考えると、それは最善を尽くし、最も役立つでしょう。これは、それが間違いを犯さないことを意味するものではありません。リリースされた新しい種類の新しい種類のAIテクノロジーと同様に、間違いを犯す可能性が非常に高いです。」
これは初期の実験であるため、Googleはユーザーエクスペリエンスを改良し、AIモードの機能を拡大する予定です。同社は、エクスペリエンスをより視覚的にし、ユーザー生成コンテンツを含むさまざまなソースからの情報を含めることを目指しています。 Googleは、ハイパーリンクをいつ含めるか(たとえば、チケットの予約など)、または画像やビデオを優先順位付けする時期(例:クエリ用)を決定するためのモデルをトレーニングしています。
Google One AIプレミアムサブスクライバーは、検索ラボにオプト化してから検索バーに質問を入力して「AIモード」タブをタップすることにより、AIモードにアクセスできます。または、google.com/aimodeに直接行くことができます。モバイルデバイスでは、Googleアプリを開き、ホーム画面の検索バーの下の「AIモード」アイコンをタップすることにより、機能にアクセスできます。
AIモードの発表に加えて、Googleは米国のAI概要のGemini 2.0の発売も明らかにしました。このアップデートにより、コーディング、高度な数学、マルチモーダルクエリに関連するものなど、より挑戦的な質問に取り組むAIの概要が強化されます。さらに、Googleはサインインの要件なしでAIの概要にアクセスできるようになり、10代のユーザーにも機能を展開しています。
関連記事
億萬富翁討論自動化取代工作在本週的AI更新中
大家好,歡迎回到TechCrunch的AI通訊!如果您尚未訂閱,可以在此訂閱,每週三直接送到您的收件箱。我們上週稍作休息,但理由充分——AI新聞週期火熱異常,很大程度上要歸功於中國AI公司DeepSeek的突然崛起。這段時間風起雲湧,但我們現在回來了,正好為您更新OpenAI的最新動態。週末,OpenAI執行長Sam Altman在東京停留,與SoftBank負責人孫正義會面。SoftBank是O
NotebookLM應用上線:AI驅動的知識工具
NotebookLM 行動版上線:你的AI研究助手現已登陸Android與iOS我們對 NotebookLM 的熱烈反響感到驚喜——數百萬用戶已將其視為理解複雜資訊的首選工具。但有一個請求不斷出現:「什麼時候才能帶著NotebookLM隨時使用?」等待結束了!🎉 NotebookLM行動應用程式現已登陸Android和iOS平台,將AI輔助學習的力量裝進你的
Imagen 4:谷歌最新AI圖像生成器
Google近日發表最新圖像生成AI模型「Imagen 4」,宣稱將為用戶帶來比前代Imagen 3更出色的視覺體驗。本週稍早在Google I/O 2025大會亮相的這款新模型,被譽為在畫質與多樣性方面取得重大突破。Google表示,Imagen 4特別擅長處理織物質感、水珠反光與動物毛髮等精細紋理,同時能輕鬆駕馭寫實與抽象風格。其輸出解析度最高可達2K,
コメント (0)
0/200
Googleは検索で「AIモード」を発表します。
Googleは、検索エンジンに実験的な「AIモード」機能を開始することで、AIアリーナでゲームを強化しています。 Perplexity AIやOpenaiのChatGPT検索などを引き受けることを目的としたこの新しいモードは、水曜日に発表され、ユーザーが検索インターフェイスから複雑で多面的な質問を掘り下げるように設計されています。
今週から、Google One AIプレミアムサブスクライバーは、実験機能についてGoogleのハブである検索ラボを介してAIモードにアクセスできます。このモードは、Gemini 2.0のテーラードバージョンを活用し、高度な推論、思考、マルチモーダル機能のおかげで、より深い探索と比較を必要とする質問を処理する能力を高めます。
たとえば、睡眠追跡に興味がある場合は、「スマートリング、スマートウォッチ、追跡マットの間の睡眠追跡機能の違いは何ですか?」と尋ねることができます。 AIモードは、ソース記事へのリンクを備えた徹底的な比較を提供します。 「深い睡眠中に心拍数はどうなりますか?」とフォローアップできます。探索を続けるため。
Googleは、以前には、このような詳細な比較または調査には複数の検索が必要だったと説明しています。現在、AIモードを使用すると、ユーザーはWebコンテンツ、ナレッジグラフからのリアルタイムデータ、および数十億の製品のショッピング情報を一度にタップすることができます。
Google Searchの製品担当副社長であるRobby Steinは、テストがユーザーが典型的な検索クエリの約2倍の質問をしていることを示していることをTechCrunchと共有し、フォローアップが約4分の1で発生しています。 「それで、彼らは本当にこれらの難しい質問に到達しているのは、より多くのやり取りが必要な質問であり、Google検索でもっと多くのことをする機会が拡大していると思います。それが私たちが本当に興奮していることです」
AIモードの導入は、AIの概要の展開が成功したとすぐにあります。これは、検索結果の上部に情報のスナップショットを提供します。ユーザーからのフィードバックは、より広い範囲の検索にわたってより多くのAIを搭載した回答を望んでいることを示し、GoogleにAIモードを起動するように促しました。
AIモードは、「クエリファンアウト」手法を使用して動作します。これは、さまざまなデータソースで複数の関連検索を同時に実行し、結果をコヒーレントでわかりやすい応答にコンパイルします。
Steinは、モデルが事実性に焦点を当て、特に健康のような敏感な分野で、検証可能な情報で声明をバックアップする能力を強調しました。 「したがって、これは例として健康である可能性があり、自信がない場合は、実際にはWebリンクとWeb URLのリストだけで応答する可能性があります。 「利用可能な情報のコンテキストとそれが返信に自信があることを考えると、それは最善を尽くし、最も役立つでしょう。これは、それが間違いを犯さないことを意味するものではありません。リリースされた新しい種類の新しい種類のAIテクノロジーと同様に、間違いを犯す可能性が非常に高いです。」
これは初期の実験であるため、Googleはユーザーエクスペリエンスを改良し、AIモードの機能を拡大する予定です。同社は、エクスペリエンスをより視覚的にし、ユーザー生成コンテンツを含むさまざまなソースからの情報を含めることを目指しています。 Googleは、ハイパーリンクをいつ含めるか(たとえば、チケットの予約など)、または画像やビデオを優先順位付けする時期(例:クエリ用)を決定するためのモデルをトレーニングしています。
Google One AIプレミアムサブスクライバーは、検索ラボにオプト化してから検索バーに質問を入力して「AIモード」タブをタップすることにより、AIモードにアクセスできます。または、google.com/aimodeに直接行くことができます。モバイルデバイスでは、Googleアプリを開き、ホーム画面の検索バーの下の「AIモード」アイコンをタップすることにより、機能にアクセスできます。
AIモードの発表に加えて、Googleは米国のAI概要のGemini 2.0の発売も明らかにしました。このアップデートにより、コーディング、高度な数学、マルチモーダルクエリに関連するものなど、より挑戦的な質問に取り組むAIの概要が強化されます。さらに、Googleはサインインの要件なしでAIの概要にアクセスできるようになり、10代のユーザーにも機能を展開しています。












