A Pesquisa do Google apresenta 'modo AI' para consultas complexas e multi-partes
O Google revela o "modo Ai" em busca para rivalizar com a perplexidade ai e chatgpt
O Google está intensificando seu jogo na arena da AI com o lançamento de um recurso experimental "AI Mode" em seu mecanismo de pesquisa. Com o objetivo de assumir pessoas como Perplexity AI e o OpenAI da pesquisa de chatgpt, este novo modo foi anunciado na quarta-feira e foi projetado para permitir que os usuários se aprofundem em perguntas complexas e multifacetadas diretamente da interface de pesquisa.
A partir desta semana, o Google One AI Premium assinantes pode acessar o modo IA através de laboratórios de pesquisa, o hub do Google para obter recursos experimentais. O modo aproveita uma versão personalizada do Gemini 2.0, aumentando sua capacidade de lidar com perguntas que requerem exploração e comparações mais profundas, graças ao seu raciocínio avançado, pensamento e recursos multimodais.
Por exemplo, se você está curioso sobre o rastreamento do sono, pode perguntar: "Qual é a diferença nos recursos de rastreamento do sono entre um anel inteligente, smartwatch e rastreamento?" O modo AI forneceria uma comparação completa, completa com links para os artigos de origem. Você pode acompanhar "O que acontece com sua frequência cardíaca durante o sono profundo?" Para manter a exploração funcionando.

Créditos da imagem: Google
O Google explica que, anteriormente, essas comparações ou explorações detalhadas exigiriam várias pesquisas. Agora, com o modo AI, os usuários podem explorar o conteúdo da Web, os dados em tempo real do gráfico de conhecimento e as informações de compras para bilhões de produtos de uma só vez.
Robby Stein, vice-presidente de produto da Pesquisa do Google, compartilhou com o TechCrunch que os testes mostraram que os usuários estão fazendo perguntas que são duas vezes mais que as consultas típicas de pesquisa, com os acompanhamentos ocorrendo cerca de um quarto do tempo. "E assim eles estão realmente chegando a essas perguntas talvez mais difíceis, que precisam de mais de um lado para o outro, e achamos que isso cria uma oportunidade expandida de fazer mais com a pesquisa do Google, e é disso que estamos realmente empolgados", disse Stein.
A introdução do modo IA ocorre logo após o lançamento bem -sucedido das visões gerais da IA, que fornecem um instantâneo de informações na parte superior dos resultados da pesquisa. O feedback dos usuários indicou um desejo de mais respostas movidas a IA em uma gama mais ampla de pesquisas, levando o Google a lançar o modo AI.
O modo AI opera usando uma técnica "consulta fan-out", que simultaneamente conduz várias pesquisas relacionadas em várias fontes de dados e, em seguida, compila os resultados em uma resposta coerente e fácil de entender.

Créditos da imagem: Google
Stein enfatizou o foco do modelo na factualidade e na capacidade de fazer backup de suas declarações com informações verificáveis, especialmente em áreas sensíveis como a saúde. "Portanto, isso pode ser a saúde, como exemplo, e onde não está confiante, na verdade pode responder com uma lista de links da Web e URLs da Web, porque isso é mais útil no momento", explicou. "Isso fará o seu melhor e será mais útil, dado o contexto das informações disponíveis e como pode estar confiante na resposta. Isso não significa que nunca cometre erros. É muito provável que cometam erros, como em todos os novos tipos de tecnologia de IA de ponta e ponta lançada".
Como esse é um experimento inicial, o Google planeja refinar a experiência do usuário e expandir a funcionalidade do modo IA. A empresa pretende tornar a experiência mais visual e incluir informações de uma variedade de fontes, incluindo conteúdo gerado pelo usuário. O Google também está treinando o modelo para decidir quando incluir hiperlinks (por exemplo, para reservar ingressos) ou quando priorizar imagens ou vídeos (por exemplo, para consultas de instruções).
O Google One AI Premium assinantes pode acessar o modo AI optando nos laboratórios de pesquisa e inserindo uma pergunta na barra de pesquisa e tocando na guia "Modo AI". Como alternativa, eles podem ir diretamente ao google.com/aimode. Em dispositivos móveis, o recurso é acessível ao abrir o aplicativo do Google e tocar no ícone "Ai Mode" abaixo da barra de pesquisa na tela inicial.
Juntamente com o anúncio do modo de IA, o Google também revelou o lançamento do Gemini 2.0 para visões gerais da IA nos EUA. Esta atualização aprimorará a capacidade geral da IA de lidar com perguntas mais desafiadoras, incluindo aquelas relacionadas à codificação, matemática avançada e consultas multimodais. Além disso, o Google tornou as visões gerais da IA acessíveis sem um requisito de login e agora também está lançando o recurso para os usuários adolescentes.
Artigo relacionado
億萬富翁討論自動化取代工作在本週的AI更新中
大家好,歡迎回到TechCrunch的AI通訊!如果您尚未訂閱,可以在此訂閱,每週三直接送到您的收件箱。我們上週稍作休息,但理由充分——AI新聞週期火熱異常,很大程度上要歸功於中國AI公司DeepSeek的突然崛起。這段時間風起雲湧,但我們現在回來了,正好為您更新OpenAI的最新動態。週末,OpenAI執行長Sam Altman在東京停留,與SoftBank負責人孫正義會面。SoftBank是O
NotebookLM應用上線:AI驅動的知識工具
NotebookLM 行動版上線:你的AI研究助手現已登陸Android與iOS我們對 NotebookLM 的熱烈反響感到驚喜——數百萬用戶已將其視為理解複雜資訊的首選工具。但有一個請求不斷出現:「什麼時候才能帶著NotebookLM隨時使用?」等待結束了!🎉 NotebookLM行動應用程式現已登陸Android和iOS平台,將AI輔助學習的力量裝進你的
Imagen 4:谷歌最新AI圖像生成器
Google近日發表最新圖像生成AI模型「Imagen 4」,宣稱將為用戶帶來比前代Imagen 3更出色的視覺體驗。本週稍早在Google I/O 2025大會亮相的這款新模型,被譽為在畫質與多樣性方面取得重大突破。Google表示,Imagen 4特別擅長處理織物質感、水珠反光與動物毛髮等精細紋理,同時能輕鬆駕馭寫實與抽象風格。其輸出解析度最高可達2K,
Comentários (0)
0/200
O Google revela o "modo Ai" em busca para rivalizar com a perplexidade ai e chatgpt
O Google está intensificando seu jogo na arena da AI com o lançamento de um recurso experimental "AI Mode" em seu mecanismo de pesquisa. Com o objetivo de assumir pessoas como Perplexity AI e o OpenAI da pesquisa de chatgpt, este novo modo foi anunciado na quarta-feira e foi projetado para permitir que os usuários se aprofundem em perguntas complexas e multifacetadas diretamente da interface de pesquisa.
A partir desta semana, o Google One AI Premium assinantes pode acessar o modo IA através de laboratórios de pesquisa, o hub do Google para obter recursos experimentais. O modo aproveita uma versão personalizada do Gemini 2.0, aumentando sua capacidade de lidar com perguntas que requerem exploração e comparações mais profundas, graças ao seu raciocínio avançado, pensamento e recursos multimodais.
Por exemplo, se você está curioso sobre o rastreamento do sono, pode perguntar: "Qual é a diferença nos recursos de rastreamento do sono entre um anel inteligente, smartwatch e rastreamento?" O modo AI forneceria uma comparação completa, completa com links para os artigos de origem. Você pode acompanhar "O que acontece com sua frequência cardíaca durante o sono profundo?" Para manter a exploração funcionando.
O Google explica que, anteriormente, essas comparações ou explorações detalhadas exigiriam várias pesquisas. Agora, com o modo AI, os usuários podem explorar o conteúdo da Web, os dados em tempo real do gráfico de conhecimento e as informações de compras para bilhões de produtos de uma só vez.
Robby Stein, vice-presidente de produto da Pesquisa do Google, compartilhou com o TechCrunch que os testes mostraram que os usuários estão fazendo perguntas que são duas vezes mais que as consultas típicas de pesquisa, com os acompanhamentos ocorrendo cerca de um quarto do tempo. "E assim eles estão realmente chegando a essas perguntas talvez mais difíceis, que precisam de mais de um lado para o outro, e achamos que isso cria uma oportunidade expandida de fazer mais com a pesquisa do Google, e é disso que estamos realmente empolgados", disse Stein.
A introdução do modo IA ocorre logo após o lançamento bem -sucedido das visões gerais da IA, que fornecem um instantâneo de informações na parte superior dos resultados da pesquisa. O feedback dos usuários indicou um desejo de mais respostas movidas a IA em uma gama mais ampla de pesquisas, levando o Google a lançar o modo AI.
O modo AI opera usando uma técnica "consulta fan-out", que simultaneamente conduz várias pesquisas relacionadas em várias fontes de dados e, em seguida, compila os resultados em uma resposta coerente e fácil de entender.
Stein enfatizou o foco do modelo na factualidade e na capacidade de fazer backup de suas declarações com informações verificáveis, especialmente em áreas sensíveis como a saúde. "Portanto, isso pode ser a saúde, como exemplo, e onde não está confiante, na verdade pode responder com uma lista de links da Web e URLs da Web, porque isso é mais útil no momento", explicou. "Isso fará o seu melhor e será mais útil, dado o contexto das informações disponíveis e como pode estar confiante na resposta. Isso não significa que nunca cometre erros. É muito provável que cometam erros, como em todos os novos tipos de tecnologia de IA de ponta e ponta lançada".
Como esse é um experimento inicial, o Google planeja refinar a experiência do usuário e expandir a funcionalidade do modo IA. A empresa pretende tornar a experiência mais visual e incluir informações de uma variedade de fontes, incluindo conteúdo gerado pelo usuário. O Google também está treinando o modelo para decidir quando incluir hiperlinks (por exemplo, para reservar ingressos) ou quando priorizar imagens ou vídeos (por exemplo, para consultas de instruções).
O Google One AI Premium assinantes pode acessar o modo AI optando nos laboratórios de pesquisa e inserindo uma pergunta na barra de pesquisa e tocando na guia "Modo AI". Como alternativa, eles podem ir diretamente ao google.com/aimode. Em dispositivos móveis, o recurso é acessível ao abrir o aplicativo do Google e tocar no ícone "Ai Mode" abaixo da barra de pesquisa na tela inicial.
Juntamente com o anúncio do modo de IA, o Google também revelou o lançamento do Gemini 2.0 para visões gerais da IA nos EUA. Esta atualização aprimorará a capacidade geral da IA de lidar com perguntas mais desafiadoras, incluindo aquelas relacionadas à codificação, matemática avançada e consultas multimodais. Além disso, o Google tornou as visões gerais da IA acessíveis sem um requisito de login e agora também está lançando o recurso para os usuários adolescentes.












