Google Search presenta 'Modo AI' para consultas complejas de varias partes
Google presenta el "Modo AI" en busca de rivalización de AI y Chatgpt
Google está intensificando su juego en el AI Arena con el lanzamiento de una característica experimental de "modo AI" en su motor de búsqueda. Dirigido a asumir Perplexity AI y la búsqueda ChatGPT de OpenAI, este nuevo modo se anunció el miércoles y está diseñado para permitir que los usuarios profundicen en preguntas complejas y multifacéticas desde la interfaz de búsqueda.
A partir de esta semana, los suscriptores de Google One AI Premium pueden acceder al modo AI a través de Laboratorios de búsqueda, el centro de Google para características experimentales. El modo aprovecha una versión personalizada de Gemini 2.0, mejorando su capacidad para manejar preguntas que requieren una exploración y comparaciones más profundas, gracias a su razonamiento avanzado, pensamiento y capacidades multimodales.
Por ejemplo, si tiene curiosidad por el seguimiento del sueño, podría preguntar: "¿Cuál es la diferencia en las características de seguimiento del sueño entre un anillo inteligente, un reloj inteligente y una alfombra de seguimiento?" El modo AI proporcionaría una comparación exhaustiva, completa con enlaces a los artículos de origen. Podrías hacer un seguimiento con "¿Qué pasa con tu ritmo cardíaco durante el sueño profundo?" para mantener la exploración en marcha.

Créditos de imagen: Google
Google explica que anteriormente, tales comparaciones o exploraciones detalladas habrían requerido múltiples búsquedas. Ahora, con el modo AI, los usuarios pueden aprovechar el contenido web, los datos en tiempo real del gráfico de conocimiento e información de compra para miles de millones de productos a la vez.
Robby Stein, vicepresidente de productos de Google Search, compartió con TechCrunch que las pruebas han demostrado que los usuarios están haciendo preguntas que son aproximadamente el doble de las consultas de búsqueda típicas, con seguimientos que ocurren aproximadamente una cuarta parte del tiempo. "Y así, realmente están haciendo estas preguntas quizás más difíciles, que necesitan más de ida y vuelta, y creemos que crea una oportunidad ampliada para hacer más con la búsqueda de Google, y eso es lo que realmente nos entusiasma", dijo Stein.
La introducción del modo AI se produce inmediatamente después del exitoso despliegue de las descripciones de IA, que proporcionan una instantánea de información en la parte superior de los resultados de búsqueda. Los comentarios de los usuarios indicaron el deseo de respuestas más propulsadas por IA en una gama más amplia de búsquedas, lo que le llevó a Google a lanzar el modo AI.
El modo AI opera utilizando una técnica de "Fan-Out de consultas", que realiza simultáneamente múltiples búsquedas relacionadas en varias fuentes de datos y luego compila los resultados en una respuesta coherente y fácil de entender.

Créditos de imagen: Google
Stein enfatizó el enfoque del modelo en la fáctica y la capacidad de respaldar sus declaraciones con información verificable, especialmente en áreas confidenciales como la salud. "Por lo tanto, esto podría ser salud, como ejemplo, y donde no confía, en realidad podría responder con una lista de enlaces web y URL web, porque eso es más útil en el momento", explicó. "Va a hacer todo lo posible y será más útil dado el contexto de la información disponible y qué tan segura puede estar en la respuesta. Esto no significa que nunca cometirá errores. Es muy probable que cometa errores, como con cada nuevo tipo de tecnología AI nueva y de vanguardia que se lanzó".
Como este es un experimento temprano, Google planea refinar la experiencia del usuario y expandir la funcionalidad del modo AI. La compañía tiene como objetivo hacer que la experiencia sea más visual e incluir información de una variedad de fuentes, incluido el contenido generado por el usuario. Google también está capacitando al modelo para decidir cuándo incluir hipervínculos (por ejemplo, para reservar boletos) o cuándo priorizar imágenes o videos (por ejemplo, para consultas sobre cómo hacer).
Los suscriptores de Google One AI Premium pueden acceder al modo AI optando a los laboratorios de búsqueda y luego ingresando una pregunta en la barra de búsqueda y tocando la pestaña "Modo AI". Alternativamente, pueden ir directamente a google.com/aimode. En los dispositivos móviles, se puede acceder a la función abriendo la aplicación Google y tocando el icono "Modo AI" debajo de la barra de búsqueda en la pantalla de inicio.
Junto con el anuncio del modo AI, Google también reveló el lanzamiento de Gemini 2.0 para las descripciones de IA en los EE. UU. Esta actualización mejorará la capacidad de las descripciones de IA para abordar preguntas más desafiantes, incluidas las relacionadas con la codificación, las matemáticas avanzadas y las consultas multimodales. Además, Google ha hecho accesibles las descripciones de IA sin un requisito de inicio de sesión y ahora también está implementando la función para los usuarios de adolescentes.
Artículo relacionado
億萬富翁討論自動化取代工作在本週的AI更新中
大家好,歡迎回到TechCrunch的AI通訊!如果您尚未訂閱,可以在此訂閱,每週三直接送到您的收件箱。我們上週稍作休息,但理由充分——AI新聞週期火熱異常,很大程度上要歸功於中國AI公司DeepSeek的突然崛起。這段時間風起雲湧,但我們現在回來了,正好為您更新OpenAI的最新動態。週末,OpenAI執行長Sam Altman在東京停留,與SoftBank負責人孫正義會面。SoftBank是O
NotebookLM應用上線:AI驅動的知識工具
NotebookLM 行動版上線:你的AI研究助手現已登陸Android與iOS我們對 NotebookLM 的熱烈反響感到驚喜——數百萬用戶已將其視為理解複雜資訊的首選工具。但有一個請求不斷出現:「什麼時候才能帶著NotebookLM隨時使用?」等待結束了!🎉 NotebookLM行動應用程式現已登陸Android和iOS平台,將AI輔助學習的力量裝進你的
Imagen 4:谷歌最新AI圖像生成器
Google近日發表最新圖像生成AI模型「Imagen 4」,宣稱將為用戶帶來比前代Imagen 3更出色的視覺體驗。本週稍早在Google I/O 2025大會亮相的這款新模型,被譽為在畫質與多樣性方面取得重大突破。Google表示,Imagen 4特別擅長處理織物質感、水珠反光與動物毛髮等精細紋理,同時能輕鬆駕馭寫實與抽象風格。其輸出解析度最高可達2K,
comentario (0)
0/200
Google presenta el "Modo AI" en busca de rivalización de AI y Chatgpt
Google está intensificando su juego en el AI Arena con el lanzamiento de una característica experimental de "modo AI" en su motor de búsqueda. Dirigido a asumir Perplexity AI y la búsqueda ChatGPT de OpenAI, este nuevo modo se anunció el miércoles y está diseñado para permitir que los usuarios profundicen en preguntas complejas y multifacéticas desde la interfaz de búsqueda.
A partir de esta semana, los suscriptores de Google One AI Premium pueden acceder al modo AI a través de Laboratorios de búsqueda, el centro de Google para características experimentales. El modo aprovecha una versión personalizada de Gemini 2.0, mejorando su capacidad para manejar preguntas que requieren una exploración y comparaciones más profundas, gracias a su razonamiento avanzado, pensamiento y capacidades multimodales.
Por ejemplo, si tiene curiosidad por el seguimiento del sueño, podría preguntar: "¿Cuál es la diferencia en las características de seguimiento del sueño entre un anillo inteligente, un reloj inteligente y una alfombra de seguimiento?" El modo AI proporcionaría una comparación exhaustiva, completa con enlaces a los artículos de origen. Podrías hacer un seguimiento con "¿Qué pasa con tu ritmo cardíaco durante el sueño profundo?" para mantener la exploración en marcha.
Google explica que anteriormente, tales comparaciones o exploraciones detalladas habrían requerido múltiples búsquedas. Ahora, con el modo AI, los usuarios pueden aprovechar el contenido web, los datos en tiempo real del gráfico de conocimiento e información de compra para miles de millones de productos a la vez.
Robby Stein, vicepresidente de productos de Google Search, compartió con TechCrunch que las pruebas han demostrado que los usuarios están haciendo preguntas que son aproximadamente el doble de las consultas de búsqueda típicas, con seguimientos que ocurren aproximadamente una cuarta parte del tiempo. "Y así, realmente están haciendo estas preguntas quizás más difíciles, que necesitan más de ida y vuelta, y creemos que crea una oportunidad ampliada para hacer más con la búsqueda de Google, y eso es lo que realmente nos entusiasma", dijo Stein.
La introducción del modo AI se produce inmediatamente después del exitoso despliegue de las descripciones de IA, que proporcionan una instantánea de información en la parte superior de los resultados de búsqueda. Los comentarios de los usuarios indicaron el deseo de respuestas más propulsadas por IA en una gama más amplia de búsquedas, lo que le llevó a Google a lanzar el modo AI.
El modo AI opera utilizando una técnica de "Fan-Out de consultas", que realiza simultáneamente múltiples búsquedas relacionadas en varias fuentes de datos y luego compila los resultados en una respuesta coherente y fácil de entender.
Stein enfatizó el enfoque del modelo en la fáctica y la capacidad de respaldar sus declaraciones con información verificable, especialmente en áreas confidenciales como la salud. "Por lo tanto, esto podría ser salud, como ejemplo, y donde no confía, en realidad podría responder con una lista de enlaces web y URL web, porque eso es más útil en el momento", explicó. "Va a hacer todo lo posible y será más útil dado el contexto de la información disponible y qué tan segura puede estar en la respuesta. Esto no significa que nunca cometirá errores. Es muy probable que cometa errores, como con cada nuevo tipo de tecnología AI nueva y de vanguardia que se lanzó".
Como este es un experimento temprano, Google planea refinar la experiencia del usuario y expandir la funcionalidad del modo AI. La compañía tiene como objetivo hacer que la experiencia sea más visual e incluir información de una variedad de fuentes, incluido el contenido generado por el usuario. Google también está capacitando al modelo para decidir cuándo incluir hipervínculos (por ejemplo, para reservar boletos) o cuándo priorizar imágenes o videos (por ejemplo, para consultas sobre cómo hacer).
Los suscriptores de Google One AI Premium pueden acceder al modo AI optando a los laboratorios de búsqueda y luego ingresando una pregunta en la barra de búsqueda y tocando la pestaña "Modo AI". Alternativamente, pueden ir directamente a google.com/aimode. En los dispositivos móviles, se puede acceder a la función abriendo la aplicación Google y tocando el icono "Modo AI" debajo de la barra de búsqueda en la pantalla de inicio.
Junto con el anuncio del modo AI, Google también reveló el lanzamiento de Gemini 2.0 para las descripciones de IA en los EE. UU. Esta actualización mejorará la capacidad de las descripciones de IA para abordar preguntas más desafiantes, incluidas las relacionadas con la codificación, las matemáticas avanzadas y las consultas multimodales. Además, Google ha hecho accesibles las descripciones de IA sin un requisito de inicio de sesión y ahora también está implementando la función para los usuarios de adolescentes.












