AI no está listo como 'co-científico', dicen los expertos

Google recientemente presentó su "co-científico de IA", una herramienta de inteligencia artificial destinada a ayudar a los científicos a generar hipótesis y planes de investigación. La compañía lo promocionó como un cambio revolucionario para descubrir nuevo conocimiento, pero los expertos son escépticos sobre su impacto en el mundo real.
"Esta herramienta preliminar, aunque interesante, no parece que vaya a ser utilizada seriamente", dijo Sara Beery, investigadora de visión por computadora en MIT, en una entrevista con TechCrunch. "No estoy segura de que haya una demanda para este tipo de sistema de generación de hipótesis en la comunidad científica."
Google es solo el último gigante tecnológico en afirmar que la IA revolucionará la investigación científica, especialmente en campos con gran cantidad de datos como la biomedicina. El CEO de OpenAI, Sam Altman, escribió en un ensayo a principios de este año que una IA "superinteligente" podría "acelerar masivamente el descubrimiento científico y la innovación". De manera similar, el CEO de Anthropic, Dario Amodei, ha predicho que la IA podría ayudar a desarrollar curas para la mayoría de los cánceres.
Sin embargo, muchos investigadores sienten que las herramientas de IA actuales no cumplen con estas ambiciosas afirmaciones. Argumentan que aplicaciones como el co-científico de IA de Google son más sobre exageración que sustancia, careciendo de datos empíricos para respaldar las promesas.
Por ejemplo, la publicación en el blog de Google sobre el co-científico de IA presumió de su potencial en la reutilización de medicamentos para la leucemia mieloide aguda, un tipo de cáncer de sangre que afecta la médula ósea. Sin embargo, los resultados fueron tan vagos que "ningún científico legítimo los tomaría en serio", según Favia Dubyk, patóloga en el Northwest Medical Center-Tucson en Arizona.
"Podría ser un buen punto de partida para los investigadores, pero la falta de detalles es preocupante y no me genera confianza", dijo Dubyk a TechCrunch. "La falta de información proporcionada hace que sea realmente difícil entender si esto puede ser verdaderamente útil."
No es la primera vez que Google enfrenta críticas de la comunidad científica por promover un avance en IA sin proporcionar suficientes detalles para que otros puedan replicar los resultados.
En 2020, Google afirmó que uno de sus sistemas de IA, entrenado para detectar tumores de mama, superaba a los radiólogos humanos. Pero investigadores de Harvard y Stanford publicaron una refutación en Nature, argumentando que la falta de métodos detallados y código en la investigación de Google "socavaba su valor científico".
Los científicos también han criticado a Google por minimizar las limitaciones de sus herramientas de IA en campos como la ingeniería de materiales. En 2023, la compañía afirmó que alrededor de 40 "nuevos materiales" habían sido sintetizados con la ayuda de su sistema de IA, GNoME. Sin embargo, un análisis independiente encontró que ninguno de estos materiales era realmente nuevo.
"No entenderemos verdaderamente las fortalezas y limitaciones de herramientas como el 'co-científico' de Google hasta que sean sometidas a una evaluación rigurosa e independiente en diversas disciplinas científicas", dijo Ashique KhudaBukhsh, profesor asistente de ingeniería de software en el Rochester Institute of Technology, en una entrevista con TechCrunch. "La IA a menudo funciona bien en entornos controlados, pero puede fallar cuando se aplica a gran escala."
Procesos Complejos
Desarrollar herramientas de IA para ayudar en el descubrimiento científico es complicado porque es difícil predecir todos los factores que podrían interferir. La IA puede ser útil para filtrar una enorme lista de posibilidades, pero no está claro si puede manejar el tipo de resolución creativa de problemas que lleva a grandes avances.
"A lo largo de la historia hemos visto que algunos de los avances científicos más importantes, como el desarrollo de vacunas de mRNA, fueron impulsados por la intuición humana y la perseverancia frente al escepticismo", dijo KhudaBukhsh. "La IA, tal como está hoy, puede no estar bien preparada para replicar eso."
Lana Sinapayen, investigadora de IA en Sony Computer Science Laboratories en Japón, cree que herramientas como el co-científico de IA de Google están enfocándose en los aspectos equivocados del trabajo científico.
Sinapayen ve valor en la IA que puede automatizar tareas tediosas, como resumir nueva literatura académica o formatear solicitudes de subvenciones. Pero argumenta que hay poca demanda para un co-científico de IA que genere hipótesis, una tarea que muchos investigadores encuentran intelectualmente gratificante.
"Para muchos científicos, incluyéndome a mí, generar hipótesis es la parte más divertida del trabajo", dijo Sinapayen a TechCrunch. "¿Por qué querría delegar mi diversión a una computadora y quedarme solo con el trabajo duro por hacer? En general, muchos investigadores de IA generativa parecen malinterpretar por qué los humanos hacemos lo que hacemos, y terminamos con propuestas de productos que automatizan precisamente la parte de la que obtenemos alegría."
Beery señaló que la parte más difícil del proceso científico a menudo es diseñar e implementar estudios para probar hipótesis, algo con lo que los sistemas de IA actuales tienen dificultades. La IA no puede realizar experimentos físicamente, y a menudo tiene problemas con situaciones donde los datos son escasos.
"La mayor parte de la ciencia no es posible realizarla completamente de forma virtual; frecuentemente hay un componente significativo del proceso científico que es físico, como recolectar nuevos datos y realizar experimentos en el laboratorio", dijo Beery. "Una gran limitación de sistemas como el co-científico de IA de Google en relación con el proceso científico real, que definitivamente limita su usabilidad, es el contexto sobre el laboratorio y el investigador que usa el sistema, sus objetivos de investigación específicos, su trabajo anterior, sus habilidades y los recursos a los que tienen acceso."
Riesgos de la IA
Las limitaciones técnicas y los riesgos de la IA, como su tendencia a "alucinar" o generar información falsa, hacen que los científicos sean cautelosos al confiar en ella para trabajos serios.
KhudaBukhsh teme que las herramientas de IA puedan terminar inundando la literatura científica con ruido en lugar de avanzar en el progreso.
Ya está ocurriendo. Un estudio reciente encontró que la "ciencia basura" generada por IA está inundando Google Scholar, el motor de búsqueda gratuito de Google para literatura académica.
"La investigación generada por IA, si no se monitorea cuidadosamente, podría inundar el campo científico con estudios de menor calidad o incluso engañosos, abrumando el proceso de revisión por pares", dijo KhudaBukhsh. "Un proceso de revisión por pares abrumado ya es un desafío en campos como la informática, donde las principales conferencias han visto un aumento exponencial en las presentaciones."
Incluso los estudios bien diseñados podrían verse comprometidos por una IA que se comporte mal, advirtió Sinapayen. Aunque aprecia la idea de una herramienta que pueda ayudar con la revisión y síntesis de literatura, no confiaría en la IA actual para hacer ese trabajo de manera confiable.
"Esas son cosas que varias herramientas existentes afirman hacer, pero no son trabajos que personalmente dejaría en manos de la IA actual", dijo Sinapayen. También expresó preocupaciones sobre cómo se entrenan los sistemas de IA y la energía que consumen. "Incluso si se resolvieran todos los problemas éticos, la IA actual simplemente no es lo suficientemente confiable como para basar mi trabajo en su resultado de una manera u otra."
Artículo relacionado
Estudio de Microsoft Revela Limitaciones de Modelos de IA en Depuración de Software
Modelos de IA de OpenAI, Anthropic y otros laboratorios líderes de IA se utilizan cada vez más para tareas de codificación. El CEO de Google, Sundar Pichai, señaló en octubre que la IA genera el 25% d
Soluciones impulsadas por IA podrían reducir significativamente las emisiones globales de carbono
Un estudio reciente de la London School of Economics y Systemiq revela que la inteligencia artificial podría reducir sustancialmente las emisiones globales de carbono sin sacrificar las comodidades mo
Nuevo Estudio Revela Cuántos Datos Memorizan Realmente los LLMs
¿Cuánto Memorizan Realmente los Modelos de IA? Nueva Investigación Revela Ideas SorprendentesTodos sabemos que los modelos de lenguaje grandes (LLMs) como ChatGPT, Claude y Gemini se entrenan con enor
comentario (33)
0/200
PaulWilson
8 de agosto de 2025 15:00:59 GMT+02:00
I read about Google's AI co-scientist, and it sounds like a cool idea, but experts seem to think it’s more hype than substance. Anyone else feel like AI’s being oversold these days? 🤔
0
GaryLewis
4 de agosto de 2025 08:48:52 GMT+02:00
I read about Google's AI co-scientist and it sounds cool, but experts throwing shade makes me wonder if it’s just hype. 🤔 Anyone else think AI’s still got a long way to go before it’s truly helping scientists discover new stuff?
0
PeterYoung
23 de julio de 2025 06:59:47 GMT+02:00
I find it intriguing that Google's pushing this AI co-scientist angle, but I'm not shocked experts are skeptical. Sounds like a cool concept, yet overhyped tech often fizzles out in practice. Anyone else think it’s more marketing than science? 😏
0
BruceGonzalez
25 de abril de 2025 05:08:16 GMT+02:00
Google's AI co-scientist sounds cool on paper, but in real life? Not so much. I tried using it for my research, and it's more like a fancy suggestion box than a game-changer. It's okay for brainstorming, but don't expect it to revolutionize your work. Maybe in a few years, it'll be worth the hype. 🤔
0
RogerPerez
24 de abril de 2025 05:00:20 GMT+02:00
구글의 'AI 공동 과학자'를 사용해 봤는데, 지금은 '공동 추측자' 같아요. 나오는 아이디어는 재미있지만, 과학을 혁신할 정도는 아니네요. 몇 년 후에는 더 유용할지 모르겠지만, 지금은 그냥 그런 정도? 🤔
0
IsabellaLevis
21 de abril de 2025 09:32:19 GMT+02:00
Googleの「AI共助科学者」を試してみましたが、今のところ「共推測者」のようです。出てくるアイデアは面白いけど、科学を革命するには程遠いですね。数年後にはもっと役立つかもしれませんが、今はまだ。😅
0
Google recientemente presentó su "co-científico de IA", una herramienta de inteligencia artificial destinada a ayudar a los científicos a generar hipótesis y planes de investigación. La compañía lo promocionó como un cambio revolucionario para descubrir nuevo conocimiento, pero los expertos son escépticos sobre su impacto en el mundo real.
"Esta herramienta preliminar, aunque interesante, no parece que vaya a ser utilizada seriamente", dijo Sara Beery, investigadora de visión por computadora en MIT, en una entrevista con TechCrunch. "No estoy segura de que haya una demanda para este tipo de sistema de generación de hipótesis en la comunidad científica."
Google es solo el último gigante tecnológico en afirmar que la IA revolucionará la investigación científica, especialmente en campos con gran cantidad de datos como la biomedicina. El CEO de OpenAI, Sam Altman, escribió en un ensayo a principios de este año que una IA "superinteligente" podría "acelerar masivamente el descubrimiento científico y la innovación". De manera similar, el CEO de Anthropic, Dario Amodei, ha predicho que la IA podría ayudar a desarrollar curas para la mayoría de los cánceres.
Sin embargo, muchos investigadores sienten que las herramientas de IA actuales no cumplen con estas ambiciosas afirmaciones. Argumentan que aplicaciones como el co-científico de IA de Google son más sobre exageración que sustancia, careciendo de datos empíricos para respaldar las promesas.
Por ejemplo, la publicación en el blog de Google sobre el co-científico de IA presumió de su potencial en la reutilización de medicamentos para la leucemia mieloide aguda, un tipo de cáncer de sangre que afecta la médula ósea. Sin embargo, los resultados fueron tan vagos que "ningún científico legítimo los tomaría en serio", según Favia Dubyk, patóloga en el Northwest Medical Center-Tucson en Arizona.
"Podría ser un buen punto de partida para los investigadores, pero la falta de detalles es preocupante y no me genera confianza", dijo Dubyk a TechCrunch. "La falta de información proporcionada hace que sea realmente difícil entender si esto puede ser verdaderamente útil."
No es la primera vez que Google enfrenta críticas de la comunidad científica por promover un avance en IA sin proporcionar suficientes detalles para que otros puedan replicar los resultados.
En 2020, Google afirmó que uno de sus sistemas de IA, entrenado para detectar tumores de mama, superaba a los radiólogos humanos. Pero investigadores de Harvard y Stanford publicaron una refutación en Nature, argumentando que la falta de métodos detallados y código en la investigación de Google "socavaba su valor científico".
Los científicos también han criticado a Google por minimizar las limitaciones de sus herramientas de IA en campos como la ingeniería de materiales. En 2023, la compañía afirmó que alrededor de 40 "nuevos materiales" habían sido sintetizados con la ayuda de su sistema de IA, GNoME. Sin embargo, un análisis independiente encontró que ninguno de estos materiales era realmente nuevo.
"No entenderemos verdaderamente las fortalezas y limitaciones de herramientas como el 'co-científico' de Google hasta que sean sometidas a una evaluación rigurosa e independiente en diversas disciplinas científicas", dijo Ashique KhudaBukhsh, profesor asistente de ingeniería de software en el Rochester Institute of Technology, en una entrevista con TechCrunch. "La IA a menudo funciona bien en entornos controlados, pero puede fallar cuando se aplica a gran escala."
Procesos Complejos
Desarrollar herramientas de IA para ayudar en el descubrimiento científico es complicado porque es difícil predecir todos los factores que podrían interferir. La IA puede ser útil para filtrar una enorme lista de posibilidades, pero no está claro si puede manejar el tipo de resolución creativa de problemas que lleva a grandes avances.
"A lo largo de la historia hemos visto que algunos de los avances científicos más importantes, como el desarrollo de vacunas de mRNA, fueron impulsados por la intuición humana y la perseverancia frente al escepticismo", dijo KhudaBukhsh. "La IA, tal como está hoy, puede no estar bien preparada para replicar eso."
Lana Sinapayen, investigadora de IA en Sony Computer Science Laboratories en Japón, cree que herramientas como el co-científico de IA de Google están enfocándose en los aspectos equivocados del trabajo científico.
Sinapayen ve valor en la IA que puede automatizar tareas tediosas, como resumir nueva literatura académica o formatear solicitudes de subvenciones. Pero argumenta que hay poca demanda para un co-científico de IA que genere hipótesis, una tarea que muchos investigadores encuentran intelectualmente gratificante.
"Para muchos científicos, incluyéndome a mí, generar hipótesis es la parte más divertida del trabajo", dijo Sinapayen a TechCrunch. "¿Por qué querría delegar mi diversión a una computadora y quedarme solo con el trabajo duro por hacer? En general, muchos investigadores de IA generativa parecen malinterpretar por qué los humanos hacemos lo que hacemos, y terminamos con propuestas de productos que automatizan precisamente la parte de la que obtenemos alegría."
Beery señaló que la parte más difícil del proceso científico a menudo es diseñar e implementar estudios para probar hipótesis, algo con lo que los sistemas de IA actuales tienen dificultades. La IA no puede realizar experimentos físicamente, y a menudo tiene problemas con situaciones donde los datos son escasos.
"La mayor parte de la ciencia no es posible realizarla completamente de forma virtual; frecuentemente hay un componente significativo del proceso científico que es físico, como recolectar nuevos datos y realizar experimentos en el laboratorio", dijo Beery. "Una gran limitación de sistemas como el co-científico de IA de Google en relación con el proceso científico real, que definitivamente limita su usabilidad, es el contexto sobre el laboratorio y el investigador que usa el sistema, sus objetivos de investigación específicos, su trabajo anterior, sus habilidades y los recursos a los que tienen acceso."
Riesgos de la IA
Las limitaciones técnicas y los riesgos de la IA, como su tendencia a "alucinar" o generar información falsa, hacen que los científicos sean cautelosos al confiar en ella para trabajos serios.
KhudaBukhsh teme que las herramientas de IA puedan terminar inundando la literatura científica con ruido en lugar de avanzar en el progreso.
Ya está ocurriendo. Un estudio reciente encontró que la "ciencia basura" generada por IA está inundando Google Scholar, el motor de búsqueda gratuito de Google para literatura académica.
"La investigación generada por IA, si no se monitorea cuidadosamente, podría inundar el campo científico con estudios de menor calidad o incluso engañosos, abrumando el proceso de revisión por pares", dijo KhudaBukhsh. "Un proceso de revisión por pares abrumado ya es un desafío en campos como la informática, donde las principales conferencias han visto un aumento exponencial en las presentaciones."
Incluso los estudios bien diseñados podrían verse comprometidos por una IA que se comporte mal, advirtió Sinapayen. Aunque aprecia la idea de una herramienta que pueda ayudar con la revisión y síntesis de literatura, no confiaría en la IA actual para hacer ese trabajo de manera confiable.
"Esas son cosas que varias herramientas existentes afirman hacer, pero no son trabajos que personalmente dejaría en manos de la IA actual", dijo Sinapayen. También expresó preocupaciones sobre cómo se entrenan los sistemas de IA y la energía que consumen. "Incluso si se resolvieran todos los problemas éticos, la IA actual simplemente no es lo suficientemente confiable como para basar mi trabajo en su resultado de una manera u otra."



I read about Google's AI co-scientist, and it sounds like a cool idea, but experts seem to think it’s more hype than substance. Anyone else feel like AI’s being oversold these days? 🤔




I read about Google's AI co-scientist and it sounds cool, but experts throwing shade makes me wonder if it’s just hype. 🤔 Anyone else think AI’s still got a long way to go before it’s truly helping scientists discover new stuff?




I find it intriguing that Google's pushing this AI co-scientist angle, but I'm not shocked experts are skeptical. Sounds like a cool concept, yet overhyped tech often fizzles out in practice. Anyone else think it’s more marketing than science? 😏




Google's AI co-scientist sounds cool on paper, but in real life? Not so much. I tried using it for my research, and it's more like a fancy suggestion box than a game-changer. It's okay for brainstorming, but don't expect it to revolutionize your work. Maybe in a few years, it'll be worth the hype. 🤔




구글의 'AI 공동 과학자'를 사용해 봤는데, 지금은 '공동 추측자' 같아요. 나오는 아이디어는 재미있지만, 과학을 혁신할 정도는 아니네요. 몇 년 후에는 더 유용할지 모르겠지만, 지금은 그냥 그런 정도? 🤔




Googleの「AI共助科学者」を試してみましたが、今のところ「共推測者」のようです。出てくるアイデアは面白いけど、科学を革命するには程遠いですね。数年後にはもっと役立つかもしれませんが、今はまだ。😅












