AI no está listo como 'co-científico', dicen los expertos

Recientemente, Google presentó a su "co-científico de IA", una herramienta de IA destinada a ayudar a los científicos a generar hipótesis y planes de investigación. La compañía lo promocionó como un cambio de juego para descubrir nuevos conocimientos, pero los expertos son escépticos sobre su impacto en el mundo real.
"Esta herramienta preliminar, aunque interesante, no parece ser seriamente utilizada", dijo Sara Beery, una investigadora de visión por computadora en el MIT, en una entrevista con TechCrunch. "No estoy seguro de que haya demanda de este tipo de sistema de generación de hipótesis de la comunidad científica".
Google es solo el último gigante tecnológico en afirmar que la IA revolucionará la investigación científica, especialmente en campos pesados de datos como la biomedicina. El CEO de Operai, Sam Altman, escribió en un ensayo a principios de este año que "superinteligente" ai podría "acelerar masivamente el descubrimiento e innovación científica". Del mismo modo, el CEO Anthrope Dario Amodei ha predicho que AI podría ayudar a desarrollar curas para la mayoría de los cánceres.
Sin embargo, muchos investigadores sienten que las herramientas de IA de hoy en día no alcanzan estas ambiciosas afirmaciones. Argumentan que aplicaciones como el co-científico de AI de Google tienen más que ver con la exageración que la sustancia, que carecen de los datos empíricos para respaldar las promesas.
Por ejemplo, la publicación de blog de Google sobre el co-científico de IA se jactó de su potencial en la reutilización de drogas para la leucemia mieloide aguda, un tipo de cáncer de sangre que afecta la médula ósea. Sin embargo, los resultados fueron tan vagos que "ningún científico legítimo los tomaría en serio", según Favia Dubyk, patóloga del Northwest Medical Center-Tucson en Arizona.
"Podría ser un buen punto de partida para los investigadores, pero la falta de detalle es preocupante y no me da a confiar en él", dijo Dubyk a TechCrunch. "La falta de información proporcionada hace que sea realmente difícil de entender si esto puede ser realmente útil".
Esta no es la primera vez que Google se enfrenta a las críticas de la comunidad científica por promover un avance de la IA sin proporcionar suficientes detalles para que otros replicaran los resultados.
En 2020, Google afirmó que uno de sus sistemas de IA, capacitado para detectar tumores de mama, superó a los radiólogos humanos. Pero los investigadores de Harvard y Stanford publicaron una refutación en la naturaleza, argumentando que la falta de métodos detallados y código en la investigación de Google "socavaron su valor científico".
Los científicos también han criticado a Google por minimizar las limitaciones de sus herramientas de IA en campos como la ingeniería de materiales. En 2023, la compañía afirmó que alrededor de 40 "materiales nuevos" habían sido sintetizados con la ayuda de su sistema de IA, Gnome. Sin embargo, un análisis independiente encontró que ninguno de estos materiales era realmente nuevo.
"No entenderemos realmente las fortalezas y limitaciones de herramientas como el 'co-científico' de Google hasta que se sometan a una evaluación rigurosa e independiente en diversas disciplinas científicas", dijo Ashique Khudabukhsh, profesora asistente de ingeniería de software en el Instituto de Tecnología de Rochester, en una entrevista con TechCrunch. "La IA a menudo funciona bien en entornos controlados, pero puede fallar cuando se aplica a escala".
Procesos complejos
Desarrollar herramientas de IA para ayudar al descubrimiento científico es difícil porque es difícil predecir todos los factores que podrían arrojar una llave en proceso. La IA puede ser útil para examinar una gran lista de posibilidades, pero está menos claro si puede manejar el tipo de resolución creativa de problemas que conduce a grandes avances.
"Hemos visto a lo largo de la historia que algunos de los avances científicos más importantes, como el desarrollo de las vacunas de ARNm, fueron impulsados por la intuición y la perseverancia humana frente al escepticismo", dijo Khudabukhsh. "La IA, como está hoy, puede no ser adecuada para replicar eso".
Lana Sinapayen, una investigadora de IA en Sony Computer Science Laboratories en Japón, cree que herramientas como el co-científico de AI de Google se están centrando en los aspectos equivocados del trabajo científico.
Sinapayen ve un valor en la IA que puede automatizar tareas tediosas, como resumir la nueva literatura académica o formatear las solicitudes de subvenciones. Pero ella argumenta que hay poca demanda de un co-científico de IA que genera hipótesis, una tarea que muchos investigadores encuentran intelectualmente gratificante.
"Para muchos científicos, incluido yo mismo, generar hipótesis es la parte más divertida del trabajo", dijo Sinapayen a TechCrunch. "¿Por qué querría externalizar mi diversión a una computadora, y luego me queda solo el trabajo duro para hacer yo mismo? En general, muchos investigadores generativos de IA parecen malinterpretar por qué los humanos hacen lo que hacen, y terminamos con propuestas para productos que automatizan la parte de la que nos alegramos".
Beery señaló que la parte más difícil del proceso científico a menudo es diseñar e implementar estudios para probar hipótesis, algo con lo que los sistemas de IA actuales luchan. La IA no puede llevar a cabo físicamente experimentos, y a menudo lucha con problemas donde los datos son escasos.
"La mayoría de la ciencia no es posible hacer por completo: con frecuencia hay un componente significativo del proceso científico que es físico, como recopilar nuevos datos y realizar experimentos en el laboratorio", dijo Beery. "Una gran limitación de sistemas como el co-científico de AI de Google en relación con el proceso científico real, que definitivamente limita su usabilidad, es el contexto sobre el laboratorio y el investigador que usa el sistema y sus objetivos de investigación específicos, su trabajo pasado, su conjunto de habilidades y los recursos a los que tienen acceso".
Riesgos de IA
Las limitaciones técnicas y los riesgos de la IA, como su tendencia a "alucinar" o generar información falsa, hacen que los científicos cautelen al confiar en ello para un trabajo serio.
Khudabukhsh se preocupa de que las herramientas de IA puedan terminar inundando la literatura científica con ruido en lugar de avanzar en el progreso.
Ya está sucediendo. Un estudio reciente encontró que la "ciencia basura" generada por IA está inundando Google Scholar, el motor de búsqueda gratuito de Google para la literatura académica.
"La investigación generada por la IA, si no se monitorea cuidadosamente, podría inundar el campo científico con estudios de menor calidad o incluso engañosos, abrumando el proceso de revisión por pares", dijo Khudabukhsh. "Un proceso de revisión de pares abrumado ya es un desafío en los campos como la informática, donde las principales conferencias han visto un aumento exponencial en los envíos".
Incluso los estudios bien diseñados podrían verse comprometidos por el mal comportamiento de la IA, advirtió Sinapayen. Si bien aprecia la idea de una herramienta que podría ayudar con la revisión y la síntesis de la literatura, no confiaría en la IA de hoy para hacer ese trabajo de manera confiable.
"Esas son cosas que varias herramientas existentes afirman hacer, pero esos no son trabajos que personalmente dejaría a la IA actual", dijo Sinapayen. También planteó preocupaciones sobre cómo se capacitan los sistemas de IA y la energía que consumen. "Incluso si se resolvieron todos los problemas éticos, la IA actual no es lo suficientemente confiable como para basar mi trabajo en su producción de una forma u otra".
Artículo relacionado
Oura, AI 기반 혈당 추적 및 식사 기록 기능 추가
Oura, 대사 건강에 대한 약속을 강화하기 위해 두 가지 흥미로운 신규 기능 추가Oura는 Glucose 추적 및 식사 기록이라는 두 가지 혁신적인 AI 기반 기능을 통해 대사 건강 분야에서 새로운 경지를 개척하고 있습니다. Glucose 추적 기능은 최근 Dexcom과의 전략적 파트너십 이후 발표된 Stelo 지속형
저렴한 증강 현실용 진정한 초점 시스템
프로젝션 기반 증강현실의 혁명prestigous Institute of Electrical and Electronics Engineers (IEEE)의 연구진들은 프로젝션 기반 증강현실 분야에서 획기적인 진보를 이루었습니다. 그들의 해결책은 전통적인 안경처럼 보이는 특수 안경으로, 여기에는 우리의 눈이 자연스럽게 깊이를
Whoop 5.0: 모두가 신경 써야 함
오늘 공개된 Whoop 5.0은 하드웨어와 소프트웨어 모두에서 큰 도약을 이루었으며, 더 넓은 사용자층을 끌어들이기 위해 설계된 듯한 새로운 구독 모델을 선보입니다. Whoop 4.0을 리뷰할 때, 높은 성능 기능과 월 30달러의 높은 구독료 때문에 주로 운동선수들에게 적합하다고 언급했습니다. Whoop은 피드백을 듣고
comentario (30)
0/200
JamesGreen
11 de abril de 2025 00:00:00 GMT
I tried the AI co-scientist tool and honestly, it's not as revolutionary as Google claims. It's more like a fancy suggestion box than a real help in generating hypotheses. It's okay for brainstorming but don't expect it to do the heavy lifting. Maybe it'll get better with updates, but right now, it's just meh.
0
AnthonyJohnson
11 de abril de 2025 00:00:00 GMT
El co-científico de IA de Google no es tan impresionante. Es útil para generar algunas ideas, pero no cambia el juego como dicen. La verdad es que esperaba más. Si mejoran la herramienta en el futuro, podría ser útil, pero por ahora, no es gran cosa.
0
EllaJohnson
11 de abril de 2025 00:00:00 GMT
GoogleのAI共同科学者は期待外れだった。仮説を生成するのに役立つかと思ったけど、実際にはそれほどでもない。ブレインストーミングには使えるけど、もっと革新的なものを期待していた。将来のアップデートに期待したいけど、今は微妙。
0
AlbertAllen
11 de abril de 2025 00:00:00 GMT
Testei o co-cientista de IA do Google e não achei grande coisa. É mais uma caixa de sugestões do que uma ajuda real na geração de hipóteses. Serve para brainstorming, mas não é revolucionário como dizem. Talvez melhore com atualizações, mas por enquanto, é só isso.
0
FrankRodriguez
11 de abril de 2025 00:00:00 GMT
Tôi đã thử công cụ co-scientist AI của Google và thật sự nó không thay đổi trò chơi như họ nói. Nó giống như một hộp gợi ý hơn là một sự giúp đỡ thực sự trong việc tạo ra giả thuyết. Nó ổn cho việc brainstorm nhưng đừng mong đợi nó làm việc nặng nhọc. Có lẽ sẽ tốt hơn với các bản cập nhật, nhưng hiện tại thì chỉ ở mức bình thường.
0
FredWhite
12 de abril de 2025 00:00:00 GMT
I tried the AI co-scientist tool and honestly, it's not as revolutionary as Google claims. It's more like a fancy hypothesis generator, but it doesn't really help with the actual research. Maybe it'll get better with updates, but right now, it's just okay. Keep your expectations in check!
0
Recientemente, Google presentó a su "co-científico de IA", una herramienta de IA destinada a ayudar a los científicos a generar hipótesis y planes de investigación. La compañía lo promocionó como un cambio de juego para descubrir nuevos conocimientos, pero los expertos son escépticos sobre su impacto en el mundo real.
"Esta herramienta preliminar, aunque interesante, no parece ser seriamente utilizada", dijo Sara Beery, una investigadora de visión por computadora en el MIT, en una entrevista con TechCrunch. "No estoy seguro de que haya demanda de este tipo de sistema de generación de hipótesis de la comunidad científica".
Google es solo el último gigante tecnológico en afirmar que la IA revolucionará la investigación científica, especialmente en campos pesados de datos como la biomedicina. El CEO de Operai, Sam Altman, escribió en un ensayo a principios de este año que "superinteligente" ai podría "acelerar masivamente el descubrimiento e innovación científica". Del mismo modo, el CEO Anthrope Dario Amodei ha predicho que AI podría ayudar a desarrollar curas para la mayoría de los cánceres.
Sin embargo, muchos investigadores sienten que las herramientas de IA de hoy en día no alcanzan estas ambiciosas afirmaciones. Argumentan que aplicaciones como el co-científico de AI de Google tienen más que ver con la exageración que la sustancia, que carecen de los datos empíricos para respaldar las promesas.
Por ejemplo, la publicación de blog de Google sobre el co-científico de IA se jactó de su potencial en la reutilización de drogas para la leucemia mieloide aguda, un tipo de cáncer de sangre que afecta la médula ósea. Sin embargo, los resultados fueron tan vagos que "ningún científico legítimo los tomaría en serio", según Favia Dubyk, patóloga del Northwest Medical Center-Tucson en Arizona.
"Podría ser un buen punto de partida para los investigadores, pero la falta de detalle es preocupante y no me da a confiar en él", dijo Dubyk a TechCrunch. "La falta de información proporcionada hace que sea realmente difícil de entender si esto puede ser realmente útil".
Esta no es la primera vez que Google se enfrenta a las críticas de la comunidad científica por promover un avance de la IA sin proporcionar suficientes detalles para que otros replicaran los resultados.
En 2020, Google afirmó que uno de sus sistemas de IA, capacitado para detectar tumores de mama, superó a los radiólogos humanos. Pero los investigadores de Harvard y Stanford publicaron una refutación en la naturaleza, argumentando que la falta de métodos detallados y código en la investigación de Google "socavaron su valor científico".
Los científicos también han criticado a Google por minimizar las limitaciones de sus herramientas de IA en campos como la ingeniería de materiales. En 2023, la compañía afirmó que alrededor de 40 "materiales nuevos" habían sido sintetizados con la ayuda de su sistema de IA, Gnome. Sin embargo, un análisis independiente encontró que ninguno de estos materiales era realmente nuevo.
"No entenderemos realmente las fortalezas y limitaciones de herramientas como el 'co-científico' de Google hasta que se sometan a una evaluación rigurosa e independiente en diversas disciplinas científicas", dijo Ashique Khudabukhsh, profesora asistente de ingeniería de software en el Instituto de Tecnología de Rochester, en una entrevista con TechCrunch. "La IA a menudo funciona bien en entornos controlados, pero puede fallar cuando se aplica a escala".
Procesos complejos
Desarrollar herramientas de IA para ayudar al descubrimiento científico es difícil porque es difícil predecir todos los factores que podrían arrojar una llave en proceso. La IA puede ser útil para examinar una gran lista de posibilidades, pero está menos claro si puede manejar el tipo de resolución creativa de problemas que conduce a grandes avances.
"Hemos visto a lo largo de la historia que algunos de los avances científicos más importantes, como el desarrollo de las vacunas de ARNm, fueron impulsados por la intuición y la perseverancia humana frente al escepticismo", dijo Khudabukhsh. "La IA, como está hoy, puede no ser adecuada para replicar eso".
Lana Sinapayen, una investigadora de IA en Sony Computer Science Laboratories en Japón, cree que herramientas como el co-científico de AI de Google se están centrando en los aspectos equivocados del trabajo científico.
Sinapayen ve un valor en la IA que puede automatizar tareas tediosas, como resumir la nueva literatura académica o formatear las solicitudes de subvenciones. Pero ella argumenta que hay poca demanda de un co-científico de IA que genera hipótesis, una tarea que muchos investigadores encuentran intelectualmente gratificante.
"Para muchos científicos, incluido yo mismo, generar hipótesis es la parte más divertida del trabajo", dijo Sinapayen a TechCrunch. "¿Por qué querría externalizar mi diversión a una computadora, y luego me queda solo el trabajo duro para hacer yo mismo? En general, muchos investigadores generativos de IA parecen malinterpretar por qué los humanos hacen lo que hacen, y terminamos con propuestas para productos que automatizan la parte de la que nos alegramos".
Beery señaló que la parte más difícil del proceso científico a menudo es diseñar e implementar estudios para probar hipótesis, algo con lo que los sistemas de IA actuales luchan. La IA no puede llevar a cabo físicamente experimentos, y a menudo lucha con problemas donde los datos son escasos.
"La mayoría de la ciencia no es posible hacer por completo: con frecuencia hay un componente significativo del proceso científico que es físico, como recopilar nuevos datos y realizar experimentos en el laboratorio", dijo Beery. "Una gran limitación de sistemas como el co-científico de AI de Google en relación con el proceso científico real, que definitivamente limita su usabilidad, es el contexto sobre el laboratorio y el investigador que usa el sistema y sus objetivos de investigación específicos, su trabajo pasado, su conjunto de habilidades y los recursos a los que tienen acceso".
Riesgos de IA
Las limitaciones técnicas y los riesgos de la IA, como su tendencia a "alucinar" o generar información falsa, hacen que los científicos cautelen al confiar en ello para un trabajo serio.
Khudabukhsh se preocupa de que las herramientas de IA puedan terminar inundando la literatura científica con ruido en lugar de avanzar en el progreso.
Ya está sucediendo. Un estudio reciente encontró que la "ciencia basura" generada por IA está inundando Google Scholar, el motor de búsqueda gratuito de Google para la literatura académica.
"La investigación generada por la IA, si no se monitorea cuidadosamente, podría inundar el campo científico con estudios de menor calidad o incluso engañosos, abrumando el proceso de revisión por pares", dijo Khudabukhsh. "Un proceso de revisión de pares abrumado ya es un desafío en los campos como la informática, donde las principales conferencias han visto un aumento exponencial en los envíos".
Incluso los estudios bien diseñados podrían verse comprometidos por el mal comportamiento de la IA, advirtió Sinapayen. Si bien aprecia la idea de una herramienta que podría ayudar con la revisión y la síntesis de la literatura, no confiaría en la IA de hoy para hacer ese trabajo de manera confiable.
"Esas son cosas que varias herramientas existentes afirman hacer, pero esos no son trabajos que personalmente dejaría a la IA actual", dijo Sinapayen. También planteó preocupaciones sobre cómo se capacitan los sistemas de IA y la energía que consumen. "Incluso si se resolvieron todos los problemas éticos, la IA actual no es lo suficientemente confiable como para basar mi trabajo en su producción de una forma u otra".




I tried the AI co-scientist tool and honestly, it's not as revolutionary as Google claims. It's more like a fancy suggestion box than a real help in generating hypotheses. It's okay for brainstorming but don't expect it to do the heavy lifting. Maybe it'll get better with updates, but right now, it's just meh.




El co-científico de IA de Google no es tan impresionante. Es útil para generar algunas ideas, pero no cambia el juego como dicen. La verdad es que esperaba más. Si mejoran la herramienta en el futuro, podría ser útil, pero por ahora, no es gran cosa.




GoogleのAI共同科学者は期待外れだった。仮説を生成するのに役立つかと思ったけど、実際にはそれほどでもない。ブレインストーミングには使えるけど、もっと革新的なものを期待していた。将来のアップデートに期待したいけど、今は微妙。




Testei o co-cientista de IA do Google e não achei grande coisa. É mais uma caixa de sugestões do que uma ajuda real na geração de hipóteses. Serve para brainstorming, mas não é revolucionário como dizem. Talvez melhore com atualizações, mas por enquanto, é só isso.




Tôi đã thử công cụ co-scientist AI của Google và thật sự nó không thay đổi trò chơi như họ nói. Nó giống như một hộp gợi ý hơn là một sự giúp đỡ thực sự trong việc tạo ra giả thuyết. Nó ổn cho việc brainstorm nhưng đừng mong đợi nó làm việc nặng nhọc. Có lẽ sẽ tốt hơn với các bản cập nhật, nhưng hiện tại thì chỉ ở mức bình thường.




I tried the AI co-scientist tool and honestly, it's not as revolutionary as Google claims. It's more like a fancy hypothesis generator, but it doesn't really help with the actual research. Maybe it'll get better with updates, but right now, it's just okay. Keep your expectations in check!












