opción
Hogar Noticias AI no está listo como 'co-científico', dicen los expertos

AI no está listo como 'co-científico', dicen los expertos

Fecha de lanzamiento Fecha de lanzamiento 10 de abril de 2025
Autor Autor PatrickGarcia
vistas vistas 21

AI no está listo como 'co-científico', dicen los expertos

Recientemente, Google presentó a su "co-científico de IA", una herramienta de IA destinada a ayudar a los científicos a generar hipótesis y planes de investigación. La compañía lo promocionó como un cambio de juego para descubrir nuevos conocimientos, pero los expertos son escépticos sobre su impacto en el mundo real.

"Esta herramienta preliminar, aunque interesante, no parece ser seriamente utilizada", dijo Sara Beery, una investigadora de visión por computadora en el MIT, en una entrevista con TechCrunch. "No estoy seguro de que haya demanda de este tipo de sistema de generación de hipótesis de la comunidad científica".

Google es solo el último gigante tecnológico en afirmar que la IA revolucionará la investigación científica, especialmente en campos pesados ​​de datos como la biomedicina. El CEO de Operai, Sam Altman, escribió en un ensayo a principios de este año que "superinteligente" ai podría "acelerar masivamente el descubrimiento e innovación científica". Del mismo modo, el CEO Anthrope Dario Amodei ha predicho que AI podría ayudar a desarrollar curas para la mayoría de los cánceres.

Sin embargo, muchos investigadores sienten que las herramientas de IA de hoy en día no alcanzan estas ambiciosas afirmaciones. Argumentan que aplicaciones como el co-científico de AI de Google tienen más que ver con la exageración que la sustancia, que carecen de los datos empíricos para respaldar las promesas.

Por ejemplo, la publicación de blog de Google sobre el co-científico de IA se jactó de su potencial en la reutilización de drogas para la leucemia mieloide aguda, un tipo de cáncer de sangre que afecta la médula ósea. Sin embargo, los resultados fueron tan vagos que "ningún científico legítimo los tomaría en serio", según Favia Dubyk, patóloga del Northwest Medical Center-Tucson en Arizona.

"Podría ser un buen punto de partida para los investigadores, pero la falta de detalle es preocupante y no me da a confiar en él", dijo Dubyk a TechCrunch. "La falta de información proporcionada hace que sea realmente difícil de entender si esto puede ser realmente útil".

Esta no es la primera vez que Google se enfrenta a las críticas de la comunidad científica por promover un avance de la IA sin proporcionar suficientes detalles para que otros replicaran los resultados.

En 2020, Google afirmó que uno de sus sistemas de IA, capacitado para detectar tumores de mama, superó a los radiólogos humanos. Pero los investigadores de Harvard y Stanford publicaron una refutación en la naturaleza, argumentando que la falta de métodos detallados y código en la investigación de Google "socavaron su valor científico".

Los científicos también han criticado a Google por minimizar las limitaciones de sus herramientas de IA en campos como la ingeniería de materiales. En 2023, la compañía afirmó que alrededor de 40 "materiales nuevos" habían sido sintetizados con la ayuda de su sistema de IA, Gnome. Sin embargo, un análisis independiente encontró que ninguno de estos materiales era realmente nuevo.

"No entenderemos realmente las fortalezas y limitaciones de herramientas como el 'co-científico' de Google hasta que se sometan a una evaluación rigurosa e independiente en diversas disciplinas científicas", dijo Ashique Khudabukhsh, profesora asistente de ingeniería de software en el Instituto de Tecnología de Rochester, en una entrevista con TechCrunch. "La IA a menudo funciona bien en entornos controlados, pero puede fallar cuando se aplica a escala".

Procesos complejos

Desarrollar herramientas de IA para ayudar al descubrimiento científico es difícil porque es difícil predecir todos los factores que podrían arrojar una llave en proceso. La IA puede ser útil para examinar una gran lista de posibilidades, pero está menos claro si puede manejar el tipo de resolución creativa de problemas que conduce a grandes avances.

"Hemos visto a lo largo de la historia que algunos de los avances científicos más importantes, como el desarrollo de las vacunas de ARNm, fueron impulsados ​​por la intuición y la perseverancia humana frente al escepticismo", dijo Khudabukhsh. "La IA, como está hoy, puede no ser adecuada para replicar eso".

Lana Sinapayen, una investigadora de IA en Sony Computer Science Laboratories en Japón, cree que herramientas como el co-científico de AI de Google se están centrando en los aspectos equivocados del trabajo científico.

Sinapayen ve un valor en la IA que puede automatizar tareas tediosas, como resumir la nueva literatura académica o formatear las solicitudes de subvenciones. Pero ella argumenta que hay poca demanda de un co-científico de IA que genera hipótesis, una tarea que muchos investigadores encuentran intelectualmente gratificante.

"Para muchos científicos, incluido yo mismo, generar hipótesis es la parte más divertida del trabajo", dijo Sinapayen a TechCrunch. "¿Por qué querría externalizar mi diversión a una computadora, y luego me queda solo el trabajo duro para hacer yo mismo? En general, muchos investigadores generativos de IA parecen malinterpretar por qué los humanos hacen lo que hacen, y terminamos con propuestas para productos que automatizan la parte de la que nos alegramos".

Beery señaló que la parte más difícil del proceso científico a menudo es diseñar e implementar estudios para probar hipótesis, algo con lo que los sistemas de IA actuales luchan. La IA no puede llevar a cabo físicamente experimentos, y a menudo lucha con problemas donde los datos son escasos.

"La mayoría de la ciencia no es posible hacer por completo: con frecuencia hay un componente significativo del proceso científico que es físico, como recopilar nuevos datos y realizar experimentos en el laboratorio", dijo Beery. "Una gran limitación de sistemas como el co-científico de AI de Google en relación con el proceso científico real, que definitivamente limita su usabilidad, es el contexto sobre el laboratorio y el investigador que usa el sistema y sus objetivos de investigación específicos, su trabajo pasado, su conjunto de habilidades y los recursos a los que tienen acceso".

Riesgos de IA

Las limitaciones técnicas y los riesgos de la IA, como su tendencia a "alucinar" o generar información falsa, hacen que los científicos cautelen al confiar en ello para un trabajo serio.

Khudabukhsh se preocupa de que las herramientas de IA puedan terminar inundando la literatura científica con ruido en lugar de avanzar en el progreso.

Ya está sucediendo. Un estudio reciente encontró que la "ciencia basura" generada por IA está inundando Google Scholar, el motor de búsqueda gratuito de Google para la literatura académica.

"La investigación generada por la IA, si no se monitorea cuidadosamente, podría inundar el campo científico con estudios de menor calidad o incluso engañosos, abrumando el proceso de revisión por pares", dijo Khudabukhsh. "Un proceso de revisión de pares abrumado ya es un desafío en los campos como la informática, donde las principales conferencias han visto un aumento exponencial en los envíos".

Incluso los estudios bien diseñados podrían verse comprometidos por el mal comportamiento de la IA, advirtió Sinapayen. Si bien aprecia la idea de una herramienta que podría ayudar con la revisión y la síntesis de la literatura, no confiaría en la IA de hoy para hacer ese trabajo de manera confiable.

"Esas son cosas que varias herramientas existentes afirman hacer, pero esos no son trabajos que personalmente dejaría a la IA actual", dijo Sinapayen. También planteó preocupaciones sobre cómo se capacitan los sistemas de IA y la energía que consumen. "Incluso si se resolvieron todos los problemas éticos, la IA actual no es lo suficientemente confiable como para basar mi trabajo en su producción de una forma u otra".

Artículo relacionado
Cómo estamos usando IA para ayudar a las ciudades a abordar el calor extremo Cómo estamos usando IA para ayudar a las ciudades a abordar el calor extremo Parece que 2024 podría romper el récord del año más caluroso hasta el momento, superando 2023. Esta tendencia es particularmente dura para las personas que viven en las islas de calor urbano: aquellos lugares en las ciudades donde el concreto y el asfalto absorben los rayos del sol y luego irradian el calor directamente. Estas áreas pueden calentarse
Las caras sintéticas 'degradadas' pueden mejorar la tecnología de reconocimiento facial Las caras sintéticas 'degradadas' pueden mejorar la tecnología de reconocimiento facial Los investigadores de la Universidad Estatal de Michigan han presentado una forma innovadora de usar caras sintéticas para una causa noble, lo que aumenta la precisión de los sistemas de reconocimiento de imágenes. En lugar de contribuir al fenómeno de Deepfakes, estas caras sintéticas están diseñadas para imitar las imperfecciones que se encuentran en Real-
Deepseek's AIS descubre verdaderos deseos humanos Deepseek's AIS descubre verdaderos deseos humanos El avance de Deepseek en los modelos de recompensas de IA: mejorar el razonamiento de la IA y la respuesta de la IA China Deepseek, en colaboración con la Universidad de Tsinghua, ha logrado un hito significativo en la investigación de IA. Su enfoque innovador para los modelos de recompensa de IA promete revolucionar cómo aprenden los sistemas de IA
comentario (30)
0/200
JamesGreen
JamesGreen 11 de abril de 2025 04:37:06 GMT

I tried the AI co-scientist tool and honestly, it's not as revolutionary as Google claims. It's more like a fancy suggestion box than a real help in generating hypotheses. It's okay for brainstorming but don't expect it to do the heavy lifting. Maybe it'll get better with updates, but right now, it's just meh.

AnthonyJohnson
AnthonyJohnson 11 de abril de 2025 04:37:06 GMT

El co-científico de IA de Google no es tan impresionante. Es útil para generar algunas ideas, pero no cambia el juego como dicen. La verdad es que esperaba más. Si mejoran la herramienta en el futuro, podría ser útil, pero por ahora, no es gran cosa.

EllaJohnson
EllaJohnson 11 de abril de 2025 04:37:06 GMT

GoogleのAI共同科学者は期待外れだった。仮説を生成するのに役立つかと思ったけど、実際にはそれほどでもない。ブレインストーミングには使えるけど、もっと革新的なものを期待していた。将来のアップデートに期待したいけど、今は微妙。

AlbertAllen
AlbertAllen 11 de abril de 2025 04:37:06 GMT

Testei o co-cientista de IA do Google e não achei grande coisa. É mais uma caixa de sugestões do que uma ajuda real na geração de hipóteses. Serve para brainstorming, mas não é revolucionário como dizem. Talvez melhore com atualizações, mas por enquanto, é só isso.

FrankRodriguez
FrankRodriguez 11 de abril de 2025 04:37:06 GMT

Tôi đã thử công cụ co-scientist AI của Google và thật sự nó không thay đổi trò chơi như họ nói. Nó giống như một hộp gợi ý hơn là một sự giúp đỡ thực sự trong việc tạo ra giả thuyết. Nó ổn cho việc brainstorm nhưng đừng mong đợi nó làm việc nặng nhọc. Có lẽ sẽ tốt hơn với các bản cập nhật, nhưng hiện tại thì chỉ ở mức bình thường.

FredWhite
FredWhite 12 de abril de 2025 04:32:58 GMT

I tried the AI co-scientist tool and honestly, it's not as revolutionary as Google claims. It's more like a fancy hypothesis generator, but it doesn't really help with the actual research. Maybe it'll get better with updates, but right now, it's just okay. Keep your expectations in check!

Volver arriba
OR