Startups de IA criticadas por usar a revisão por pares como tática de relações públicas

Uma tempestade está se formando no mundo acadêmico devido ao uso de estudos gerados por IA na conferência ICLR deste ano, um evento importante focado em inteligência artificial. Três laboratórios de IA, Sakana, Intology e Autoscience, geraram polêmica ao submeterem estudos gerados por IA para workshops do ICLR.
Sakana adotou uma abordagem transparente, informando os líderes do ICLR e obtendo consentimento dos revisores antes de submeter seus artigos gerados por IA. No entanto, Intology e Autoscience não seguiram o mesmo caminho, submetendo seus estudos sem notificação prévia, conforme confirmado por um porta-voz do ICLR à TechCrunch.
A comunidade acadêmica tem se manifestado nas redes sociais, com muitos criticando Intology e Autoscience por explorarem o processo de revisão por pares. Prithviraj Ammanabrolu, professor assistente na UC San Diego, expressou sua frustração no X, destacando a falta de consentimento dos revisores que dedicam seu tempo e esforço gratuitamente. Ele defendeu a divulgação completa aos editores sobre o uso de IA na geração desses estudos.
A revisão por pares já é uma tarefa exigente, com uma recente pesquisa da Nature indicando que 40% dos acadêmicos gastam de duas a quatro horas revisando um único estudo. A carga de trabalho está aumentando, como evidenciado pelo aumento de 41% nas submissões à conferência NeurIPS no último ano, totalizando 17.491 artigos.
A questão do conteúdo gerado por IA na academia não é nova, com estimativas sugerindo que entre 6,5% e 16,9% dos artigos submetidos a conferências de IA em 2023 continham texto sintético. No entanto, usar a revisão por pares como meio de avaliar e promover tecnologia de IA é um desenvolvimento mais recente.
Intology se vangloriou por receber revisões unanimemente positivas para seus artigos gerados por IA no X, até mesmo citando revisores de workshops que elogiaram as "ideias inteligentes" em um de seus estudos. Essa autopromoção não foi bem recebida pelos acadêmicos.
Ashwinee Panda, pós-doutoranda na Universidade de Maryland, criticou a falta de respeito aos revisores humanos ao submeter artigos gerados por IA sem seu consentimento. Panda destacou que Sakana havia abordado seu workshop no ICLR, mas ela recusou participar, enfatizando a importância de respeitar o tempo e os direitos dos revisores.
O ceticismo sobre o valor dos artigos gerados por IA é generalizado entre os pesquisadores. Sakana reconheceu que sua IA cometeu erros de citação "embaraçosos" e que apenas um de seus três artigos submetidos teria atendido aos padrões da conferência. Em um movimento de transparência, Sakana retirou seu artigo do ICLR.
Alexander Doria, cofundador da startup de IA Pleias, sugeriu a necessidade de uma "empresa/agência pública regulamentada" para conduzir avaliações pagas e de alta qualidade de estudos gerados por IA. Ele argumentou que os pesquisadores deveriam ser totalmente compensados por seu tempo e que a academia não deveria ser usada como um recurso gratuito para avaliações de IA.
Artigo relacionado
Estudo da Microsoft Revela Limitações de Modelos de IA na Depuração de Software
Modelos de IA da OpenAI, Anthropic e outros laboratórios de IA líderes estão sendo cada vez mais utilizados para tarefas de codificação. O CEO da Google, Sundar Pichai, observou em outubro que a IA ge
Soluções Impulsionadas por IA Podem Reduzir Significativamente as Emissões Globais de Carbono
Um estudo recente da London School of Economics e Systemiq revela que a inteligência artificial pode reduzir substancialmente as emissões globais de carbono sem sacrificar conveniências modernas, posi
Novo Estudo Revela Quanto Dados os LLMs Realmente Memorizam
Quanto os Modelos de IA Realmente Memorizam? Nova Pesquisa Revela Insights SurpreendentesTodos sabemos que grandes modelos de linguagem (LLMs) como ChatGPT, Claude e Gemini são treinados em conjuntos
Comentários (31)
0/200
JuanEvans
22 de Julho de 2025 à3 02:25:03 WEST
It's wild how AI startups are turning peer review into a PR stunt! 😅 Sakana and others submitting AI-generated studies to ICLR is bold, but it feels like they're more focused on headlines than real science. Anyone else think this could backfire big time?
0
LawrenceMiller
14 de Abril de 2025 à12 11:29:12 WEST
Я в замешательстве по поводу этих исследований, созданных ИИ, на ICLR. С одной стороны, круто, что ИИ может генерировать исследования, но использовать это для PR? Это кажется немного неправильным. Это расширяет границы, но не уверен, что это лучший способ.
0
AlbertAllen
13 de Abril de 2025 à33 15:45:33 WEST
I'm kinda torn about these AI startups using peer review as a PR move. On one hand, it's clever marketing, but on the other, it feels like they're gaming the system. I mean, if the studies are legit, why not just say so? Feels a bit shady to me.
0
JackMartin
13 de Abril de 2025 à53 11:48:53 WEST
ICLRでのAI生成の研究論文について、複雑な気持ちです。AIが研究を生成できるのは面白いけど、PRに利用するのは少し違和感があります。境界を押し広げる試みではあるけど、必ずしも最良の方法とは言えないかもしれませんね。
0
JonathanKing
13 de Abril de 2025 à51 08:58:51 WEST
Estoy dividido sobre estas startups de IA que usan la revisión por pares como una táctica de relaciones públicas. Por un lado, es un marketing inteligente, pero por otro, parece que están jugando con el sistema. Si los estudios son legítimos, ¿por qué no decirlo simplemente? Me parece un poco turbio.
0
BillyThomas
12 de Abril de 2025 à32 19:30:32 WEST
Me siento dividido con lo de los estudios generados por IA en ICLR. Por un lado, es genial que la IA pueda producir investigación, pero usarlo para relaciones públicas, no sé, me parece un poco fuera de lugar. Está empujando límites, pero no estoy seguro de que sea de la mejor manera.
0
Uma tempestade está se formando no mundo acadêmico devido ao uso de estudos gerados por IA na conferência ICLR deste ano, um evento importante focado em inteligência artificial. Três laboratórios de IA, Sakana, Intology e Autoscience, geraram polêmica ao submeterem estudos gerados por IA para workshops do ICLR.
Sakana adotou uma abordagem transparente, informando os líderes do ICLR e obtendo consentimento dos revisores antes de submeter seus artigos gerados por IA. No entanto, Intology e Autoscience não seguiram o mesmo caminho, submetendo seus estudos sem notificação prévia, conforme confirmado por um porta-voz do ICLR à TechCrunch.
A comunidade acadêmica tem se manifestado nas redes sociais, com muitos criticando Intology e Autoscience por explorarem o processo de revisão por pares. Prithviraj Ammanabrolu, professor assistente na UC San Diego, expressou sua frustração no X, destacando a falta de consentimento dos revisores que dedicam seu tempo e esforço gratuitamente. Ele defendeu a divulgação completa aos editores sobre o uso de IA na geração desses estudos.
A revisão por pares já é uma tarefa exigente, com uma recente pesquisa da Nature indicando que 40% dos acadêmicos gastam de duas a quatro horas revisando um único estudo. A carga de trabalho está aumentando, como evidenciado pelo aumento de 41% nas submissões à conferência NeurIPS no último ano, totalizando 17.491 artigos.
A questão do conteúdo gerado por IA na academia não é nova, com estimativas sugerindo que entre 6,5% e 16,9% dos artigos submetidos a conferências de IA em 2023 continham texto sintético. No entanto, usar a revisão por pares como meio de avaliar e promover tecnologia de IA é um desenvolvimento mais recente.
Intology se vangloriou por receber revisões unanimemente positivas para seus artigos gerados por IA no X, até mesmo citando revisores de workshops que elogiaram as "ideias inteligentes" em um de seus estudos. Essa autopromoção não foi bem recebida pelos acadêmicos.
Ashwinee Panda, pós-doutoranda na Universidade de Maryland, criticou a falta de respeito aos revisores humanos ao submeter artigos gerados por IA sem seu consentimento. Panda destacou que Sakana havia abordado seu workshop no ICLR, mas ela recusou participar, enfatizando a importância de respeitar o tempo e os direitos dos revisores.
O ceticismo sobre o valor dos artigos gerados por IA é generalizado entre os pesquisadores. Sakana reconheceu que sua IA cometeu erros de citação "embaraçosos" e que apenas um de seus três artigos submetidos teria atendido aos padrões da conferência. Em um movimento de transparência, Sakana retirou seu artigo do ICLR.
Alexander Doria, cofundador da startup de IA Pleias, sugeriu a necessidade de uma "empresa/agência pública regulamentada" para conduzir avaliações pagas e de alta qualidade de estudos gerados por IA. Ele argumentou que os pesquisadores deveriam ser totalmente compensados por seu tempo e que a academia não deveria ser usada como um recurso gratuito para avaliações de IA.



It's wild how AI startups are turning peer review into a PR stunt! 😅 Sakana and others submitting AI-generated studies to ICLR is bold, but it feels like they're more focused on headlines than real science. Anyone else think this could backfire big time?




Я в замешательстве по поводу этих исследований, созданных ИИ, на ICLR. С одной стороны, круто, что ИИ может генерировать исследования, но использовать это для PR? Это кажется немного неправильным. Это расширяет границы, но не уверен, что это лучший способ.




I'm kinda torn about these AI startups using peer review as a PR move. On one hand, it's clever marketing, but on the other, it feels like they're gaming the system. I mean, if the studies are legit, why not just say so? Feels a bit shady to me.




ICLRでのAI生成の研究論文について、複雑な気持ちです。AIが研究を生成できるのは面白いけど、PRに利用するのは少し違和感があります。境界を押し広げる試みではあるけど、必ずしも最良の方法とは言えないかもしれませんね。




Estoy dividido sobre estas startups de IA que usan la revisión por pares como una táctica de relaciones públicas. Por un lado, es un marketing inteligente, pero por otro, parece que están jugando con el sistema. Si los estudios son legítimos, ¿por qué no decirlo simplemente? Me parece un poco turbio.




Me siento dividido con lo de los estudios generados por IA en ICLR. Por un lado, es genial que la IA pueda producir investigación, pero usarlo para relaciones públicas, no sé, me parece un poco fuera de lugar. Está empujando límites, pero no estoy seguro de que sea de la mejor manera.












