AI 스타트 업은 PR 전술로 동료 검토를 사용한다고 비난했습니다.

학계에서 AI 생성 연구 논문의 사용을 둘러싸고 논란이 일고 있다. 이는 인공지능에 초점을 맞춘 주요 행사인 올해의 ICLR 컨퍼런스에서 비롯되었다. 세 개의 AI 연구소, Sakana, Intology, Autoscience가 ICLR 워크숍에 AI 생성 연구 논문을 제출함으로써 논란을 일으켰다.
Sakana는 투명한 접근 방식을 취하며 ICLR 리더들에게 이를 알리고 동료 검토자들의 동의를 얻은 후 AI 생성 논문을 제출했다. 그러나 Intology와 Autoscience는 TechCrunch에 확인된 바에 따르면, 사전 통지 없이 논문을 제출했다.
학계 커뮤니티는 소셜 미디어에서 목소리를 높이며 Intology와 Autoscience가 동료 검토 과정을 악용했다고 비판했다. UC San Diego의 조교수 Prithviraj Ammanabrolu는 X에서 자신의 좌절감을 표현하며, 무료로 시간과 노력을 제공하는 검토자들의 동의 없이 진행된 점을 강조했다. 그는 AI를 사용한 연구 논문 생성에 대해 편집자들에게 완전한 공개를 촉구했다.
동료 검토는 이미 까다로운 작업으로, 최근 Nature 설문조사에 따르면 학자들의 40%가 단일 연구를 검토하는 데 2~4시간을 소비한다. 작년에 NeurIPS 컨퍼런스에 제출된 논문이 41% 증가하여 총 17,491편에 달하면서 작업 부담이 증가하고 있다.
학계에서 AI 생성 콘텐츠 문제는 새로운 것이 아니며, 2023년 AI 컨퍼런스에 제출된 논문의 6.5%에서 16.9%가 합성 텍스트를 포함했다는 추정이 있다. 그러나 동료 검토를 AI 기술을 벤치마킹하고 홍보하는 수단으로 사용하는 것은 최근의 발전이다.
Intology는 X에서 자신들의 AI 생성 논문이 만장일치로 긍정적인 평가를 받았다고 자랑하며, 워크숍 검토자들이 한 논문의 "영리한 아이디어"를 칭찬한 것을 인용했다. 이러한 자기 홍보는 학자들 사이에서 좋게 받아들여지지 않았다.
University of Maryland의 박사후 연구원 Ashwinee Panda는 AI 생성 논문을 검토자들의 동의 없이 제출함으로써 인간 검토자들에게 존중 부족을 보였다고 비판했다. Panda는 Sakana가 그녀의 ICLR 워크숍에 접근했지만, 검토자들의 시간과 권리를 존중하는 것이 중요하다며 참여를 거부했다고 밝혔다.
AI 생성 논문의 가치에 대한 회의적인 시각은 연구자들 사이에서 널리 퍼져 있다. Sakana는 그들의 AI가 "당황스러운" 인용 오류를 범했으며, 제출된 세 편의 논문 중 하나만이 컨퍼런스 기준을 충족했을 것이라고 인정했다. 투명성을 향한 움직임으로, Sakana는 ICLR에서 논문을 철회했다.
AI 스타트업 Pleias의 공동 창립자 Alexander Doria는 AI 생성 연구에 대한 고품질의 유료 평가를 수행할 "규제된 회사/공공 기관"의 필요성을 제안했다. 그는 연구자들이 시간에 대해 완전히 보상받아야 하며, 학계가 AI 평가를 위한 무료 자원으로 사용되어서는 안 된다고 주장했다.
관련 기사
Microsoft 연구, AI 모델의 소프트웨어 디버깅 한계 드러내다
OpenAI, Anthropic 및 기타 주요 AI 연구소의 AI 모델은 코딩 작업에 점점 더 많이 활용되고 있다. Google CEO Sundar Pichai는 10월에 AI가 회사 내 새로운 코드의 25%를 생성한다고 언급했으며, Meta CEO Mark Zuckerberg는 소셜 미디어 대기업 내에서 AI 코딩 도구를 광범위하게 구현하려고 한다.그러나
AI 기반 솔루션이 글로벌 탄소 배출을 크게 줄일 수 있음
런던 경제 학교와 Systemiq의 최근 연구에 따르면, 인공지능은 현대적 편의를 희생하지 않으면서 글로벌 탄소 배출을 상당히 줄일 수 있으며, 기후 변화 대응에서 AI를 중요한 동맹으로 자리매김하고 있습니다.이 연구는 단 세 개의 산업에서 지능형 AI 응용 프로그램을 통해 2035년까지 매년 32억에서 54억 톤의 온실가스 배출을 줄일 수 있다고 강조합니
새로운 연구가 LLM이 실제로 얼마나 많은 데이터를 기억하는지 밝힘
AI 모델은 실제로 얼마나 많이 기억할까? 새로운 연구가 놀라운 통찰을 제공우리 모두는 ChatGPT, Claude, Gemini와 같은 대형 언어 모델(LLM)이 책, 웹사이트, 코드, 심지어 이미지와 오디오 같은 멀티미디어에서 나온 수조 개의 단어로 훈련된다는 것을 알고 있습니다. 하지만 이 모든 데이터는 어떻게 되는 걸까요? 이 모델들은 언어를 정말로
의견 (31)
0/200
JuanEvans
2025년 7월 22일 오전 10시 25분 3초 GMT+09:00
It's wild how AI startups are turning peer review into a PR stunt! 😅 Sakana and others submitting AI-generated studies to ICLR is bold, but it feels like they're more focused on headlines than real science. Anyone else think this could backfire big time?
0
LawrenceMiller
2025년 4월 14일 오후 7시 29분 12초 GMT+09:00
Я в замешательстве по поводу этих исследований, созданных ИИ, на ICLR. С одной стороны, круто, что ИИ может генерировать исследования, но использовать это для PR? Это кажется немного неправильным. Это расширяет границы, но не уверен, что это лучший способ.
0
AlbertAllen
2025년 4월 13일 오후 11시 45분 33초 GMT+09:00
I'm kinda torn about these AI startups using peer review as a PR move. On one hand, it's clever marketing, but on the other, it feels like they're gaming the system. I mean, if the studies are legit, why not just say so? Feels a bit shady to me.
0
JackMartin
2025년 4월 13일 오후 7시 48분 53초 GMT+09:00
ICLRでのAI生成の研究論文について、複雑な気持ちです。AIが研究を生成できるのは面白いけど、PRに利用するのは少し違和感があります。境界を押し広げる試みではあるけど、必ずしも最良の方法とは言えないかもしれませんね。
0
JonathanKing
2025년 4월 13일 오후 4시 58분 51초 GMT+09:00
Estoy dividido sobre estas startups de IA que usan la revisión por pares como una táctica de relaciones públicas. Por un lado, es un marketing inteligente, pero por otro, parece que están jugando con el sistema. Si los estudios son legítimos, ¿por qué no decirlo simplemente? Me parece un poco turbio.
0
BillyThomas
2025년 4월 13일 오전 3시 30분 32초 GMT+09:00
Me siento dividido con lo de los estudios generados por IA en ICLR. Por un lado, es genial que la IA pueda producir investigación, pero usarlo para relaciones públicas, no sé, me parece un poco fuera de lugar. Está empujando límites, pero no estoy seguro de que sea de la mejor manera.
0
학계에서 AI 생성 연구 논문의 사용을 둘러싸고 논란이 일고 있다. 이는 인공지능에 초점을 맞춘 주요 행사인 올해의 ICLR 컨퍼런스에서 비롯되었다. 세 개의 AI 연구소, Sakana, Intology, Autoscience가 ICLR 워크숍에 AI 생성 연구 논문을 제출함으로써 논란을 일으켰다.
Sakana는 투명한 접근 방식을 취하며 ICLR 리더들에게 이를 알리고 동료 검토자들의 동의를 얻은 후 AI 생성 논문을 제출했다. 그러나 Intology와 Autoscience는 TechCrunch에 확인된 바에 따르면, 사전 통지 없이 논문을 제출했다.
학계 커뮤니티는 소셜 미디어에서 목소리를 높이며 Intology와 Autoscience가 동료 검토 과정을 악용했다고 비판했다. UC San Diego의 조교수 Prithviraj Ammanabrolu는 X에서 자신의 좌절감을 표현하며, 무료로 시간과 노력을 제공하는 검토자들의 동의 없이 진행된 점을 강조했다. 그는 AI를 사용한 연구 논문 생성에 대해 편집자들에게 완전한 공개를 촉구했다.
동료 검토는 이미 까다로운 작업으로, 최근 Nature 설문조사에 따르면 학자들의 40%가 단일 연구를 검토하는 데 2~4시간을 소비한다. 작년에 NeurIPS 컨퍼런스에 제출된 논문이 41% 증가하여 총 17,491편에 달하면서 작업 부담이 증가하고 있다.
학계에서 AI 생성 콘텐츠 문제는 새로운 것이 아니며, 2023년 AI 컨퍼런스에 제출된 논문의 6.5%에서 16.9%가 합성 텍스트를 포함했다는 추정이 있다. 그러나 동료 검토를 AI 기술을 벤치마킹하고 홍보하는 수단으로 사용하는 것은 최근의 발전이다.
Intology는 X에서 자신들의 AI 생성 논문이 만장일치로 긍정적인 평가를 받았다고 자랑하며, 워크숍 검토자들이 한 논문의 "영리한 아이디어"를 칭찬한 것을 인용했다. 이러한 자기 홍보는 학자들 사이에서 좋게 받아들여지지 않았다.
University of Maryland의 박사후 연구원 Ashwinee Panda는 AI 생성 논문을 검토자들의 동의 없이 제출함으로써 인간 검토자들에게 존중 부족을 보였다고 비판했다. Panda는 Sakana가 그녀의 ICLR 워크숍에 접근했지만, 검토자들의 시간과 권리를 존중하는 것이 중요하다며 참여를 거부했다고 밝혔다.
AI 생성 논문의 가치에 대한 회의적인 시각은 연구자들 사이에서 널리 퍼져 있다. Sakana는 그들의 AI가 "당황스러운" 인용 오류를 범했으며, 제출된 세 편의 논문 중 하나만이 컨퍼런스 기준을 충족했을 것이라고 인정했다. 투명성을 향한 움직임으로, Sakana는 ICLR에서 논문을 철회했다.
AI 스타트업 Pleias의 공동 창립자 Alexander Doria는 AI 생성 연구에 대한 고품질의 유료 평가를 수행할 "규제된 회사/공공 기관"의 필요성을 제안했다. 그는 연구자들이 시간에 대해 완전히 보상받아야 하며, 학계가 AI 평가를 위한 무료 자원으로 사용되어서는 안 된다고 주장했다.



It's wild how AI startups are turning peer review into a PR stunt! 😅 Sakana and others submitting AI-generated studies to ICLR is bold, but it feels like they're more focused on headlines than real science. Anyone else think this could backfire big time?




Я в замешательстве по поводу этих исследований, созданных ИИ, на ICLR. С одной стороны, круто, что ИИ может генерировать исследования, но использовать это для PR? Это кажется немного неправильным. Это расширяет границы, но не уверен, что это лучший способ.




I'm kinda torn about these AI startups using peer review as a PR move. On one hand, it's clever marketing, but on the other, it feels like they're gaming the system. I mean, if the studies are legit, why not just say so? Feels a bit shady to me.




ICLRでのAI生成の研究論文について、複雑な気持ちです。AIが研究を生成できるのは面白いけど、PRに利用するのは少し違和感があります。境界を押し広げる試みではあるけど、必ずしも最良の方法とは言えないかもしれませんね。




Estoy dividido sobre estas startups de IA que usan la revisión por pares como una táctica de relaciones públicas. Por un lado, es un marketing inteligente, pero por otro, parece que están jugando con el sistema. Si los estudios son legítimos, ¿por qué no decirlo simplemente? Me parece un poco turbio.




Me siento dividido con lo de los estudios generados por IA en ICLR. Por un lado, es genial que la IA pueda producir investigación, pero usarlo para relaciones públicas, no sé, me parece un poco fuera de lugar. Está empujando límites, pero no estoy seguro de que sea de la mejor manera.












