AIのスタートアップは、PEER ReviewをPR Tacticとして使用したとして批判されました

学術界では、今年のICLRカンファレンスでのAI生成研究の使用を巡って議論が巻き起こっている。ICLRは人工知能に焦点を当てた主要なイベントである。Sakana、Intology、Autoscienceの3つのAIラボが、ICLRワークショップにAI生成の研究を提出したことで物議を醸している。
Sakanaは透明性のあるアプローチを取り、ICLRのリーダーに通知し、査読者の同意を得た上でAI生成の論文を提出した。しかし、IntologyとAutoscienceはこれに倣わず、TechCrunchに確認したICLRの広報担当者によると、事前通知なしに研究を提出した。
学術コミュニティはソーシャルメディアで声を上げており、多くの人がIntologyとAutoscienceが査読プロセスを悪用していると批判している。UC San Diegoの助教授であるPrithviraj Ammanabroluは、Xで不満を表明し、無料で時間と労力を提供する査読者の同意がないことを強調した。彼は、AIを使用してこれらの研究を生成したことについて、編集者に完全な開示を求めた。
査読はすでに負担の大きい作業であり、最近のNatureの調査によると、学者の40%が1つの研究の査読に2〜4時間費やしている。昨年、NeurIPSカンファレンスへの提出数が41%増加し、合計17,491件の論文が提出されたことからも、ワークロードが増加していることがわかる。
学術界におけるAI生成コンテンツの問題は新しいものではなく、2023年のAIカンファレンスに提出された論文の6.5%から16.9%が合成テキストを含んでいたと推定されている。しかし、査読をAI技術のベンチマークや宣伝の手段として使用することは、より最近の発展である。
Intologyは、XでAI生成の論文が満場一致で肯定的なレビューを受けたことを自慢し、ワークショップの査読者がその研究の「巧妙なアイデア」を称賛した引用まで公開した。この自己宣伝は学者たちに好まれなかった。
メリーランド大学のポスドク研究者であるAshwinee Pandaは、AI生成の論文を査読者の同意なしに提出することで、人間の査読者に対する敬意の欠如を批判した。Pandaは、Sakanaが彼女のICLRのワークショップにアプローチしてきたが、査読者の時間と権利を尊重することの重要性を強調し、参加を断ったと述べた。
AI生成の論文の価値に対する懐疑的な見方は、研究者の間で広く共有されている。Sakanaは、AIが「恥ずかしい」引用エラーを犯したことを認め、提出した3つの論文のうち1つだけがカンファレンスの基準を満たしていただろうと述べた。透明性を目指す動きとして、SakanaはICLRから論文を撤回した。
AIスタートアップPleiasの共同創業者であるAlexander Doriaは、AI生成の研究に対する高品質な評価を行うために「規制された企業/公共機関」が必要だと提案した。彼は、研究者が時間に対して十分に報酬を受けるべきであり、学術界がAI評価のための無料のリソースとして使用されるべきではないと主張した。
関連記事
Microsoft Study Reveals AI Models' Limitations in Software Debugging
OpenAI、Anthropic、その他の主要AIラボのAIモデルは、コーディングタスクにますます活用されています。GoogleのCEOであるSundar Pichaiは10月に、AIが同社の新しいコードの25%を生成していると述べ、MetaのCEOであるMark Zuckerbergは、ソーシャルメディア大手内でAIコーディングツールを広く導入することを目指しています。しかし、最高性能のモデルで
AI駆動のソリューションが世界の炭素排出量を大幅に削減可能
ロンドン経済学校とSystemiqの最近の研究によると、人工知能は現代の利便性を犠牲にせず、世界の炭素排出量を大幅に削減でき、気候変動対策の重要な味方となる可能性がある。この研究は、3つのセクターでのインテリジェントなAIアプリケーションが、2035年までに年間32億~54億トンの温室効果ガス排出量を削減できると強調している。一般的な懸念とは異なり、これらの削減はAI運用の炭素フットプリントをはる
新しい研究がLLMが実際にどれだけデータを記憶するかを明らかに
AIモデルは実際にどれだけ記憶するのか? 新しい研究が驚くべき洞察を明らかにChatGPT、Claude、Geminiなどの大規模言語モデル(LLM)は、本、ウェブサイト、コード、そして画像や音声などのマルチメディアからなる膨大なデータセット—何兆もの単語—で訓練されています。しかし、そのデータはどうなるのでしょうか? これらのモデルは本当に言語を「理解」しているのか、それとも記憶した断片をただ繰
コメント (31)
0/200
JuanEvans
2025年7月22日 10:25:03 JST
It's wild how AI startups are turning peer review into a PR stunt! 😅 Sakana and others submitting AI-generated studies to ICLR is bold, but it feels like they're more focused on headlines than real science. Anyone else think this could backfire big time?
0
LawrenceMiller
2025年4月14日 19:29:12 JST
Я в замешательстве по поводу этих исследований, созданных ИИ, на ICLR. С одной стороны, круто, что ИИ может генерировать исследования, но использовать это для PR? Это кажется немного неправильным. Это расширяет границы, но не уверен, что это лучший способ.
0
AlbertAllen
2025年4月13日 23:45:33 JST
I'm kinda torn about these AI startups using peer review as a PR move. On one hand, it's clever marketing, but on the other, it feels like they're gaming the system. I mean, if the studies are legit, why not just say so? Feels a bit shady to me.
0
JackMartin
2025年4月13日 19:48:53 JST
ICLRでのAI生成の研究論文について、複雑な気持ちです。AIが研究を生成できるのは面白いけど、PRに利用するのは少し違和感があります。境界を押し広げる試みではあるけど、必ずしも最良の方法とは言えないかもしれませんね。
0
JonathanKing
2025年4月13日 16:58:51 JST
Estoy dividido sobre estas startups de IA que usan la revisión por pares como una táctica de relaciones públicas. Por un lado, es un marketing inteligente, pero por otro, parece que están jugando con el sistema. Si los estudios son legítimos, ¿por qué no decirlo simplemente? Me parece un poco turbio.
0
BillyThomas
2025年4月13日 3:30:32 JST
Me siento dividido con lo de los estudios generados por IA en ICLR. Por un lado, es genial que la IA pueda producir investigación, pero usarlo para relaciones públicas, no sé, me parece un poco fuera de lugar. Está empujando límites, pero no estoy seguro de que sea de la mejor manera.
0
学術界では、今年のICLRカンファレンスでのAI生成研究の使用を巡って議論が巻き起こっている。ICLRは人工知能に焦点を当てた主要なイベントである。Sakana、Intology、Autoscienceの3つのAIラボが、ICLRワークショップにAI生成の研究を提出したことで物議を醸している。
Sakanaは透明性のあるアプローチを取り、ICLRのリーダーに通知し、査読者の同意を得た上でAI生成の論文を提出した。しかし、IntologyとAutoscienceはこれに倣わず、TechCrunchに確認したICLRの広報担当者によると、事前通知なしに研究を提出した。
学術コミュニティはソーシャルメディアで声を上げており、多くの人がIntologyとAutoscienceが査読プロセスを悪用していると批判している。UC San Diegoの助教授であるPrithviraj Ammanabroluは、Xで不満を表明し、無料で時間と労力を提供する査読者の同意がないことを強調した。彼は、AIを使用してこれらの研究を生成したことについて、編集者に完全な開示を求めた。
査読はすでに負担の大きい作業であり、最近のNatureの調査によると、学者の40%が1つの研究の査読に2〜4時間費やしている。昨年、NeurIPSカンファレンスへの提出数が41%増加し、合計17,491件の論文が提出されたことからも、ワークロードが増加していることがわかる。
学術界におけるAI生成コンテンツの問題は新しいものではなく、2023年のAIカンファレンスに提出された論文の6.5%から16.9%が合成テキストを含んでいたと推定されている。しかし、査読をAI技術のベンチマークや宣伝の手段として使用することは、より最近の発展である。
Intologyは、XでAI生成の論文が満場一致で肯定的なレビューを受けたことを自慢し、ワークショップの査読者がその研究の「巧妙なアイデア」を称賛した引用まで公開した。この自己宣伝は学者たちに好まれなかった。
メリーランド大学のポスドク研究者であるAshwinee Pandaは、AI生成の論文を査読者の同意なしに提出することで、人間の査読者に対する敬意の欠如を批判した。Pandaは、Sakanaが彼女のICLRのワークショップにアプローチしてきたが、査読者の時間と権利を尊重することの重要性を強調し、参加を断ったと述べた。
AI生成の論文の価値に対する懐疑的な見方は、研究者の間で広く共有されている。Sakanaは、AIが「恥ずかしい」引用エラーを犯したことを認め、提出した3つの論文のうち1つだけがカンファレンスの基準を満たしていただろうと述べた。透明性を目指す動きとして、SakanaはICLRから論文を撤回した。
AIスタートアップPleiasの共同創業者であるAlexander Doriaは、AI生成の研究に対する高品質な評価を行うために「規制された企業/公共機関」が必要だと提案した。彼は、研究者が時間に対して十分に報酬を受けるべきであり、学術界がAI評価のための無料のリソースとして使用されるべきではないと主張した。



It's wild how AI startups are turning peer review into a PR stunt! 😅 Sakana and others submitting AI-generated studies to ICLR is bold, but it feels like they're more focused on headlines than real science. Anyone else think this could backfire big time?




Я в замешательстве по поводу этих исследований, созданных ИИ, на ICLR. С одной стороны, круто, что ИИ может генерировать исследования, но использовать это для PR? Это кажется немного неправильным. Это расширяет границы, но не уверен, что это лучший способ.




I'm kinda torn about these AI startups using peer review as a PR move. On one hand, it's clever marketing, but on the other, it feels like they're gaming the system. I mean, if the studies are legit, why not just say so? Feels a bit shady to me.




ICLRでのAI生成の研究論文について、複雑な気持ちです。AIが研究を生成できるのは面白いけど、PRに利用するのは少し違和感があります。境界を押し広げる試みではあるけど、必ずしも最良の方法とは言えないかもしれませんね。




Estoy dividido sobre estas startups de IA que usan la revisión por pares como una táctica de relaciones públicas. Por un lado, es un marketing inteligente, pero por otro, parece que están jugando con el sistema. Si los estudios son legítimos, ¿por qué no decirlo simplemente? Me parece un poco turbio.




Me siento dividido con lo de los estudios generados por IA en ICLR. Por un lado, es genial que la IA pueda producir investigación, pero usarlo para relaciones públicas, no sé, me parece un poco fuera de lugar. Está empujando límites, pero no estoy seguro de que sea de la mejor manera.












