AIのスタートアップは、PEER ReviewをPR Tacticとして使用したとして批判されました

学術界では、今年のICLRカンファレンスでのAI生成研究の使用を巡って議論が巻き起こっている。ICLRは人工知能に焦点を当てた主要なイベントである。Sakana、Intology、Autoscienceの3つのAIラボが、ICLRワークショップにAI生成の研究を提出したことで物議を醸している。
Sakanaは透明性のあるアプローチを取り、ICLRのリーダーに通知し、査読者の同意を得た上でAI生成の論文を提出した。しかし、IntologyとAutoscienceはこれに倣わず、TechCrunchに確認したICLRの広報担当者によると、事前通知なしに研究を提出した。
学術コミュニティはソーシャルメディアで声を上げており、多くの人がIntologyとAutoscienceが査読プロセスを悪用していると批判している。UC San Diegoの助教授であるPrithviraj Ammanabroluは、Xで不満を表明し、無料で時間と労力を提供する査読者の同意がないことを強調した。彼は、AIを使用してこれらの研究を生成したことについて、編集者に完全な開示を求めた。
査読はすでに負担の大きい作業であり、最近のNatureの調査によると、学者の40%が1つの研究の査読に2〜4時間費やしている。昨年、NeurIPSカンファレンスへの提出数が41%増加し、合計17,491件の論文が提出されたことからも、ワークロードが増加していることがわかる。
学術界におけるAI生成コンテンツの問題は新しいものではなく、2023年のAIカンファレンスに提出された論文の6.5%から16.9%が合成テキストを含んでいたと推定されている。しかし、査読をAI技術のベンチマークや宣伝の手段として使用することは、より最近の発展である。
Intologyは、XでAI生成の論文が満場一致で肯定的なレビューを受けたことを自慢し、ワークショップの査読者がその研究の「巧妙なアイデア」を称賛した引用まで公開した。この自己宣伝は学者たちに好まれなかった。
メリーランド大学のポスドク研究者であるAshwinee Pandaは、AI生成の論文を査読者の同意なしに提出することで、人間の査読者に対する敬意の欠如を批判した。Pandaは、Sakanaが彼女のICLRのワークショップにアプローチしてきたが、査読者の時間と権利を尊重することの重要性を強調し、参加を断ったと述べた。
AI生成の論文の価値に対する懐疑的な見方は、研究者の間で広く共有されている。Sakanaは、AIが「恥ずかしい」引用エラーを犯したことを認め、提出した3つの論文のうち1つだけがカンファレンスの基準を満たしていただろうと述べた。透明性を目指す動きとして、SakanaはICLRから論文を撤回した。
AIスタートアップPleiasの共同創業者であるAlexander Doriaは、AI生成の研究に対する高品質な評価を行うために「規制された企業/公共機関」が必要だと提案した。彼は、研究者が時間に対して十分に報酬を受けるべきであり、学術界がAI評価のための無料のリソースとして使用されるべきではないと主張した。
関連記事
Google Cloud が科学研究と発見のブレークスルーを促進
デジタル革命は、前例のない計算能力によって科学的方法論を変革している。最先端のテクノロジーは現在、理論的なフレームワークと実験室での実験の両方を補強し、高度なシミュレーションとビッグデータ分析によって分野横断的なブレークスルーを推進しています。基礎研究、スケーラブルなクラウドアーキテクチャ、人工知能開発に戦略的に投資することで、私たちは科学の進歩を加速させるエコシステムを確立しました。世界トップク
AIが科学研究を加速し、実社会により大きなインパクトを与える
グーグルは一貫してAIを科学的進歩の触媒として活用しており、今日の発見ペースは驚異的な新水準に達している。この加速は研究サイクルを一変させ、基礎的なブレークスルーを実用的な応用へと、かつて経験したことのない速さで転換させている。AIは人間の創造性に取って代わるどころか、人間の潜在能力を強力に増幅させる役割を果たしている。私たちの研究者たちは、基礎的な科学的課題に取り組むためにAIを採用し、世界的な
AIにおける倫理:オートメーションにおけるバイアスとコンプライアンスの課題に取り組む
オートメーションが産業全体に深く浸透するにつれ、倫理的配慮が重要な優先事項として浮上している。意思決定アルゴリズムは現在、雇用機会、金融サービス、医療、法的プロセスなど、社会の重要な側面に影響を及ぼしており、厳格な倫理的枠組みが求められている。適切なガバナンスがなければ、こうした強力なシステムは既存の不平等を増幅し、広範な害をもたらす危険性がある。AIシステムのバイアスを理解するアルゴリズムのバイ
コメント (31)
0/200
JuanEvans
2025年7月22日 10:25:03 JST
It's wild how AI startups are turning peer review into a PR stunt! 😅 Sakana and others submitting AI-generated studies to ICLR is bold, but it feels like they're more focused on headlines than real science. Anyone else think this could backfire big time?
0
LawrenceMiller
2025年4月14日 19:29:12 JST
Я в замешательстве по поводу этих исследований, созданных ИИ, на ICLR. С одной стороны, круто, что ИИ может генерировать исследования, но использовать это для PR? Это кажется немного неправильным. Это расширяет границы, но не уверен, что это лучший способ.
0
AlbertAllen
2025年4月13日 23:45:33 JST
I'm kinda torn about these AI startups using peer review as a PR move. On one hand, it's clever marketing, but on the other, it feels like they're gaming the system. I mean, if the studies are legit, why not just say so? Feels a bit shady to me.
0
JackMartin
2025年4月13日 19:48:53 JST
ICLRでのAI生成の研究論文について、複雑な気持ちです。AIが研究を生成できるのは面白いけど、PRに利用するのは少し違和感があります。境界を押し広げる試みではあるけど、必ずしも最良の方法とは言えないかもしれませんね。
0
JonathanKing
2025年4月13日 16:58:51 JST
Estoy dividido sobre estas startups de IA que usan la revisión por pares como una táctica de relaciones públicas. Por un lado, es un marketing inteligente, pero por otro, parece que están jugando con el sistema. Si los estudios son legítimos, ¿por qué no decirlo simplemente? Me parece un poco turbio.
0
BillyThomas
2025年4月13日 3:30:32 JST
Me siento dividido con lo de los estudios generados por IA en ICLR. Por un lado, es genial que la IA pueda producir investigación, pero usarlo para relaciones públicas, no sé, me parece un poco fuera de lugar. Está empujando límites, pero no estoy seguro de que sea de la mejor manera.
0
学術界では、今年のICLRカンファレンスでのAI生成研究の使用を巡って議論が巻き起こっている。ICLRは人工知能に焦点を当てた主要なイベントである。Sakana、Intology、Autoscienceの3つのAIラボが、ICLRワークショップにAI生成の研究を提出したことで物議を醸している。
Sakanaは透明性のあるアプローチを取り、ICLRのリーダーに通知し、査読者の同意を得た上でAI生成の論文を提出した。しかし、IntologyとAutoscienceはこれに倣わず、TechCrunchに確認したICLRの広報担当者によると、事前通知なしに研究を提出した。
学術コミュニティはソーシャルメディアで声を上げており、多くの人がIntologyとAutoscienceが査読プロセスを悪用していると批判している。UC San Diegoの助教授であるPrithviraj Ammanabroluは、Xで不満を表明し、無料で時間と労力を提供する査読者の同意がないことを強調した。彼は、AIを使用してこれらの研究を生成したことについて、編集者に完全な開示を求めた。
査読はすでに負担の大きい作業であり、最近のNatureの調査によると、学者の40%が1つの研究の査読に2〜4時間費やしている。昨年、NeurIPSカンファレンスへの提出数が41%増加し、合計17,491件の論文が提出されたことからも、ワークロードが増加していることがわかる。
学術界におけるAI生成コンテンツの問題は新しいものではなく、2023年のAIカンファレンスに提出された論文の6.5%から16.9%が合成テキストを含んでいたと推定されている。しかし、査読をAI技術のベンチマークや宣伝の手段として使用することは、より最近の発展である。
Intologyは、XでAI生成の論文が満場一致で肯定的なレビューを受けたことを自慢し、ワークショップの査読者がその研究の「巧妙なアイデア」を称賛した引用まで公開した。この自己宣伝は学者たちに好まれなかった。
メリーランド大学のポスドク研究者であるAshwinee Pandaは、AI生成の論文を査読者の同意なしに提出することで、人間の査読者に対する敬意の欠如を批判した。Pandaは、Sakanaが彼女のICLRのワークショップにアプローチしてきたが、査読者の時間と権利を尊重することの重要性を強調し、参加を断ったと述べた。
AI生成の論文の価値に対する懐疑的な見方は、研究者の間で広く共有されている。Sakanaは、AIが「恥ずかしい」引用エラーを犯したことを認め、提出した3つの論文のうち1つだけがカンファレンスの基準を満たしていただろうと述べた。透明性を目指す動きとして、SakanaはICLRから論文を撤回した。
AIスタートアップPleiasの共同創業者であるAlexander Doriaは、AI生成の研究に対する高品質な評価を行うために「規制された企業/公共機関」が必要だと提案した。彼は、研究者が時間に対して十分に報酬を受けるべきであり、学術界がAI評価のための無料のリソースとして使用されるべきではないと主張した。



It's wild how AI startups are turning peer review into a PR stunt! 😅 Sakana and others submitting AI-generated studies to ICLR is bold, but it feels like they're more focused on headlines than real science. Anyone else think this could backfire big time?




Я в замешательстве по поводу этих исследований, созданных ИИ, на ICLR. С одной стороны, круто, что ИИ может генерировать исследования, но использовать это для PR? Это кажется немного неправильным. Это расширяет границы, но не уверен, что это лучший способ.




I'm kinda torn about these AI startups using peer review as a PR move. On one hand, it's clever marketing, but on the other, it feels like they're gaming the system. I mean, if the studies are legit, why not just say so? Feels a bit shady to me.




ICLRでのAI生成の研究論文について、複雑な気持ちです。AIが研究を生成できるのは面白いけど、PRに利用するのは少し違和感があります。境界を押し広げる試みではあるけど、必ずしも最良の方法とは言えないかもしれませんね。




Estoy dividido sobre estas startups de IA que usan la revisión por pares como una táctica de relaciones públicas. Por un lado, es un marketing inteligente, pero por otro, parece que están jugando con el sistema. Si los estudios son legítimos, ¿por qué no decirlo simplemente? Me parece un poco turbio.




Me siento dividido con lo de los estudios generados por IA en ICLR. Por un lado, es genial que la IA pueda producir investigación, pero usarlo para relaciones públicas, no sé, me parece un poco fuera de lugar. Está empujando límites, pero no estoy seguro de que sea de la mejor manera.












