AI初創公司批評使用同行評審作為PR策略

學術界因今年ICLR會議使用AI生成的研究而掀起風暴,該會議是聚焦人工智慧的重大活動。三家AI實驗室——Sakana、Intology和Autoscience——因向ICLR工作坊提交AI生成的研究而引發爭議。
Sakana採取透明做法,在提交AI生成論文前已告知ICLR負責人並獲得同行評審者的同意。然而,Intology和Autoscience未遵循此做法,據ICLR發言人向TechCrunch證實,兩者未經事先通知即提交研究。
學術界在社交媒體上反應強烈,許多人批評Intology和Autoscience利用同行評審流程。加州大學聖地牙哥分校助理教授Prithviraj Ammanabrolu在X上表達不滿,強調評審者無償提供時間與精力,卻未獲知情同意。他呼籲應向編輯完全披露使用AI生成研究的情況。
同行評審已是繁重任務,近期《Nature》調查顯示,40%的學者審稿一篇研究需花費兩到四小時。工作量持續增加,去年NeurIPS會議投稿量激增41%,總計17,491篇論文。
學術界使用AI生成內容的問題並非新鮮事,估計2023年AI會議提交的論文中有6.5%至16.9%包含合成文本。然而,利用同行評審作為基準測試和推廣AI技術的做法則是近期發展。
Intology在X上誇耀其AI生成論文獲得一致正面評價,甚至引用工作坊評審者讚揚其中一篇研究的「巧妙構想」。這種自我宣傳引起學者反感。
馬里蘭大學博士後研究員Ashwinee Panda批評提交AI生成論文卻未獲評審者同意的行為缺乏對人力評審的尊重。Panda指出,Sakana曾聯繫她參與ICLR工作坊,但她拒絕參加,強調尊重評審者時間與權利的重要性。
研究人員對AI生成論文的價值普遍持懷疑態度。Sakana承認其AI犯下「令人尷尬」的引用錯誤,三篇提交論文中僅一篇符合會議標準。為展現透明,Sakana從ICLR撤回其論文。
AI新創公司Pleias共同創辦人Alexander Doria建議設立「受監管的企業/公共機構」,進行付費且高品質的AI生成研究評估。他主張研究人員應獲得充分報酬,學術界不應被用作AI評估的免費資源。
相關文章
微軟研究揭示AI模型在軟體除錯中的局限性
來自OpenAI、Anthropic及其他領先AI實驗室的AI模型越來越常用於編碼任務。Google執行長Sundar Pichai於10月表示,AI在公司內生成25%的新程式碼,而Meta執行長Mark Zuckerberg則計劃在這家社群媒體巨頭中廣泛應用AI編碼工具。然而,即使是表現最佳的模型,在修復軟體錯誤時仍難以達到經驗豐富的開發者輕鬆處理的水平。微軟研發部門近期進行的微軟研究顯示,像A
AI驅動的解決方案可顯著降低全球碳排放
倫敦經濟學院與Systemiq的最新研究顯示,人工智慧可在不犧牲現代便利性的前提下大幅降低全球碳排放,使AI成為對抗氣候變遷的關鍵盟友。研究指出,僅在三個領域應用智慧AI技術,到2035年每年可減少32億至54億噸的溫室氣體排放。與普遍擔憂相反,這些減排量將遠超AI運營所產生的碳足跡。題為《綠色與智慧:AI在氣候轉型中的角色》的報告,將AI視為打造可持續且包容經濟的轉型力量,而非僅僅是漸進式進展的
新研究揭示大規模語言模型實際記憶的數據量
AI模型實際記憶多少?新研究揭示驚人見解我們都知道,像ChatGPT、Claude和Gemini這樣的大規模語言模型(LLMs)是在龐大數據集上訓練的——來自書籍、網站、程式碼,甚至圖像和音頻等多媒體的數兆字詞。但這些數據到底發生了什麼?這些模型真的理解語言,還是僅僅在重複記憶的片段?來自Meta、Google DeepMind、Cornell和NVIDIA的一項突破性新研究終於給出了具體答案——
評論 (31)
0/200
JuanEvans
2025-07-22 09:25:03
It's wild how AI startups are turning peer review into a PR stunt! 😅 Sakana and others submitting AI-generated studies to ICLR is bold, but it feels like they're more focused on headlines than real science. Anyone else think this could backfire big time?
0
LawrenceMiller
2025-04-14 18:29:12
Я в замешательстве по поводу этих исследований, созданных ИИ, на ICLR. С одной стороны, круто, что ИИ может генерировать исследования, но использовать это для PR? Это кажется немного неправильным. Это расширяет границы, но не уверен, что это лучший способ.
0
AlbertAllen
2025-04-13 22:45:33
I'm kinda torn about these AI startups using peer review as a PR move. On one hand, it's clever marketing, but on the other, it feels like they're gaming the system. I mean, if the studies are legit, why not just say so? Feels a bit shady to me.
0
JackMartin
2025-04-13 18:48:53
ICLRでのAI生成の研究論文について、複雑な気持ちです。AIが研究を生成できるのは面白いけど、PRに利用するのは少し違和感があります。境界を押し広げる試みではあるけど、必ずしも最良の方法とは言えないかもしれませんね。
0
JonathanKing
2025-04-13 15:58:51
Estoy dividido sobre estas startups de IA que usan la revisión por pares como una táctica de relaciones públicas. Por un lado, es un marketing inteligente, pero por otro, parece que están jugando con el sistema. Si los estudios son legítimos, ¿por qué no decirlo simplemente? Me parece un poco turbio.
0
BillyThomas
2025-04-13 02:30:32
Me siento dividido con lo de los estudios generados por IA en ICLR. Por un lado, es genial que la IA pueda producir investigación, pero usarlo para relaciones públicas, no sé, me parece un poco fuera de lugar. Está empujando límites, pero no estoy seguro de que sea de la mejor manera.
0
學術界因今年ICLR會議使用AI生成的研究而掀起風暴,該會議是聚焦人工智慧的重大活動。三家AI實驗室——Sakana、Intology和Autoscience——因向ICLR工作坊提交AI生成的研究而引發爭議。
Sakana採取透明做法,在提交AI生成論文前已告知ICLR負責人並獲得同行評審者的同意。然而,Intology和Autoscience未遵循此做法,據ICLR發言人向TechCrunch證實,兩者未經事先通知即提交研究。
學術界在社交媒體上反應強烈,許多人批評Intology和Autoscience利用同行評審流程。加州大學聖地牙哥分校助理教授Prithviraj Ammanabrolu在X上表達不滿,強調評審者無償提供時間與精力,卻未獲知情同意。他呼籲應向編輯完全披露使用AI生成研究的情況。
同行評審已是繁重任務,近期《Nature》調查顯示,40%的學者審稿一篇研究需花費兩到四小時。工作量持續增加,去年NeurIPS會議投稿量激增41%,總計17,491篇論文。
學術界使用AI生成內容的問題並非新鮮事,估計2023年AI會議提交的論文中有6.5%至16.9%包含合成文本。然而,利用同行評審作為基準測試和推廣AI技術的做法則是近期發展。
Intology在X上誇耀其AI生成論文獲得一致正面評價,甚至引用工作坊評審者讚揚其中一篇研究的「巧妙構想」。這種自我宣傳引起學者反感。
馬里蘭大學博士後研究員Ashwinee Panda批評提交AI生成論文卻未獲評審者同意的行為缺乏對人力評審的尊重。Panda指出,Sakana曾聯繫她參與ICLR工作坊,但她拒絕參加,強調尊重評審者時間與權利的重要性。
研究人員對AI生成論文的價值普遍持懷疑態度。Sakana承認其AI犯下「令人尷尬」的引用錯誤,三篇提交論文中僅一篇符合會議標準。為展現透明,Sakana從ICLR撤回其論文。
AI新創公司Pleias共同創辦人Alexander Doria建議設立「受監管的企業/公共機構」,進行付費且高品質的AI生成研究評估。他主張研究人員應獲得充分報酬,學術界不應被用作AI評估的免費資源。



It's wild how AI startups are turning peer review into a PR stunt! 😅 Sakana and others submitting AI-generated studies to ICLR is bold, but it feels like they're more focused on headlines than real science. Anyone else think this could backfire big time?




Я в замешательстве по поводу этих исследований, созданных ИИ, на ICLR. С одной стороны, круто, что ИИ может генерировать исследования, но использовать это для PR? Это кажется немного неправильным. Это расширяет границы, но не уверен, что это лучший способ.




I'm kinda torn about these AI startups using peer review as a PR move. On one hand, it's clever marketing, but on the other, it feels like they're gaming the system. I mean, if the studies are legit, why not just say so? Feels a bit shady to me.




ICLRでのAI生成の研究論文について、複雑な気持ちです。AIが研究を生成できるのは面白いけど、PRに利用するのは少し違和感があります。境界を押し広げる試みではあるけど、必ずしも最良の方法とは言えないかもしれませんね。




Estoy dividido sobre estas startups de IA que usan la revisión por pares como una táctica de relaciones públicas. Por un lado, es un marketing inteligente, pero por otro, parece que están jugando con el sistema. Si los estudios son legítimos, ¿por qué no decirlo simplemente? Me parece un poco turbio.




Me siento dividido con lo de los estudios generados por IA en ICLR. Por un lado, es genial que la IA pueda producir investigación, pero usarlo para relaciones públicas, no sé, me parece un poco fuera de lugar. Está empujando límites, pero no estoy seguro de que sea de la mejor manera.












