Le papier généré par l'AI passe l'examen par les pairs, affirme Sakana, mais les détails sont nuancés
La startup d'IA japonaise Sakana a récemment fait des vagues en affirmant que son système d'IA, le scientifique-V2 de l'IA, a généré l'une des premières publications scientifiques évaluées par des pairs. Cependant, il y a des détails importants à considérer avant de nous exciter trop.
Le débat sur le rôle de l'IA dans la science est de se réchauffer. Certains chercheurs croient que l'IA n'est pas prête à être un «co-scientifique», tandis que d'autres voient le potentiel mais reconnaissent que nous sommes encore aux premiers stades. Sakana tombe dans ce dernier groupe.
L'entreprise a utilisé l'IA Scientist-V2 pour créer un article soumis à un atelier à ICLR, une conférence AI respectée. Sakana a travaillé avec l'Université de la Colombie-Britannique et l'Université d'Oxford pour soumettre trois articles générés par l'AI à cet atelier. L'IA a géré tout, des hypothèses aux expériences, au code, à l'analyse des données, aux visualisations et même aux titres.
"Nous avons généré des idées de recherche en fournissant le résumé et la description de l'atelier à l'IA", a déclaré Robert Lange, chercheur et membre fondateur de Sakana, à TechCrunch par e-mail. "Cela a assuré que les articles générés étaient sur le sujet et les soumissions appropriées."
L'un des trois articles a été accepté par l'atelier ICLR. Il s'est concentré sur la critique des techniques de formation pour les modèles d'IA. Cependant, Sakana a retiré l'article avant qu'il ne puisse être publié, citant la transparence et le respect des conventions ICLR.

Un extrait de crédits en papier générés par Sakana AI: Sakana "Le document accepté présente tous deux une nouvelle méthode prometteuse pour la formation de réseaux de neurones et montre qu'il reste des défis empiriques", a déclaré Lange. "Il fournit un point de données intéressant pour susciter une nouvelle enquête scientifique."
Mais ne nous empêchons pas encore. Sakana a admis dans leur billet de blog que leur IA avait commis des erreurs de citation "embarrassantes", comme attribuer une méthode à un article de 2016 au lieu de l'œuvre originale de 1997.
De plus, le journal n'a pas été exposé autant à un examen minutieux que d'autres publications évaluées par des pairs. Il a été retiré après l'examen par les pairs initial, il n'a donc pas obtenu de «méta-révision» des organisateurs de l'atelier, qui auraient pu le rejeter.
Une autre chose à garder à l'esprit est que les ateliers de conférence ont souvent des taux d'acceptation plus élevés que la piste principale de la conférence. Sakana l'a mentionné dans leur article de blog et a noté qu'aucune de leurs études générées par l'IA ne répondait à leurs normes internes pour la piste de la conférence ICLR.
Matthew Guzdial, chercheur de l'IA et professeur adjoint à l'Université de l'Alberta, a qualifié les résultats de Sakana de "un peu trompeuses".
"Les gens de Sakana ont sélectionné les articles de certains nombre de ceux générés, ce qui signifie qu'ils utilisaient un jugement humain en termes de sélection des sorties qu'ils pensaient pouvoir entrer", a-t-il déclaré par e-mail. "Ce que je pense que cela montre, c'est que les humains et l'IA peuvent être efficaces, pas que l'IA seule puisse créer des progrès scientifiques."
Mike Cook, chercheur au King's College de Londres, spécialisé dans l'IA, a remis en question la rigueur des pairs examinateurs et de l'atelier.
"De nouveaux ateliers, comme celui-ci, sont souvent examinés par des chercheurs plus juniors", a-t-il déclaré à TechCrunch. "Il convient également de noter que cet atelier concerne des résultats et des difficultés négatifs - ce qui est génial, j'ai déjà organisé un atelier similaire - mais il est sans doute plus facile d'obtenir une IA pour écrire sur un échec de manière convaincante."
Cook n'était pas surpris qu'une IA puisse passer l'examen par les pairs, étant donné que l'IA est bonne pour écrire la prose à consonance humaine. Il a souligné que les articles en partie générés par l'AI-AI passaient une revue de revue ne sont pas nouveaux, et cela soulève des questions éthiques pour la communauté scientifique.
Les problèmes techniques de l'IA, comme sa tendance à «halluciner», rendent de nombreux scientifiques prudents à l'utiliser pour un travail sérieux. Il y a aussi une crainte que l'IA puisse simplement ajouter du bruit à la littérature scientifique, plutôt que de faire avancer les connaissances.
"Nous devons nous demander si le résultat de [Sakana] concerne la qualité de l'IA pour concevoir et mener des expériences, ou s'il s'agit de la qualité de la vente d'idées aux humains - que nous savons déjà que l'IA est excellente", a déclaré Cook. "Il y a une différence entre passer l'examen par les pairs et contribuer aux connaissances à un domaine."
Au crédit de Sakana, ils ne prétendent pas que leur IA peut produire des travaux scientifiques révolutionnaires ou même particulièrement nouveaux. Leur objectif était de "étudier la qualité de la recherche générée par l'IA" et de souligner la nécessité de "normes concernant la science générée par l'AI".
"Il y a des questions difficiles sur la question de savoir si la science [générée par l'AI-AI doit être jugée sur ses propres mérites pour éviter les préjugés contre elle", a écrit la société. "À l'avenir, nous continuerons d'échanger des opinions avec la communauté de recherche sur l'état de cette technologie pour nous assurer qu'elle ne se transforme pas à une situation à l'avenir où son seul but est de passer l'examen par les pairs, sapant ainsi considérablement le sens du processus d'examen des pairs scientifique."
Article connexe
億萬富翁討論自動化取代工作在本週的AI更新中
大家好,歡迎回到TechCrunch的AI通訊!如果您尚未訂閱,可以在此訂閱,每週三直接送到您的收件箱。我們上週稍作休息,但理由充分——AI新聞週期火熱異常,很大程度上要歸功於中國AI公司DeepSeek的突然崛起。這段時間風起雲湧,但我們現在回來了,正好為您更新OpenAI的最新動態。週末,OpenAI執行長Sam Altman在東京停留,與SoftBank負責人孫正義會面。SoftBank是O
NotebookLM應用上線:AI驅動的知識工具
NotebookLM 行動版上線:你的AI研究助手現已登陸Android與iOS我們對 NotebookLM 的熱烈反響感到驚喜——數百萬用戶已將其視為理解複雜資訊的首選工具。但有一個請求不斷出現:「什麼時候才能帶著NotebookLM隨時使用?」等待結束了!🎉 NotebookLM行動應用程式現已登陸Android和iOS平台,將AI輔助學習的力量裝進你的
谷歌的人工智慧未來基金可能需要謹慎行事
Google 的新 AI 投資計劃:監管審查下的戰略轉變Google 最近宣布設立 AI 未來基金(AI Futures Fund),這標誌著這家科技巨頭在其塑造人工智慧未來的征程中邁出了大膽的一步。該計劃旨在為初創公司提供急需的資金、早期接觸仍在開發中的尖端人工智慧模型,以及來自 Google 內部專家的指導。儘管這不是 Google 第一次涉足初創企業生
commentaires (35)
0/200
FrankMoore
11 avril 2025 00:00:00 UTC
Sakana's AI Scientist-v2 passing peer review is mind-blowing! But the details are a bit fuzzy. It's cool that AI can do this, but I'm not sure if it's ready to take over science just yet. Exciting times, though!
0
DouglasRoberts
11 avril 2025 00:00:00 UTC
SakanaのAI Scientist-v2が査読を通過したなんて驚きです!でも、詳細が少し曖昧ですね。AIがこれができるのは素晴らしいけど、まだ科学を完全に引き継ぐ準備ができているかはわかりません。エキサイティングな時代ですね!
0
JasonJohnson
11 avril 2025 00:00:00 UTC
Sakana의 AI Scientist-v2가 동료 검토를 통과했다니 놀랍네요! 하지만 세부 사항이 조금 모호해요. AI가 이렇게 할 수 있다는 건 멋지지만, 아직 과학을 완전히 인수할 준비가 되었는지는 모르겠어요. 흥미로운 시대입니다!
0
JohnTaylor
11 avril 2025 00:00:00 UTC
O AI Scientist-v2 da Sakana passar pela revisão por pares é impressionante! Mas os detalhes são um pouco confusos. É legal que a IA possa fazer isso, mas não tenho certeza se está pronta para assumir a ciência ainda. Tempos empolgantes, no entanto!
0
RalphJohnson
11 avril 2025 00:00:00 UTC
¡Que el AI Scientist-v2 de Sakana haya pasado la revisión por pares es alucinante! Pero los detalles son un poco borrosos. Es genial que la IA pueda hacer esto, pero no estoy seguro de que esté lista para tomar el control de la ciencia todavía. ¡Tiempos emocionantes, sin embargo!
0
KevinSanchez
11 avril 2025 00:00:00 UTC
AI Scientist-v2 from Sakana sounds cool, but the claim about the peer-reviewed paper feels a bit overhyped. It's interesting, but we need more details to really get excited. AI in science is fascinating, but let's keep it real!
0
La startup d'IA japonaise Sakana a récemment fait des vagues en affirmant que son système d'IA, le scientifique-V2 de l'IA, a généré l'une des premières publications scientifiques évaluées par des pairs. Cependant, il y a des détails importants à considérer avant de nous exciter trop.
Le débat sur le rôle de l'IA dans la science est de se réchauffer. Certains chercheurs croient que l'IA n'est pas prête à être un «co-scientifique», tandis que d'autres voient le potentiel mais reconnaissent que nous sommes encore aux premiers stades. Sakana tombe dans ce dernier groupe.
L'entreprise a utilisé l'IA Scientist-V2 pour créer un article soumis à un atelier à ICLR, une conférence AI respectée. Sakana a travaillé avec l'Université de la Colombie-Britannique et l'Université d'Oxford pour soumettre trois articles générés par l'AI à cet atelier. L'IA a géré tout, des hypothèses aux expériences, au code, à l'analyse des données, aux visualisations et même aux titres.
"Nous avons généré des idées de recherche en fournissant le résumé et la description de l'atelier à l'IA", a déclaré Robert Lange, chercheur et membre fondateur de Sakana, à TechCrunch par e-mail. "Cela a assuré que les articles générés étaient sur le sujet et les soumissions appropriées."
L'un des trois articles a été accepté par l'atelier ICLR. Il s'est concentré sur la critique des techniques de formation pour les modèles d'IA. Cependant, Sakana a retiré l'article avant qu'il ne puisse être publié, citant la transparence et le respect des conventions ICLR.
Mais ne nous empêchons pas encore. Sakana a admis dans leur billet de blog que leur IA avait commis des erreurs de citation "embarrassantes", comme attribuer une méthode à un article de 2016 au lieu de l'œuvre originale de 1997.
De plus, le journal n'a pas été exposé autant à un examen minutieux que d'autres publications évaluées par des pairs. Il a été retiré après l'examen par les pairs initial, il n'a donc pas obtenu de «méta-révision» des organisateurs de l'atelier, qui auraient pu le rejeter.
Une autre chose à garder à l'esprit est que les ateliers de conférence ont souvent des taux d'acceptation plus élevés que la piste principale de la conférence. Sakana l'a mentionné dans leur article de blog et a noté qu'aucune de leurs études générées par l'IA ne répondait à leurs normes internes pour la piste de la conférence ICLR.
Matthew Guzdial, chercheur de l'IA et professeur adjoint à l'Université de l'Alberta, a qualifié les résultats de Sakana de "un peu trompeuses".
"Les gens de Sakana ont sélectionné les articles de certains nombre de ceux générés, ce qui signifie qu'ils utilisaient un jugement humain en termes de sélection des sorties qu'ils pensaient pouvoir entrer", a-t-il déclaré par e-mail. "Ce que je pense que cela montre, c'est que les humains et l'IA peuvent être efficaces, pas que l'IA seule puisse créer des progrès scientifiques."
Mike Cook, chercheur au King's College de Londres, spécialisé dans l'IA, a remis en question la rigueur des pairs examinateurs et de l'atelier.
"De nouveaux ateliers, comme celui-ci, sont souvent examinés par des chercheurs plus juniors", a-t-il déclaré à TechCrunch. "Il convient également de noter que cet atelier concerne des résultats et des difficultés négatifs - ce qui est génial, j'ai déjà organisé un atelier similaire - mais il est sans doute plus facile d'obtenir une IA pour écrire sur un échec de manière convaincante."
Cook n'était pas surpris qu'une IA puisse passer l'examen par les pairs, étant donné que l'IA est bonne pour écrire la prose à consonance humaine. Il a souligné que les articles en partie générés par l'AI-AI passaient une revue de revue ne sont pas nouveaux, et cela soulève des questions éthiques pour la communauté scientifique.
Les problèmes techniques de l'IA, comme sa tendance à «halluciner», rendent de nombreux scientifiques prudents à l'utiliser pour un travail sérieux. Il y a aussi une crainte que l'IA puisse simplement ajouter du bruit à la littérature scientifique, plutôt que de faire avancer les connaissances.
"Nous devons nous demander si le résultat de [Sakana] concerne la qualité de l'IA pour concevoir et mener des expériences, ou s'il s'agit de la qualité de la vente d'idées aux humains - que nous savons déjà que l'IA est excellente", a déclaré Cook. "Il y a une différence entre passer l'examen par les pairs et contribuer aux connaissances à un domaine."
Au crédit de Sakana, ils ne prétendent pas que leur IA peut produire des travaux scientifiques révolutionnaires ou même particulièrement nouveaux. Leur objectif était de "étudier la qualité de la recherche générée par l'IA" et de souligner la nécessité de "normes concernant la science générée par l'AI".
"Il y a des questions difficiles sur la question de savoir si la science [générée par l'AI-AI doit être jugée sur ses propres mérites pour éviter les préjugés contre elle", a écrit la société. "À l'avenir, nous continuerons d'échanger des opinions avec la communauté de recherche sur l'état de cette technologie pour nous assurer qu'elle ne se transforme pas à une situation à l'avenir où son seul but est de passer l'examen par les pairs, sapant ainsi considérablement le sens du processus d'examen des pairs scientifique."



Sakana's AI Scientist-v2 passing peer review is mind-blowing! But the details are a bit fuzzy. It's cool that AI can do this, but I'm not sure if it's ready to take over science just yet. Exciting times, though!




SakanaのAI Scientist-v2が査読を通過したなんて驚きです!でも、詳細が少し曖昧ですね。AIがこれができるのは素晴らしいけど、まだ科学を完全に引き継ぐ準備ができているかはわかりません。エキサイティングな時代ですね!




Sakana의 AI Scientist-v2가 동료 검토를 통과했다니 놀랍네요! 하지만 세부 사항이 조금 모호해요. AI가 이렇게 할 수 있다는 건 멋지지만, 아직 과학을 완전히 인수할 준비가 되었는지는 모르겠어요. 흥미로운 시대입니다!




O AI Scientist-v2 da Sakana passar pela revisão por pares é impressionante! Mas os detalhes são um pouco confusos. É legal que a IA possa fazer isso, mas não tenho certeza se está pronta para assumir a ciência ainda. Tempos empolgantes, no entanto!




¡Que el AI Scientist-v2 de Sakana haya pasado la revisión por pares es alucinante! Pero los detalles son un poco borrosos. Es genial que la IA pueda hacer esto, pero no estoy seguro de que esté lista para tomar el control de la ciencia todavía. ¡Tiempos emocionantes, sin embargo!




AI Scientist-v2 from Sakana sounds cool, but the claim about the peer-reviewed paper feels a bit overhyped. It's interesting, but we need more details to really get excited. AI in science is fascinating, but let's keep it real!












