KI -Startups, die für die Verwendung von Peer Review als PR -Taktik kritisiert wurden

Ein Sturm braut sich in der akademischen Welt über die Verwendung von KI-generierten Studien auf der diesjährigen ICLR-Konferenz zusammen, einem bedeutenden Ereignis, das sich auf künstliche Intelligenz konzentriert. Drei KI-Labore, Sakana, Intology und Autoscience, haben Kontroversen ausgelöst, indem sie KI-generierte Studien für ICLR-Workshops eingereicht haben.
Sakana verfolgte einen transparenten Ansatz, informierte die ICLR-Leitung und holte die Zustimmung der Gutachter ein, bevor sie ihre KI-generierten Arbeiten einreichten. Intology und Autoscience hingegen reichten ihre Studien ohne vorherige Benachrichtigung ein, wie ein ICLR-Sprecher gegenüber TechCrunch bestätigte.
Die akademische Gemeinschaft äußerte sich lautstark in den sozialen Medien, wobei viele Intology und Autoscience dafür kritisierten, den Peer-Review-Prozess auszunutzen. Prithviraj Ammanabrolu, Assistenzprofessor an der UC San Diego, äußerte seinen Frust auf X und wies auf das Fehlen der Zustimmung der Gutachter hin, die ihre Zeit und Mühe kostenlos zur Verfügung stellen. Er forderte eine vollständige Offenlegung gegenüber den Redakteuren über die Verwendung von KI bei der Erstellung dieser Studien.
Peer-Review ist bereits eine anspruchsvolle Aufgabe, wobei eine kürzliche Nature-Umfrage ergab, dass 40 % der Akademiker zwei bis vier Stunden für die Überprüfung einer einzelnen Studie aufwenden. Die Arbeitsbelastung steigt, wie der Anstieg der Einreichungen um 41 % auf der NeurIPS-Konferenz im letzten Jahr zeigt, insgesamt 17.491 Arbeiten.
Das Problem KI-generierter Inhalte in der Wissenschaft ist nicht neu, Schätzungen deuten darauf hin, dass zwischen 6,5 % und 16,9 % der 2023 bei KI-Konferenzen eingereichten Arbeiten synthetischen Text enthielten. Die Nutzung von Peer-Review als Mittel zur Bewertung und Förderung von KI-Technologie ist jedoch eine neuere Entwicklung.
Intology prahlte auf X mit durchweg positiven Bewertungen für ihre KI-generierten Arbeiten und zitierte sogar Workshop-Gutachter, die die „cleveren Ideen“ in einer ihrer Studien lobten. Diese Selbstbetrachtung stieß bei Akademikern auf wenig Gegenliebe.
Ashwinee Panda, Postdoktorandin an der University of Maryland, kritisierte den Mangel an Respekt gegenüber menschlichen Gutachtern durch die Einreichung KI-generierter Arbeiten ohne deren Zustimmung. Panda bemerkte, dass Sakana ihren Workshop bei ICLR angesprochen hatte, sie jedoch ablehnte, und betonte die Wichtigkeit, die Zeit und Rechte der Gutachter zu respektieren.
Skepsis gegenüber dem Wert KI-generierter Arbeiten ist unter Forschern weit verbreitet. Sakana räumte ein, dass ihre KI „peinliche“ Zitierungsfehler machte und dass nur eine ihrer drei eingereichten Arbeiten den Standards der Konferenz entsprochen hätte. In einem Schritt zur Transparenz zog Sakana ihre Arbeit von ICLR zurück.
Alexander Doria, Mitbegründer des KI-Startups Pleias, schlug die Notwendigkeit einer „regulierten Firma/öffentlichen Behörde“ vor, um bezahlte, hochwertige Bewertungen von KI-generierten Studien durchzuführen. Er argumentierte, dass Forscher für ihre Zeit vollständig entschädigt werden sollten und die Wissenschaft nicht als kostenlose Ressource für KI-Bewertungen genutzt werden sollte.
Verwandter Artikel
Microsoft-Studie zeigt die Grenzen von KI-Modellen beim Software-Debugging
KI-Modelle von OpenAI, Anthropic und anderen führenden KI-Laboren werden zunehmend für Programmieraufgaben eingesetzt. Google-CEO Sundar Pichai bemerkte im Oktober, dass KI 25 % des neuen Codes im Unt
KI-gestützte Lösungen könnten globale Kohlenstoffemissionen erheblich reduzieren
Eine kürzlich veröffentlichte Studie der London School of Economics und Systemiq zeigt, dass künstliche Intelligenz die globalen Kohlenstoffemissionen erheblich senken könnte, ohne moderne Annehmlichk
Neue Studie enthüllt, wie viel Daten LLMs tatsächlich speichern
Wie viel speichern AI-Modelle tatsächlich? Neue Forschung enthüllt überraschende ErkenntnisseWir alle wissen, dass große Sprachmodelle (LLMs) wie ChatGPT, Claude und Gemini auf riesigen Datensätzen tr
Kommentare (31)
0/200
JuanEvans
22. Juli 2025 03:25:03 MESZ
It's wild how AI startups are turning peer review into a PR stunt! 😅 Sakana and others submitting AI-generated studies to ICLR is bold, but it feels like they're more focused on headlines than real science. Anyone else think this could backfire big time?
0
LawrenceMiller
14. April 2025 12:29:12 MESZ
Я в замешательстве по поводу этих исследований, созданных ИИ, на ICLR. С одной стороны, круто, что ИИ может генерировать исследования, но использовать это для PR? Это кажется немного неправильным. Это расширяет границы, но не уверен, что это лучший способ.
0
AlbertAllen
13. April 2025 16:45:33 MESZ
I'm kinda torn about these AI startups using peer review as a PR move. On one hand, it's clever marketing, but on the other, it feels like they're gaming the system. I mean, if the studies are legit, why not just say so? Feels a bit shady to me.
0
JackMartin
13. April 2025 12:48:53 MESZ
ICLRでのAI生成の研究論文について、複雑な気持ちです。AIが研究を生成できるのは面白いけど、PRに利用するのは少し違和感があります。境界を押し広げる試みではあるけど、必ずしも最良の方法とは言えないかもしれませんね。
0
JonathanKing
13. April 2025 09:58:51 MESZ
Estoy dividido sobre estas startups de IA que usan la revisión por pares como una táctica de relaciones públicas. Por un lado, es un marketing inteligente, pero por otro, parece que están jugando con el sistema. Si los estudios son legítimos, ¿por qué no decirlo simplemente? Me parece un poco turbio.
0
BillyThomas
12. April 2025 20:30:32 MESZ
Me siento dividido con lo de los estudios generados por IA en ICLR. Por un lado, es genial que la IA pueda producir investigación, pero usarlo para relaciones públicas, no sé, me parece un poco fuera de lugar. Está empujando límites, pero no estoy seguro de que sea de la mejor manera.
0
Ein Sturm braut sich in der akademischen Welt über die Verwendung von KI-generierten Studien auf der diesjährigen ICLR-Konferenz zusammen, einem bedeutenden Ereignis, das sich auf künstliche Intelligenz konzentriert. Drei KI-Labore, Sakana, Intology und Autoscience, haben Kontroversen ausgelöst, indem sie KI-generierte Studien für ICLR-Workshops eingereicht haben.
Sakana verfolgte einen transparenten Ansatz, informierte die ICLR-Leitung und holte die Zustimmung der Gutachter ein, bevor sie ihre KI-generierten Arbeiten einreichten. Intology und Autoscience hingegen reichten ihre Studien ohne vorherige Benachrichtigung ein, wie ein ICLR-Sprecher gegenüber TechCrunch bestätigte.
Die akademische Gemeinschaft äußerte sich lautstark in den sozialen Medien, wobei viele Intology und Autoscience dafür kritisierten, den Peer-Review-Prozess auszunutzen. Prithviraj Ammanabrolu, Assistenzprofessor an der UC San Diego, äußerte seinen Frust auf X und wies auf das Fehlen der Zustimmung der Gutachter hin, die ihre Zeit und Mühe kostenlos zur Verfügung stellen. Er forderte eine vollständige Offenlegung gegenüber den Redakteuren über die Verwendung von KI bei der Erstellung dieser Studien.
Peer-Review ist bereits eine anspruchsvolle Aufgabe, wobei eine kürzliche Nature-Umfrage ergab, dass 40 % der Akademiker zwei bis vier Stunden für die Überprüfung einer einzelnen Studie aufwenden. Die Arbeitsbelastung steigt, wie der Anstieg der Einreichungen um 41 % auf der NeurIPS-Konferenz im letzten Jahr zeigt, insgesamt 17.491 Arbeiten.
Das Problem KI-generierter Inhalte in der Wissenschaft ist nicht neu, Schätzungen deuten darauf hin, dass zwischen 6,5 % und 16,9 % der 2023 bei KI-Konferenzen eingereichten Arbeiten synthetischen Text enthielten. Die Nutzung von Peer-Review als Mittel zur Bewertung und Förderung von KI-Technologie ist jedoch eine neuere Entwicklung.
Intology prahlte auf X mit durchweg positiven Bewertungen für ihre KI-generierten Arbeiten und zitierte sogar Workshop-Gutachter, die die „cleveren Ideen“ in einer ihrer Studien lobten. Diese Selbstbetrachtung stieß bei Akademikern auf wenig Gegenliebe.
Ashwinee Panda, Postdoktorandin an der University of Maryland, kritisierte den Mangel an Respekt gegenüber menschlichen Gutachtern durch die Einreichung KI-generierter Arbeiten ohne deren Zustimmung. Panda bemerkte, dass Sakana ihren Workshop bei ICLR angesprochen hatte, sie jedoch ablehnte, und betonte die Wichtigkeit, die Zeit und Rechte der Gutachter zu respektieren.
Skepsis gegenüber dem Wert KI-generierter Arbeiten ist unter Forschern weit verbreitet. Sakana räumte ein, dass ihre KI „peinliche“ Zitierungsfehler machte und dass nur eine ihrer drei eingereichten Arbeiten den Standards der Konferenz entsprochen hätte. In einem Schritt zur Transparenz zog Sakana ihre Arbeit von ICLR zurück.
Alexander Doria, Mitbegründer des KI-Startups Pleias, schlug die Notwendigkeit einer „regulierten Firma/öffentlichen Behörde“ vor, um bezahlte, hochwertige Bewertungen von KI-generierten Studien durchzuführen. Er argumentierte, dass Forscher für ihre Zeit vollständig entschädigt werden sollten und die Wissenschaft nicht als kostenlose Ressource für KI-Bewertungen genutzt werden sollte.



It's wild how AI startups are turning peer review into a PR stunt! 😅 Sakana and others submitting AI-generated studies to ICLR is bold, but it feels like they're more focused on headlines than real science. Anyone else think this could backfire big time?




Я в замешательстве по поводу этих исследований, созданных ИИ, на ICLR. С одной стороны, круто, что ИИ может генерировать исследования, но использовать это для PR? Это кажется немного неправильным. Это расширяет границы, но не уверен, что это лучший способ.




I'm kinda torn about these AI startups using peer review as a PR move. On one hand, it's clever marketing, but on the other, it feels like they're gaming the system. I mean, if the studies are legit, why not just say so? Feels a bit shady to me.




ICLRでのAI生成の研究論文について、複雑な気持ちです。AIが研究を生成できるのは面白いけど、PRに利用するのは少し違和感があります。境界を押し広げる試みではあるけど、必ずしも最良の方法とは言えないかもしれませんね。




Estoy dividido sobre estas startups de IA que usan la revisión por pares como una táctica de relaciones públicas. Por un lado, es un marketing inteligente, pero por otro, parece que están jugando con el sistema. Si los estudios son legítimos, ¿por qué no decirlo simplemente? Me parece un poco turbio.




Me siento dividido con lo de los estudios generados por IA en ICLR. Por un lado, es genial que la IA pueda producir investigación, pero usarlo para relaciones públicas, no sé, me parece un poco fuera de lugar. Está empujando límites, pero no estoy seguro de que sea de la mejor manera.












