KI -Startups, die für die Verwendung von Peer Review als PR -Taktik kritisiert wurden

Ein Sturm braut sich in der akademischen Welt über die Verwendung von KI-generierten Studien auf der diesjährigen ICLR-Konferenz zusammen, einem bedeutenden Ereignis, das sich auf künstliche Intelligenz konzentriert. Drei KI-Labore, Sakana, Intology und Autoscience, haben Kontroversen ausgelöst, indem sie KI-generierte Studien für ICLR-Workshops eingereicht haben.
Sakana verfolgte einen transparenten Ansatz, informierte die ICLR-Leitung und holte die Zustimmung der Gutachter ein, bevor sie ihre KI-generierten Arbeiten einreichten. Intology und Autoscience hingegen reichten ihre Studien ohne vorherige Benachrichtigung ein, wie ein ICLR-Sprecher gegenüber TechCrunch bestätigte.
Die akademische Gemeinschaft äußerte sich lautstark in den sozialen Medien, wobei viele Intology und Autoscience dafür kritisierten, den Peer-Review-Prozess auszunutzen. Prithviraj Ammanabrolu, Assistenzprofessor an der UC San Diego, äußerte seinen Frust auf X und wies auf das Fehlen der Zustimmung der Gutachter hin, die ihre Zeit und Mühe kostenlos zur Verfügung stellen. Er forderte eine vollständige Offenlegung gegenüber den Redakteuren über die Verwendung von KI bei der Erstellung dieser Studien.
Peer-Review ist bereits eine anspruchsvolle Aufgabe, wobei eine kürzliche Nature-Umfrage ergab, dass 40 % der Akademiker zwei bis vier Stunden für die Überprüfung einer einzelnen Studie aufwenden. Die Arbeitsbelastung steigt, wie der Anstieg der Einreichungen um 41 % auf der NeurIPS-Konferenz im letzten Jahr zeigt, insgesamt 17.491 Arbeiten.
Das Problem KI-generierter Inhalte in der Wissenschaft ist nicht neu, Schätzungen deuten darauf hin, dass zwischen 6,5 % und 16,9 % der 2023 bei KI-Konferenzen eingereichten Arbeiten synthetischen Text enthielten. Die Nutzung von Peer-Review als Mittel zur Bewertung und Förderung von KI-Technologie ist jedoch eine neuere Entwicklung.
Intology prahlte auf X mit durchweg positiven Bewertungen für ihre KI-generierten Arbeiten und zitierte sogar Workshop-Gutachter, die die „cleveren Ideen“ in einer ihrer Studien lobten. Diese Selbstbetrachtung stieß bei Akademikern auf wenig Gegenliebe.
Ashwinee Panda, Postdoktorandin an der University of Maryland, kritisierte den Mangel an Respekt gegenüber menschlichen Gutachtern durch die Einreichung KI-generierter Arbeiten ohne deren Zustimmung. Panda bemerkte, dass Sakana ihren Workshop bei ICLR angesprochen hatte, sie jedoch ablehnte, und betonte die Wichtigkeit, die Zeit und Rechte der Gutachter zu respektieren.
Skepsis gegenüber dem Wert KI-generierter Arbeiten ist unter Forschern weit verbreitet. Sakana räumte ein, dass ihre KI „peinliche“ Zitierungsfehler machte und dass nur eine ihrer drei eingereichten Arbeiten den Standards der Konferenz entsprochen hätte. In einem Schritt zur Transparenz zog Sakana ihre Arbeit von ICLR zurück.
Alexander Doria, Mitbegründer des KI-Startups Pleias, schlug die Notwendigkeit einer „regulierten Firma/öffentlichen Behörde“ vor, um bezahlte, hochwertige Bewertungen von KI-generierten Studien durchzuführen. Er argumentierte, dass Forscher für ihre Zeit vollständig entschädigt werden sollten und die Wissenschaft nicht als kostenlose Ressource für KI-Bewertungen genutzt werden sollte.
Verwandter Artikel
Google Cloud sorgt für Durchbrüche in der wissenschaftlichen Forschung und Entdeckung
Die digitale Revolution verändert die wissenschaftlichen Methoden durch nie dagewesene Berechnungsmöglichkeiten. Spitzentechnologien ergänzen heute sowohl theoretische Rahmenwerke als auch Laborexperi
KI beschleunigt die wissenschaftliche Forschung für eine größere Wirkung in der realen Welt
Google hat die KI konsequent als Katalysator für den wissenschaftlichen Fortschritt genutzt, wobei das heutige Entdeckungstempo ein außerordentliches Niveau erreicht hat. Diese Beschleunigung hat den
Ethik in der KI: Umgang mit Vorurteilen und Compliance-Herausforderungen bei der Automatisierung
In dem Maße, in dem die Automatisierung in allen Wirtschaftszweigen Einzug hält, werden ethische Überlegungen zu einer entscheidenden Priorität. Algorithmen, die Entscheidungen treffen, beeinflussen h
Kommentare (31)
0/200
JuanEvans
22. Juli 2025 03:25:03 MESZ
It's wild how AI startups are turning peer review into a PR stunt! 😅 Sakana and others submitting AI-generated studies to ICLR is bold, but it feels like they're more focused on headlines than real science. Anyone else think this could backfire big time?
0
LawrenceMiller
14. April 2025 12:29:12 MESZ
Я в замешательстве по поводу этих исследований, созданных ИИ, на ICLR. С одной стороны, круто, что ИИ может генерировать исследования, но использовать это для PR? Это кажется немного неправильным. Это расширяет границы, но не уверен, что это лучший способ.
0
AlbertAllen
13. April 2025 16:45:33 MESZ
I'm kinda torn about these AI startups using peer review as a PR move. On one hand, it's clever marketing, but on the other, it feels like they're gaming the system. I mean, if the studies are legit, why not just say so? Feels a bit shady to me.
0
JackMartin
13. April 2025 12:48:53 MESZ
ICLRでのAI生成の研究論文について、複雑な気持ちです。AIが研究を生成できるのは面白いけど、PRに利用するのは少し違和感があります。境界を押し広げる試みではあるけど、必ずしも最良の方法とは言えないかもしれませんね。
0
JonathanKing
13. April 2025 09:58:51 MESZ
Estoy dividido sobre estas startups de IA que usan la revisión por pares como una táctica de relaciones públicas. Por un lado, es un marketing inteligente, pero por otro, parece que están jugando con el sistema. Si los estudios son legítimos, ¿por qué no decirlo simplemente? Me parece un poco turbio.
0
BillyThomas
12. April 2025 20:30:32 MESZ
Me siento dividido con lo de los estudios generados por IA en ICLR. Por un lado, es genial que la IA pueda producir investigación, pero usarlo para relaciones públicas, no sé, me parece un poco fuera de lugar. Está empujando límites, pero no estoy seguro de que sea de la mejor manera.
0
Ein Sturm braut sich in der akademischen Welt über die Verwendung von KI-generierten Studien auf der diesjährigen ICLR-Konferenz zusammen, einem bedeutenden Ereignis, das sich auf künstliche Intelligenz konzentriert. Drei KI-Labore, Sakana, Intology und Autoscience, haben Kontroversen ausgelöst, indem sie KI-generierte Studien für ICLR-Workshops eingereicht haben.
Sakana verfolgte einen transparenten Ansatz, informierte die ICLR-Leitung und holte die Zustimmung der Gutachter ein, bevor sie ihre KI-generierten Arbeiten einreichten. Intology und Autoscience hingegen reichten ihre Studien ohne vorherige Benachrichtigung ein, wie ein ICLR-Sprecher gegenüber TechCrunch bestätigte.
Die akademische Gemeinschaft äußerte sich lautstark in den sozialen Medien, wobei viele Intology und Autoscience dafür kritisierten, den Peer-Review-Prozess auszunutzen. Prithviraj Ammanabrolu, Assistenzprofessor an der UC San Diego, äußerte seinen Frust auf X und wies auf das Fehlen der Zustimmung der Gutachter hin, die ihre Zeit und Mühe kostenlos zur Verfügung stellen. Er forderte eine vollständige Offenlegung gegenüber den Redakteuren über die Verwendung von KI bei der Erstellung dieser Studien.
Peer-Review ist bereits eine anspruchsvolle Aufgabe, wobei eine kürzliche Nature-Umfrage ergab, dass 40 % der Akademiker zwei bis vier Stunden für die Überprüfung einer einzelnen Studie aufwenden. Die Arbeitsbelastung steigt, wie der Anstieg der Einreichungen um 41 % auf der NeurIPS-Konferenz im letzten Jahr zeigt, insgesamt 17.491 Arbeiten.
Das Problem KI-generierter Inhalte in der Wissenschaft ist nicht neu, Schätzungen deuten darauf hin, dass zwischen 6,5 % und 16,9 % der 2023 bei KI-Konferenzen eingereichten Arbeiten synthetischen Text enthielten. Die Nutzung von Peer-Review als Mittel zur Bewertung und Förderung von KI-Technologie ist jedoch eine neuere Entwicklung.
Intology prahlte auf X mit durchweg positiven Bewertungen für ihre KI-generierten Arbeiten und zitierte sogar Workshop-Gutachter, die die „cleveren Ideen“ in einer ihrer Studien lobten. Diese Selbstbetrachtung stieß bei Akademikern auf wenig Gegenliebe.
Ashwinee Panda, Postdoktorandin an der University of Maryland, kritisierte den Mangel an Respekt gegenüber menschlichen Gutachtern durch die Einreichung KI-generierter Arbeiten ohne deren Zustimmung. Panda bemerkte, dass Sakana ihren Workshop bei ICLR angesprochen hatte, sie jedoch ablehnte, und betonte die Wichtigkeit, die Zeit und Rechte der Gutachter zu respektieren.
Skepsis gegenüber dem Wert KI-generierter Arbeiten ist unter Forschern weit verbreitet. Sakana räumte ein, dass ihre KI „peinliche“ Zitierungsfehler machte und dass nur eine ihrer drei eingereichten Arbeiten den Standards der Konferenz entsprochen hätte. In einem Schritt zur Transparenz zog Sakana ihre Arbeit von ICLR zurück.
Alexander Doria, Mitbegründer des KI-Startups Pleias, schlug die Notwendigkeit einer „regulierten Firma/öffentlichen Behörde“ vor, um bezahlte, hochwertige Bewertungen von KI-generierten Studien durchzuführen. Er argumentierte, dass Forscher für ihre Zeit vollständig entschädigt werden sollten und die Wissenschaft nicht als kostenlose Ressource für KI-Bewertungen genutzt werden sollte.



It's wild how AI startups are turning peer review into a PR stunt! 😅 Sakana and others submitting AI-generated studies to ICLR is bold, but it feels like they're more focused on headlines than real science. Anyone else think this could backfire big time?




Я в замешательстве по поводу этих исследований, созданных ИИ, на ICLR. С одной стороны, круто, что ИИ может генерировать исследования, но использовать это для PR? Это кажется немного неправильным. Это расширяет границы, но не уверен, что это лучший способ.




I'm kinda torn about these AI startups using peer review as a PR move. On one hand, it's clever marketing, but on the other, it feels like they're gaming the system. I mean, if the studies are legit, why not just say so? Feels a bit shady to me.




ICLRでのAI生成の研究論文について、複雑な気持ちです。AIが研究を生成できるのは面白いけど、PRに利用するのは少し違和感があります。境界を押し広げる試みではあるけど、必ずしも最良の方法とは言えないかもしれませんね。




Estoy dividido sobre estas startups de IA que usan la revisión por pares como una táctica de relaciones públicas. Por un lado, es un marketing inteligente, pero por otro, parece que están jugando con el sistema. Si los estudios son legítimos, ¿por qué no decirlo simplemente? Me parece un poco turbio.




Me siento dividido con lo de los estudios generados por IA en ICLR. Por un lado, es genial que la IA pueda producir investigación, pero usarlo para relaciones públicas, no sé, me parece un poco fuera de lugar. Está empujando límites, pero no estoy seguro de que sea de la mejor manera.












