Стартапы ИИ критикуют за использование обзора в качестве PR -тактики

Буря назревает в академическом мире из-за использования исследований, сгенерированных ИИ, на конференции ICLR этого года, крупном событии, посвященном искусственному интеллекту. Три лаборатории ИИ — Sakana, Intology и Autoscience — вызвали споры, представив исследования, сгенерированные ИИ, на воркшопы ICLR.
Sakana выбрала прозрачный подход, уведомив руководство ICLR и получив согласие рецензентов перед подачей своих исследований, сгенерированных ИИ. Однако Intology и Autoscience не последовали этому примеру, представив свои исследования без предварительного уведомления, как подтвердил представитель ICLR в беседе с TechCrunch.
Академическое сообщество активно высказывается в социальных сетях, многие критикуют Intology и Autoscience за использование процесса рецензирования в своих интересах. Притхвирадж Амманабролу, доцент Калифорнийского университета в Сан-Диего, выразил свое разочарование на X, подчеркивая отсутствие согласия рецензентов, которые предоставляют свое время и усилия бесплатно. Он призвал к полному раскрытию информации редакторам об использовании ИИ при создании этих исследований.
Рецензирование — уже сложная задача, и недавний опрос Nature показал, что 40% академиков тратят от двух до четырех часов на рецензирование одного исследования. Нагрузка растет, о чем свидетельствует рост числа поданных заявок на конференцию NeurIPS в прошлом году на 41%, что составило 17 491 статью.
Проблема контента, сгенерированного ИИ, в академической среде не нова: по оценкам, от 6,5% до 16,9% статей, поданных на конференции по ИИ в 2023 году, содержали синтетический текст. Однако использование рецензирования как способа тестирования и продвижения технологий ИИ — более недавнее явление.
Intology хвасталась на X единогласно положительными отзывами на свои исследования, сгенерированные ИИ, даже цитируя рецензентов воркшопа, которые хвалили «умные идеи» в одной из их работ. Такая самореклама не нашла отклика у академиков.
Ашвини Панда, постдокторант Мэрилендского университета, раскритиковала отсутствие уважения к рецензентам, проявленное при подаче исследований, сгенерированных ИИ, без их согласия. Панда отметила, что Sakana обращалась к ее воркшопу на ICLR, но она отказалась участвовать, подчеркивая важность уважения к времени и правам рецензентов.
Скептицизм относительно ценности исследований, сгенерированных ИИ, широко распространен среди исследователей. Sakana признала, что их ИИ допустил «неловкие» ошибки в цитировании и что только одна из трех поданных статей соответствовала бы стандартам конференции. В стремлении к прозрачности Sakana отозвала свою статью с ICLR.
Александр Дориа, сооснователь стартапа Pleias в области ИИ, предложил создать «регулируемую компанию/государственное агентство» для проведения платных высококачественных оценок исследований, сгенерированных ИИ. Он утверждал, что исследователи должны получать полную компенсацию за свое время и что академическая среда не должна использоваться как бесплатный ресурс для оценок ИИ.
Связанная статья
Исследование Microsoft выявляет ограничения моделей ИИ в отладке программного обеспечения
Модели ИИ от OpenAI, Anthropic и других ведущих лабораторий ИИ всё чаще используются для задач программирования. Генеральный директор Google Сундар Пичаи отметил в октябре, что ИИ генерирует 25% новог
AI-мощные решения могут значительно сократить глобальные выбросы углерода
Недавнее исследование Лондонской школы экономики и Systemiq показывает, что искусственный интеллект может существенно снизить глобальные выбросы углерода без ущерба для современных удобств, позиционир
Новая статья раскрывает, сколько данных на самом деле запоминают LLM
Сколько на самом деле запоминают модели ИИ? Новое исследование раскрывает удивительные выводыВсе мы знаем, что большие языковые модели (LLM), такие как ChatGPT, Claude и Gemini, обучаются на огромных
Комментарии (31)
JuanEvans
22 июля 2025 г., 4:25:03 GMT+03:00
It's wild how AI startups are turning peer review into a PR stunt! 😅 Sakana and others submitting AI-generated studies to ICLR is bold, but it feels like they're more focused on headlines than real science. Anyone else think this could backfire big time?
0
LawrenceMiller
14 апреля 2025 г., 13:29:12 GMT+03:00
Я в замешательстве по поводу этих исследований, созданных ИИ, на ICLR. С одной стороны, круто, что ИИ может генерировать исследования, но использовать это для PR? Это кажется немного неправильным. Это расширяет границы, но не уверен, что это лучший способ.
0
AlbertAllen
13 апреля 2025 г., 17:45:33 GMT+03:00
I'm kinda torn about these AI startups using peer review as a PR move. On one hand, it's clever marketing, but on the other, it feels like they're gaming the system. I mean, if the studies are legit, why not just say so? Feels a bit shady to me.
0
JackMartin
13 апреля 2025 г., 13:48:53 GMT+03:00
ICLRでのAI生成の研究論文について、複雑な気持ちです。AIが研究を生成できるのは面白いけど、PRに利用するのは少し違和感があります。境界を押し広げる試みではあるけど、必ずしも最良の方法とは言えないかもしれませんね。
0
JonathanKing
13 апреля 2025 г., 10:58:51 GMT+03:00
Estoy dividido sobre estas startups de IA que usan la revisión por pares como una táctica de relaciones públicas. Por un lado, es un marketing inteligente, pero por otro, parece que están jugando con el sistema. Si los estudios son legítimos, ¿por qué no decirlo simplemente? Me parece un poco turbio.
0
BillyThomas
12 апреля 2025 г., 21:30:32 GMT+03:00
Me siento dividido con lo de los estudios generados por IA en ICLR. Por un lado, es genial que la IA pueda producir investigación, pero usarlo para relaciones públicas, no sé, me parece un poco fuera de lugar. Está empujando límites, pero no estoy seguro de que sea de la mejor manera.
0
Буря назревает в академическом мире из-за использования исследований, сгенерированных ИИ, на конференции ICLR этого года, крупном событии, посвященном искусственному интеллекту. Три лаборатории ИИ — Sakana, Intology и Autoscience — вызвали споры, представив исследования, сгенерированные ИИ, на воркшопы ICLR.
Sakana выбрала прозрачный подход, уведомив руководство ICLR и получив согласие рецензентов перед подачей своих исследований, сгенерированных ИИ. Однако Intology и Autoscience не последовали этому примеру, представив свои исследования без предварительного уведомления, как подтвердил представитель ICLR в беседе с TechCrunch.
Академическое сообщество активно высказывается в социальных сетях, многие критикуют Intology и Autoscience за использование процесса рецензирования в своих интересах. Притхвирадж Амманабролу, доцент Калифорнийского университета в Сан-Диего, выразил свое разочарование на X, подчеркивая отсутствие согласия рецензентов, которые предоставляют свое время и усилия бесплатно. Он призвал к полному раскрытию информации редакторам об использовании ИИ при создании этих исследований.
Рецензирование — уже сложная задача, и недавний опрос Nature показал, что 40% академиков тратят от двух до четырех часов на рецензирование одного исследования. Нагрузка растет, о чем свидетельствует рост числа поданных заявок на конференцию NeurIPS в прошлом году на 41%, что составило 17 491 статью.
Проблема контента, сгенерированного ИИ, в академической среде не нова: по оценкам, от 6,5% до 16,9% статей, поданных на конференции по ИИ в 2023 году, содержали синтетический текст. Однако использование рецензирования как способа тестирования и продвижения технологий ИИ — более недавнее явление.
Intology хвасталась на X единогласно положительными отзывами на свои исследования, сгенерированные ИИ, даже цитируя рецензентов воркшопа, которые хвалили «умные идеи» в одной из их работ. Такая самореклама не нашла отклика у академиков.
Ашвини Панда, постдокторант Мэрилендского университета, раскритиковала отсутствие уважения к рецензентам, проявленное при подаче исследований, сгенерированных ИИ, без их согласия. Панда отметила, что Sakana обращалась к ее воркшопу на ICLR, но она отказалась участвовать, подчеркивая важность уважения к времени и правам рецензентов.
Скептицизм относительно ценности исследований, сгенерированных ИИ, широко распространен среди исследователей. Sakana признала, что их ИИ допустил «неловкие» ошибки в цитировании и что только одна из трех поданных статей соответствовала бы стандартам конференции. В стремлении к прозрачности Sakana отозвала свою статью с ICLR.
Александр Дориа, сооснователь стартапа Pleias в области ИИ, предложил создать «регулируемую компанию/государственное агентство» для проведения платных высококачественных оценок исследований, сгенерированных ИИ. Он утверждал, что исследователи должны получать полную компенсацию за свое время и что академическая среда не должна использоваться как бесплатный ресурс для оценок ИИ.



It's wild how AI startups are turning peer review into a PR stunt! 😅 Sakana and others submitting AI-generated studies to ICLR is bold, but it feels like they're more focused on headlines than real science. Anyone else think this could backfire big time?




Я в замешательстве по поводу этих исследований, созданных ИИ, на ICLR. С одной стороны, круто, что ИИ может генерировать исследования, но использовать это для PR? Это кажется немного неправильным. Это расширяет границы, но не уверен, что это лучший способ.




I'm kinda torn about these AI startups using peer review as a PR move. On one hand, it's clever marketing, but on the other, it feels like they're gaming the system. I mean, if the studies are legit, why not just say so? Feels a bit shady to me.




ICLRでのAI生成の研究論文について、複雑な気持ちです。AIが研究を生成できるのは面白いけど、PRに利用するのは少し違和感があります。境界を押し広げる試みではあるけど、必ずしも最良の方法とは言えないかもしれませんね。




Estoy dividido sobre estas startups de IA que usan la revisión por pares como una táctica de relaciones públicas. Por un lado, es un marketing inteligente, pero por otro, parece que están jugando con el sistema. Si los estudios son legítimos, ¿por qué no decirlo simplemente? Me parece un poco turbio.




Me siento dividido con lo de los estudios generados por IA en ICLR. Por un lado, es genial que la IA pueda producir investigación, pero usarlo para relaciones públicas, no sé, me parece un poco fuera de lugar. Está empujando límites, pero no estoy seguro de que sea de la mejor manera.












