Ай не готов как «ко-научный», говорят эксперты

Google недавно представил свой «ИИ-соученый», инструмент ИИ, предназначенный для помощи ученым в создании гипотез и исследовательских планов. Компания рекламировала его как революционное средство для раскрытия новых знаний, но эксперты скептически относятся к его реальному влиянию.
«Этот предварительный инструмент, хотя и интересен, вряд ли будет серьезно использоваться», — сказала Сара Бири, исследователь компьютерного зрения в MIT, в интервью TechCrunch. «Я не уверена, что в научном сообществе есть спрос на такой тип системы генерации гипотез».
Google — лишь последний технологический гигант, утверждающий, что ИИ произведет революцию в научных исследованиях, особенно в таких данных-насыщенных областях, как биомедицина. Генеральный директор OpenAI Сэм Альтман написал в эссе ранее в этом году, что «сверхинтеллектуальный» ИИ может «значительно ускорить научные открытия и инновации». Аналогично, генеральный директор Anthropic Дарио Амодеи предсказал, что ИИ может помочь разработать лекарства от большинства видов рака.
Однако многие исследователи считают, что современные инструменты ИИ не соответствуют этим амбициозным заявлениям. Они утверждают, что приложения, такие как ИИ-соученый Google, больше связаны с рекламной шумихой, чем с реальным содержанием, и не имеют эмпирических данных для подтверждения обещаний.
Например, пост в блоге Google об ИИ-соученом хвалился его потенциалом в перепрофилировании лекарств для острого миелоидного лейкоза, типа рака крови, который поражает костный мозг. Однако результаты были настолько расплывчатыми, что «ни один серьезный ученый не воспринял бы их всерьез», по словам Фавии Дубик, патологоанатома из Northwest Medical Center-Tucson в Аризоне.
«Это может быть хорошей отправной точкой для исследователей, но отсутствие деталей вызывает беспокойство и не внушает мне доверия», — сказала Дубик TechCrunch. «Недостаток предоставленной информации действительно затрудняет понимание, может ли это быть действительно полезным».
Это не первый случай, когда Google сталкивается с критикой со стороны научного сообщества за продвижение прорыва в области ИИ без предоставления достаточных деталей для воспроизведения результатов другими.
Еще в 2020 году Google утверждал, что одна из его систем ИИ, обученная обнаружению опухолей молочной железы, превзошла радиологов-людей. Но исследователи из Гарварда и Стэнфорда опубликовали опровержение в Nature, утверждая, что отсутствие подробных методов и кода в исследовании Google «подрывало его научную ценность».
Ученые также критиковали Google за преуменьшение ограничений его инструментов ИИ в таких областях, как материаловедение. В 2023 году компания заявила, что около 40 «новых материалов» были синтезированы с помощью ее системы ИИ GNoME. Однако независимый анализ показал, что ни один из этих материалов на самом деле не был новым.
«Мы не сможем по-настоящему понять сильные и слабые стороны таких инструментов, как «ИИ-соученый» Google, пока они не пройдут тщательную независимую оценку в различных научных дисциплинах», — сказал Ашик ХудаБукш, доцент по программной инженерии в Рочестерском технологическом институте, в интервью TechCrunch. «ИИ часто хорошо работает в контролируемых условиях, но может потерпеть неудачу при применении в масштабе».
Сложные процессы
Разработка инструментов ИИ для помощи в научных открытиях сложна, потому что трудно предсказать все факторы, которые могут помешать работе. ИИ может быть полезен для просеивания огромного списка возможностей, но менее ясно, может ли он справиться с тем видом творческого решения проблем, который приводит к крупным прорывам.
«На протяжении истории мы видели, что некоторые из наиболее важных научных достижений, таких как разработка мРНК-вакцин, были обусловлены человеческой интуицией и настойчивостью перед лицом скептицизма», — сказал ХудаБукш. «ИИ, в его нынешнем виде, возможно, не подходит для воспроизведения этого».
Лана Синапайен, исследователь ИИ в Sony Computer Science Laboratories в Японии, считает, что такие инструменты, как ИИ-соученый Google, сосредотачиваются на неправильных аспектах научной работы.
Синапайен видит ценность в ИИ, который может автоматизировать утомительные задачи, такие как обобщение новой академической литературы или форматирование заявок на гранты. Но она утверждает, что спрос на ИИ-соученого, который генерирует гипотезы, невелик, поскольку многие исследователи находят эту задачу интеллектуально удовлетворительной.
«Для многих ученых, включая меня, генерация гипотез — это самая интересная часть работы», — сказала Синапайен TechCrunch. «Зачем мне отдавать свою радость компьютеру, а затем оставаться с тяжелой работой, которую нужно делать самостоятельно? В целом, многие исследователи генеративного ИИ, кажется, неправильно понимают, почему люди делают то, что делают, и в итоге мы получаем предложения продуктов, которые автоматизируют именно ту часть, которая приносит нам радость».
Бири отметила, что самая сложная часть научного процесса часто заключается в разработке и реализации исследований для проверки гипотез, с чем современные системы ИИ справляются с трудом. ИИ не может физически проводить эксперименты, и он часто сталкивается с проблемами, когда данных недостаточно.
«Большинство наук невозможно проводить полностью виртуально — часто значительная часть научного процесса является физической, например, сбор новых данных и проведение экспериментов в лаборатории», — сказала Бири. «Одно большое ограничение систем, таких как ИИ-соученый Google, по сравнению с реальным научным процессом, что определенно ограничивает его полезность, — это контекст лаборатории и исследователя, использующего систему, их конкретные исследовательские цели, их предыдущая работа, их навыки и ресурсы, к которым они имеют доступ».
Риски ИИ
Технические ограничения и риски ИИ, такие как его склонность к «галлюцинациям» или генерации ложной информации, заставляют ученых осторожно относиться к его использованию для серьезной работы.
ХудаБукш опасается, что инструменты ИИ могут в конечном итоге заполнить научную литературу шумом, а не способствовать прогрессу.
Это уже происходит. Недавнее исследование показало, что «мусорная наука», сгенерированная ИИ, заполняет Google Scholar, бесплатную поисковую систему Google для научной литературы.
«Исследования, сгенерированные ИИ, если их не контролировать тщательно, могут заполнить научное поле исследованиями низкого качества или даже вводящими в заблуждение, перегружая процесс рецензирования», — сказал ХудаБукш. «Перегруженный процесс рецензирования уже является проблемой в таких областях, как информатика, где ведущие конференции столкнулись с экспоненциальным ростом числа заявок».
Даже хорошо спроектированные исследования могут быть скомпрометированы из-за некорректного поведения ИИ, предупредила Синапайен. Хотя она ценит идею инструмента, который мог бы помочь с обзором литературы и синтезом, она не доверяет современному ИИ выполнять эту работу надежно.
«Это задачи, которые различные существующие инструменты заявляют, что могут выполнять, но это не те задачи, которые я лично доверила бы современному ИИ», — сказала Синапайен. Она также выразила озабоченность по поводу того, как обучаются системы ИИ и сколько энергии они потребляют. «Даже если бы все этические проблемы были решены, текущий ИИ просто недостаточно надежен, чтобы я могла основывать свою работу на его результатах в любом случае».
Связанная статья
Исследование Microsoft выявляет ограничения моделей ИИ в отладке программного обеспечения
Модели ИИ от OpenAI, Anthropic и других ведущих лабораторий ИИ всё чаще используются для задач программирования. Генеральный директор Google Сундар Пичаи отметил в октябре, что ИИ генерирует 25% новог
AI-мощные решения могут значительно сократить глобальные выбросы углерода
Недавнее исследование Лондонской школы экономики и Systemiq показывает, что искусственный интеллект может существенно снизить глобальные выбросы углерода без ущерба для современных удобств, позиционир
Новая статья раскрывает, сколько данных на самом деле запоминают LLM
Сколько на самом деле запоминают модели ИИ? Новое исследование раскрывает удивительные выводыВсе мы знаем, что большие языковые модели (LLM), такие как ChatGPT, Claude и Gemini, обучаются на огромных
Комментарии (33)
PaulWilson
8 августа 2025 г., 16:00:59 GMT+03:00
I read about Google's AI co-scientist, and it sounds like a cool idea, but experts seem to think it’s more hype than substance. Anyone else feel like AI’s being oversold these days? 🤔
0
GaryLewis
4 августа 2025 г., 9:48:52 GMT+03:00
I read about Google's AI co-scientist and it sounds cool, but experts throwing shade makes me wonder if it’s just hype. 🤔 Anyone else think AI’s still got a long way to go before it’s truly helping scientists discover new stuff?
0
PeterYoung
23 июля 2025 г., 7:59:47 GMT+03:00
I find it intriguing that Google's pushing this AI co-scientist angle, but I'm not shocked experts are skeptical. Sounds like a cool concept, yet overhyped tech often fizzles out in practice. Anyone else think it’s more marketing than science? 😏
0
BruceGonzalez
25 апреля 2025 г., 6:08:16 GMT+03:00
Google's AI co-scientist sounds cool on paper, but in real life? Not so much. I tried using it for my research, and it's more like a fancy suggestion box than a game-changer. It's okay for brainstorming, but don't expect it to revolutionize your work. Maybe in a few years, it'll be worth the hype. 🤔
0
RogerPerez
24 апреля 2025 г., 6:00:20 GMT+03:00
구글의 'AI 공동 과학자'를 사용해 봤는데, 지금은 '공동 추측자' 같아요. 나오는 아이디어는 재미있지만, 과학을 혁신할 정도는 아니네요. 몇 년 후에는 더 유용할지 모르겠지만, 지금은 그냥 그런 정도? 🤔
0
IsabellaLevis
21 апреля 2025 г., 10:32:19 GMT+03:00
Googleの「AI共助科学者」を試してみましたが、今のところ「共推測者」のようです。出てくるアイデアは面白いけど、科学を革命するには程遠いですね。数年後にはもっと役立つかもしれませんが、今はまだ。😅
0
Google недавно представил свой «ИИ-соученый», инструмент ИИ, предназначенный для помощи ученым в создании гипотез и исследовательских планов. Компания рекламировала его как революционное средство для раскрытия новых знаний, но эксперты скептически относятся к его реальному влиянию.
«Этот предварительный инструмент, хотя и интересен, вряд ли будет серьезно использоваться», — сказала Сара Бири, исследователь компьютерного зрения в MIT, в интервью TechCrunch. «Я не уверена, что в научном сообществе есть спрос на такой тип системы генерации гипотез».
Google — лишь последний технологический гигант, утверждающий, что ИИ произведет революцию в научных исследованиях, особенно в таких данных-насыщенных областях, как биомедицина. Генеральный директор OpenAI Сэм Альтман написал в эссе ранее в этом году, что «сверхинтеллектуальный» ИИ может «значительно ускорить научные открытия и инновации». Аналогично, генеральный директор Anthropic Дарио Амодеи предсказал, что ИИ может помочь разработать лекарства от большинства видов рака.
Однако многие исследователи считают, что современные инструменты ИИ не соответствуют этим амбициозным заявлениям. Они утверждают, что приложения, такие как ИИ-соученый Google, больше связаны с рекламной шумихой, чем с реальным содержанием, и не имеют эмпирических данных для подтверждения обещаний.
Например, пост в блоге Google об ИИ-соученом хвалился его потенциалом в перепрофилировании лекарств для острого миелоидного лейкоза, типа рака крови, который поражает костный мозг. Однако результаты были настолько расплывчатыми, что «ни один серьезный ученый не воспринял бы их всерьез», по словам Фавии Дубик, патологоанатома из Northwest Medical Center-Tucson в Аризоне.
«Это может быть хорошей отправной точкой для исследователей, но отсутствие деталей вызывает беспокойство и не внушает мне доверия», — сказала Дубик TechCrunch. «Недостаток предоставленной информации действительно затрудняет понимание, может ли это быть действительно полезным».
Это не первый случай, когда Google сталкивается с критикой со стороны научного сообщества за продвижение прорыва в области ИИ без предоставления достаточных деталей для воспроизведения результатов другими.
Еще в 2020 году Google утверждал, что одна из его систем ИИ, обученная обнаружению опухолей молочной железы, превзошла радиологов-людей. Но исследователи из Гарварда и Стэнфорда опубликовали опровержение в Nature, утверждая, что отсутствие подробных методов и кода в исследовании Google «подрывало его научную ценность».
Ученые также критиковали Google за преуменьшение ограничений его инструментов ИИ в таких областях, как материаловедение. В 2023 году компания заявила, что около 40 «новых материалов» были синтезированы с помощью ее системы ИИ GNoME. Однако независимый анализ показал, что ни один из этих материалов на самом деле не был новым.
«Мы не сможем по-настоящему понять сильные и слабые стороны таких инструментов, как «ИИ-соученый» Google, пока они не пройдут тщательную независимую оценку в различных научных дисциплинах», — сказал Ашик ХудаБукш, доцент по программной инженерии в Рочестерском технологическом институте, в интервью TechCrunch. «ИИ часто хорошо работает в контролируемых условиях, но может потерпеть неудачу при применении в масштабе».
Сложные процессы
Разработка инструментов ИИ для помощи в научных открытиях сложна, потому что трудно предсказать все факторы, которые могут помешать работе. ИИ может быть полезен для просеивания огромного списка возможностей, но менее ясно, может ли он справиться с тем видом творческого решения проблем, который приводит к крупным прорывам.
«На протяжении истории мы видели, что некоторые из наиболее важных научных достижений, таких как разработка мРНК-вакцин, были обусловлены человеческой интуицией и настойчивостью перед лицом скептицизма», — сказал ХудаБукш. «ИИ, в его нынешнем виде, возможно, не подходит для воспроизведения этого».
Лана Синапайен, исследователь ИИ в Sony Computer Science Laboratories в Японии, считает, что такие инструменты, как ИИ-соученый Google, сосредотачиваются на неправильных аспектах научной работы.
Синапайен видит ценность в ИИ, который может автоматизировать утомительные задачи, такие как обобщение новой академической литературы или форматирование заявок на гранты. Но она утверждает, что спрос на ИИ-соученого, который генерирует гипотезы, невелик, поскольку многие исследователи находят эту задачу интеллектуально удовлетворительной.
«Для многих ученых, включая меня, генерация гипотез — это самая интересная часть работы», — сказала Синапайен TechCrunch. «Зачем мне отдавать свою радость компьютеру, а затем оставаться с тяжелой работой, которую нужно делать самостоятельно? В целом, многие исследователи генеративного ИИ, кажется, неправильно понимают, почему люди делают то, что делают, и в итоге мы получаем предложения продуктов, которые автоматизируют именно ту часть, которая приносит нам радость».
Бири отметила, что самая сложная часть научного процесса часто заключается в разработке и реализации исследований для проверки гипотез, с чем современные системы ИИ справляются с трудом. ИИ не может физически проводить эксперименты, и он часто сталкивается с проблемами, когда данных недостаточно.
«Большинство наук невозможно проводить полностью виртуально — часто значительная часть научного процесса является физической, например, сбор новых данных и проведение экспериментов в лаборатории», — сказала Бири. «Одно большое ограничение систем, таких как ИИ-соученый Google, по сравнению с реальным научным процессом, что определенно ограничивает его полезность, — это контекст лаборатории и исследователя, использующего систему, их конкретные исследовательские цели, их предыдущая работа, их навыки и ресурсы, к которым они имеют доступ».
Риски ИИ
Технические ограничения и риски ИИ, такие как его склонность к «галлюцинациям» или генерации ложной информации, заставляют ученых осторожно относиться к его использованию для серьезной работы.
ХудаБукш опасается, что инструменты ИИ могут в конечном итоге заполнить научную литературу шумом, а не способствовать прогрессу.
Это уже происходит. Недавнее исследование показало, что «мусорная наука», сгенерированная ИИ, заполняет Google Scholar, бесплатную поисковую систему Google для научной литературы.
«Исследования, сгенерированные ИИ, если их не контролировать тщательно, могут заполнить научное поле исследованиями низкого качества или даже вводящими в заблуждение, перегружая процесс рецензирования», — сказал ХудаБукш. «Перегруженный процесс рецензирования уже является проблемой в таких областях, как информатика, где ведущие конференции столкнулись с экспоненциальным ростом числа заявок».
Даже хорошо спроектированные исследования могут быть скомпрометированы из-за некорректного поведения ИИ, предупредила Синапайен. Хотя она ценит идею инструмента, который мог бы помочь с обзором литературы и синтезом, она не доверяет современному ИИ выполнять эту работу надежно.
«Это задачи, которые различные существующие инструменты заявляют, что могут выполнять, но это не те задачи, которые я лично доверила бы современному ИИ», — сказала Синапайен. Она также выразила озабоченность по поводу того, как обучаются системы ИИ и сколько энергии они потребляют. «Даже если бы все этические проблемы были решены, текущий ИИ просто недостаточно надежен, чтобы я могла основывать свою работу на его результатах в любом случае».



I read about Google's AI co-scientist, and it sounds like a cool idea, but experts seem to think it’s more hype than substance. Anyone else feel like AI’s being oversold these days? 🤔




I read about Google's AI co-scientist and it sounds cool, but experts throwing shade makes me wonder if it’s just hype. 🤔 Anyone else think AI’s still got a long way to go before it’s truly helping scientists discover new stuff?




I find it intriguing that Google's pushing this AI co-scientist angle, but I'm not shocked experts are skeptical. Sounds like a cool concept, yet overhyped tech often fizzles out in practice. Anyone else think it’s more marketing than science? 😏




Google's AI co-scientist sounds cool on paper, but in real life? Not so much. I tried using it for my research, and it's more like a fancy suggestion box than a game-changer. It's okay for brainstorming, but don't expect it to revolutionize your work. Maybe in a few years, it'll be worth the hype. 🤔




구글의 'AI 공동 과학자'를 사용해 봤는데, 지금은 '공동 추측자' 같아요. 나오는 아이디어는 재미있지만, 과학을 혁신할 정도는 아니네요. 몇 년 후에는 더 유용할지 모르겠지만, 지금은 그냥 그런 정도? 🤔




Googleの「AI共助科学者」を試してみましたが、今のところ「共推測者」のようです。出てくるアイデアは面白いけど、科学を革命するには程遠いですね。数年後にはもっと役立つかもしれませんが、今はまだ。😅












