专家说,AI还没有准备好作为“共同科学家”

谷歌最近推出了其“AI共同科学家”,一种旨在帮助科学家生成假设和研究计划的AI工具。该公司将其宣传为发现新知识的游戏规则改变者,但专家们对其现实世界的影响持怀疑态度。
“这个初步工具虽然有趣,但似乎不太可能被认真使用,”麻省理工学院的计算机视觉研究员萨拉·贝里在接受TechCrunch采访时表示。“我不确定科学界对这种假设生成系统有需求。”
谷歌只是最新一家宣称AI将革命化科学研究的技术巨头,特别是在生物医学等数据密集领域。OpenAI首席执行官萨姆·奥特曼在今年早些时候的一篇文章中写道,“超智能”AI可以“极大地加速科学发现和创新”。同样,Anthropic首席执行官达里奥·阿莫迪预测,AI可以帮助开发大多数癌症的治疗方法。
然而,许多研究人员认为,当今的AI工具远未达到这些雄心勃勃的主张。他们认为,像谷歌的AI共同科学家这样的应用更多是炒作而非实质,缺乏支持承诺的实证数据。
例如,谷歌关于AI共同科学家的博客文章吹嘘其在急性髓系白血病(一种影响骨髓的血癌)药物再利用方面的潜力。然而,亚利桑那州西北医疗中心-图森的病理学家法维娅·杜比克表示,结果如此模糊,“没有合法的科学家会认真对待它们。”
“它可能是一个很好的起点,但缺乏细节令人担忧,也让我无法信任它,”杜比克对TechCrunch说。“提供的信息不足,很难理解这是否真正有用。”
这不是谷歌第一次因推广AI突破而未提供足够细节以供他人复制结果而受到科学界的批评。
早在2020年,谷歌声称其训练用于检测乳腺肿瘤的AI系统表现优于人类放射科医生。但哈佛和斯坦福的研究人员在《自然》杂志上发表了反驳文章,认为谷歌研究中缺乏详细的方法和代码“削弱了其科学价值。”
科学家们还批评谷歌在材料工程等领域淡化其AI工具的局限性。2023年,该公司声称在其AI系统GNoME的帮助下合成了大约40种“新材料”。然而,独立分析发现这些材料中没有一种是真正新的。
“在我们对谷歌的‘共同科学家’等工具进行跨学科的严格、独立评估之前,我们无法真正了解其优势和局限性,”罗切斯特理工学院软件工程助理教授阿什克·胡达布赫什在接受TechCrunch采访时表示。“AI在受控环境中往往表现良好,但在实际应用中可能会失败。”
复杂过程
开发辅助科学发现的AI工具很棘手,因为很难预测所有可能干扰的因素。AI在筛选大量可能性时很有用,但它是否能处理导致重大突破的创造性问题解决尚不清楚。
“纵观历史,一些最重要的科学进步,如mRNA疫苗的开发,都是由人类直觉和面对怀疑的坚持推动的,”胡达布赫什说。“以今天的AI技术水平,它可能不适合复制这种能力。”
日本索尼计算机科学实验室的AI研究员拉娜·西纳帕延认为,像谷歌的AI共同科学家这样的工具专注于科学工作的错误方面。
西纳帕延认为,AI在自动化繁琐任务(如总结新学术文献或格式化资助申请)方面有价值。但她认为,生成假设的AI共同科学家需求不大,因为许多研究人员认为这项任务在智力上令人满足。
“对包括我在内的许多科学家来说,生成假设是工作中最有趣的部分,”西纳帕延对TechCrunch说。“我为什么要将我的乐趣外包给电脑,然后只留下辛苦的工作自己做?总的来说,许多生成式AI研究人员似乎误解了人类为什么做他们所做的事情,结果我们得到了提案,自动化的是我们从中获得乐趣的部分。”
贝里指出,科学过程中最困难的部分往往是设计和实施研究来测试假设,这是当前AI系统难以应对的。AI无法物理进行实验,而且在数据稀缺的问题上常常表现不佳。
“大多数科学无法完全虚拟进行——科学过程中通常有一个重要的物理部分,如收集新数据和在实验室进行实验,”贝里说。“像谷歌的AI共同科学家这样的系统相对于实际科学过程的一个重大局限性是,它缺乏关于实验室和研究者的背景信息,包括他们的具体研究目标、过往工作、技能组合和可用资源,这无疑限制了其可用性。”
AI风险
AI的技术局限性和风险,如其“幻觉”或生成虚假信息的倾向,使科学家们对依赖它进行严肃工作持谨慎态度。
胡达布赫什担心,AI工具最终可能会使科学文献充斥噪声,而不是推动进步。
这已经发生了。一项近期研究发现,AI生成的“垃圾科学”正在充斥谷歌学术,谷歌的免费学术文献搜索引擎。
“如果不仔细监控,AI生成的研究可能会使科学领域充斥低质量甚至误导性的研究,压倒同行评审过程,”胡达布赫什说。“在计算机科学等领域,顶级会议的投稿量呈指数级增长,同行评审过程已经面临挑战。”
西纳帕延警告说,即使是设计良好的研究也可能因AI的失常而受损。她虽然欣赏能协助文献综述和合成的工具理念,但她不信任今天的AI能可靠地完成这项工作。
“这些是现有各种工具声称能做的事情,但这些不是我个人会交给当前AI的工作,”西纳帕延说。她还对AI系统的训练方式和能源消耗表示担忧。“即使所有伦理问题都解决了,当前AI的可靠性也不足以让我基于它们的输出开展工作。”
相关文章
微软研究揭示AI模型在软件调试中的局限性
来自OpenAI、Anthropic和其他领先AI实验室的AI模型越来越多地用于编码任务。谷歌首席执行官桑达尔·皮查伊在十月指出,AI在公司中生成25%的新代码,而Meta首席执行官马克·扎克伯格计划在社交媒体巨头内部广泛实施AI编码工具。然而,即使是表现最好的模型也难以修复经验丰富的开发者轻松处理的软件错误。微软研发部门近期开展的一项微软研究显示,像Anthropic的Claude 3.7 So
AI驱动的解决方案可显著减少全球碳排放
伦敦经济学院与Systemiq的最新研究显示,人工智能可在不牺牲现代便利的情况下大幅降低全球碳排放,使AI成为应对气候变化的重要盟友。研究指出,仅在三个领域应用智能AI,到2035年每年可减少32亿至54亿吨温室气体排放。与普遍担忧相反,这些减排量将远超AI运行产生的碳足迹。题为《绿色与智能:AI在气候转型中的作用》的报告将AI视为构建可持续且包容性经济的变革力量,而非仅是渐进式改进的工具。净零排
新研究揭示大语言模型实际记忆的数据量
AI模型实际记忆了多少?新研究揭示惊人见解我们都知道,像ChatGPT、Claude和Gemini这样的大型语言模型(LLMs)是在海量数据集上训练的——包括来自书籍、网站、代码,甚至图像和音频等多媒体的数万亿字词。但这些数据到底发生了什么?这些模型是真正理解语言,还是仅仅在复述记忆的片段?来自Meta、Google DeepMind、Cornell和NVIDIA的一项突破性新研究终于给出了具体答
评论 (33)
0/200
PaulWilson
2025-08-08 21:00:59
I read about Google's AI co-scientist, and it sounds like a cool idea, but experts seem to think it’s more hype than substance. Anyone else feel like AI’s being oversold these days? 🤔
0
GaryLewis
2025-08-04 14:48:52
I read about Google's AI co-scientist and it sounds cool, but experts throwing shade makes me wonder if it’s just hype. 🤔 Anyone else think AI’s still got a long way to go before it’s truly helping scientists discover new stuff?
0
PeterYoung
2025-07-23 12:59:47
I find it intriguing that Google's pushing this AI co-scientist angle, but I'm not shocked experts are skeptical. Sounds like a cool concept, yet overhyped tech often fizzles out in practice. Anyone else think it’s more marketing than science? 😏
0
BruceGonzalez
2025-04-25 11:08:16
Google's AI co-scientist sounds cool on paper, but in real life? Not so much. I tried using it for my research, and it's more like a fancy suggestion box than a game-changer. It's okay for brainstorming, but don't expect it to revolutionize your work. Maybe in a few years, it'll be worth the hype. 🤔
0
RogerPerez
2025-04-24 11:00:20
구글의 'AI 공동 과학자'를 사용해 봤는데, 지금은 '공동 추측자' 같아요. 나오는 아이디어는 재미있지만, 과학을 혁신할 정도는 아니네요. 몇 년 후에는 더 유용할지 모르겠지만, 지금은 그냥 그런 정도? 🤔
0
IsabellaLevis
2025-04-21 15:32:19
Googleの「AI共助科学者」を試してみましたが、今のところ「共推測者」のようです。出てくるアイデアは面白いけど、科学を革命するには程遠いですね。数年後にはもっと役立つかもしれませんが、今はまだ。😅
0
谷歌最近推出了其“AI共同科学家”,一种旨在帮助科学家生成假设和研究计划的AI工具。该公司将其宣传为发现新知识的游戏规则改变者,但专家们对其现实世界的影响持怀疑态度。
“这个初步工具虽然有趣,但似乎不太可能被认真使用,”麻省理工学院的计算机视觉研究员萨拉·贝里在接受TechCrunch采访时表示。“我不确定科学界对这种假设生成系统有需求。”
谷歌只是最新一家宣称AI将革命化科学研究的技术巨头,特别是在生物医学等数据密集领域。OpenAI首席执行官萨姆·奥特曼在今年早些时候的一篇文章中写道,“超智能”AI可以“极大地加速科学发现和创新”。同样,Anthropic首席执行官达里奥·阿莫迪预测,AI可以帮助开发大多数癌症的治疗方法。
然而,许多研究人员认为,当今的AI工具远未达到这些雄心勃勃的主张。他们认为,像谷歌的AI共同科学家这样的应用更多是炒作而非实质,缺乏支持承诺的实证数据。
例如,谷歌关于AI共同科学家的博客文章吹嘘其在急性髓系白血病(一种影响骨髓的血癌)药物再利用方面的潜力。然而,亚利桑那州西北医疗中心-图森的病理学家法维娅·杜比克表示,结果如此模糊,“没有合法的科学家会认真对待它们。”
“它可能是一个很好的起点,但缺乏细节令人担忧,也让我无法信任它,”杜比克对TechCrunch说。“提供的信息不足,很难理解这是否真正有用。”
这不是谷歌第一次因推广AI突破而未提供足够细节以供他人复制结果而受到科学界的批评。
早在2020年,谷歌声称其训练用于检测乳腺肿瘤的AI系统表现优于人类放射科医生。但哈佛和斯坦福的研究人员在《自然》杂志上发表了反驳文章,认为谷歌研究中缺乏详细的方法和代码“削弱了其科学价值。”
科学家们还批评谷歌在材料工程等领域淡化其AI工具的局限性。2023年,该公司声称在其AI系统GNoME的帮助下合成了大约40种“新材料”。然而,独立分析发现这些材料中没有一种是真正新的。
“在我们对谷歌的‘共同科学家’等工具进行跨学科的严格、独立评估之前,我们无法真正了解其优势和局限性,”罗切斯特理工学院软件工程助理教授阿什克·胡达布赫什在接受TechCrunch采访时表示。“AI在受控环境中往往表现良好,但在实际应用中可能会失败。”
复杂过程
开发辅助科学发现的AI工具很棘手,因为很难预测所有可能干扰的因素。AI在筛选大量可能性时很有用,但它是否能处理导致重大突破的创造性问题解决尚不清楚。
“纵观历史,一些最重要的科学进步,如mRNA疫苗的开发,都是由人类直觉和面对怀疑的坚持推动的,”胡达布赫什说。“以今天的AI技术水平,它可能不适合复制这种能力。”
日本索尼计算机科学实验室的AI研究员拉娜·西纳帕延认为,像谷歌的AI共同科学家这样的工具专注于科学工作的错误方面。
西纳帕延认为,AI在自动化繁琐任务(如总结新学术文献或格式化资助申请)方面有价值。但她认为,生成假设的AI共同科学家需求不大,因为许多研究人员认为这项任务在智力上令人满足。
“对包括我在内的许多科学家来说,生成假设是工作中最有趣的部分,”西纳帕延对TechCrunch说。“我为什么要将我的乐趣外包给电脑,然后只留下辛苦的工作自己做?总的来说,许多生成式AI研究人员似乎误解了人类为什么做他们所做的事情,结果我们得到了提案,自动化的是我们从中获得乐趣的部分。”
贝里指出,科学过程中最困难的部分往往是设计和实施研究来测试假设,这是当前AI系统难以应对的。AI无法物理进行实验,而且在数据稀缺的问题上常常表现不佳。
“大多数科学无法完全虚拟进行——科学过程中通常有一个重要的物理部分,如收集新数据和在实验室进行实验,”贝里说。“像谷歌的AI共同科学家这样的系统相对于实际科学过程的一个重大局限性是,它缺乏关于实验室和研究者的背景信息,包括他们的具体研究目标、过往工作、技能组合和可用资源,这无疑限制了其可用性。”
AI风险
AI的技术局限性和风险,如其“幻觉”或生成虚假信息的倾向,使科学家们对依赖它进行严肃工作持谨慎态度。
胡达布赫什担心,AI工具最终可能会使科学文献充斥噪声,而不是推动进步。
这已经发生了。一项近期研究发现,AI生成的“垃圾科学”正在充斥谷歌学术,谷歌的免费学术文献搜索引擎。
“如果不仔细监控,AI生成的研究可能会使科学领域充斥低质量甚至误导性的研究,压倒同行评审过程,”胡达布赫什说。“在计算机科学等领域,顶级会议的投稿量呈指数级增长,同行评审过程已经面临挑战。”
西纳帕延警告说,即使是设计良好的研究也可能因AI的失常而受损。她虽然欣赏能协助文献综述和合成的工具理念,但她不信任今天的AI能可靠地完成这项工作。
“这些是现有各种工具声称能做的事情,但这些不是我个人会交给当前AI的工作,”西纳帕延说。她还对AI系统的训练方式和能源消耗表示担忧。“即使所有伦理问题都解决了,当前AI的可靠性也不足以让我基于它们的输出开展工作。”



I read about Google's AI co-scientist, and it sounds like a cool idea, but experts seem to think it’s more hype than substance. Anyone else feel like AI’s being oversold these days? 🤔




I read about Google's AI co-scientist and it sounds cool, but experts throwing shade makes me wonder if it’s just hype. 🤔 Anyone else think AI’s still got a long way to go before it’s truly helping scientists discover new stuff?




I find it intriguing that Google's pushing this AI co-scientist angle, but I'm not shocked experts are skeptical. Sounds like a cool concept, yet overhyped tech often fizzles out in practice. Anyone else think it’s more marketing than science? 😏




Google's AI co-scientist sounds cool on paper, but in real life? Not so much. I tried using it for my research, and it's more like a fancy suggestion box than a game-changer. It's okay for brainstorming, but don't expect it to revolutionize your work. Maybe in a few years, it'll be worth the hype. 🤔




구글의 'AI 공동 과학자'를 사용해 봤는데, 지금은 '공동 추측자' 같아요. 나오는 아이디어는 재미있지만, 과학을 혁신할 정도는 아니네요. 몇 년 후에는 더 유용할지 모르겠지만, 지금은 그냥 그런 정도? 🤔




Googleの「AI共助科学者」を試してみましたが、今のところ「共推測者」のようです。出てくるアイデアは面白いけど、科学を革命するには程遠いですね。数年後にはもっと役立つかもしれませんが、今はまだ。😅












