專家說,AI還沒有準備好作為“共同科學家”

Google 最近推出了其「AI 共同科學家」,這是一款旨在幫助科學家生成假設和研究計劃的 AI 工具。該公司宣稱這是發現新知識的革命性改變,但專家對其實際影響持懷疑態度。
「這個初步工具雖然有趣,但似乎不太可能被認真使用,」麻省理工學院的電腦視覺研究員 Sara Beery 在接受 TechCrunch 採訪時表示。「我不確定科學界對這類假設生成系統有需求。」
Google 是最新一家宣稱 AI 將徹底改變科學研究的科技巨頭,特別是在生物醫學等數據密集領域。OpenAI 執行長 Sam Altman 在今年早些時候的一篇論文中寫道,「超智能」AI 可以「大幅加速科學發現和創新」。同樣,Anthropic 執行長 Dario Amodei 預測 AI 可以幫助開發大多數癌症的治療方法。
然而,許多研究人員認為當前的 AI 工具遠未達到這些雄心勃勃的說法。他們認為,像 Google 的 AI 共同科學家這樣的應用更多是炒作而非實質,缺乏支持其承諾的實證數據。
例如,Google 在其 AI 共同科學家的博客文章中誇耀其在急性髓系白血病(一種影響骨髓的血癌)藥物再利用方面的潛力。然而,亞利桑那州西北醫療中心-圖森的病理學家 Favia Dubyk 表示,結果過於模糊,「沒有哪位正統科學家會認真對待它們。」
「它可能是一個不錯的起點,但缺乏細節令人擔憂,讓我無法信任它,」Dubyk 對 TechCrunch 說。「提供的資訊不足,實在很難判斷這是否真正有用。」
這不是 Google 第一次因宣傳 AI 突破而未提供足夠細節以供他人重現結果,從而遭到科學界的批評。
早在 2020 年,Google 聲稱其訓練用於檢測乳腺腫瘤的 AI 系統表現超越人類放射科醫師。但哈佛和史丹佛的研究人員在《Nature》期刊發表反駁,指出 Google 研究中缺乏詳細方法和程式碼「損害了其科學價值」。
科學家們還批評 Google 在材料工程等領域淡化其 AI 工具的局限性。2023 年,該公司聲稱在其 AI 系統 GNoME 的幫助下合成了大約 40 種「新材料」。然而,獨立分析發現這些材料中沒有一種是真正的新材料。
「在 Google 的『共同科學家』等工具經過跨多學科的嚴格獨立評估之前,我們無法真正了解其優勢和局限性,」羅徹斯特理工學院軟體工程助理教授 Ashique KhudaBukhsh 在接受 TechCrunch 採訪時表示。「AI 在受控環境中表現良好,但在應用於大規模時可能會失敗。」
複雜的過程
開發用於輔助科學發現的 AI 工具很棘手,因為很難預測所有可能出錯的因素。AI 在篩選大量可能性時很有用,但它是否能處理導致重大突破的創意問題解決尚不清楚。
「歷史上一些最重要的科學進展,如 mRNA 疫苗的開發,都是由人類的直覺和在懷疑面前的堅持推動的,」KhudaBukhsh 說。「當前的 AI 可能不適合複製這種能力。」
日本索尼電腦科學實驗室的 AI 研究員 Lana Sinapayen 認為,像 Google 的 AI 共同科學家這樣的工具專注於科學工作的錯誤面向。
Sinapayen 認為,AI 在自動化繁瑣任務(如總結新學術文獻或格式化補助申請)方面有價值。但她認為,生成假設的 AI 共同科學家需求不大,因為許多研究人員認為這項任務具有智力上的滿足感。
「對許多科學家,包括我在內,生成假設是工作中最有趣的部分,」Sinapayen 對 TechCrunch 說。「我為什麼要把我的樂趣外包給電腦,然後只留下辛苦的工作自己做?總的來說,許多生成式 AI 研究人員似乎誤解了人類為什麼做他們所做的事情,結果我們得到的是自動化我們感到快樂部分的產品提案。」
Beery 指出,科學過程中設計和實施研究以測試假設通常是最困難的部分,而當前 AI 系統難以勝任這一點。AI 無法實際進行實驗,且在數據稀缺的問題上常常表現不佳。
「大多數科學無法完全在虛擬環境中進行——科學過程通常有重要的物理部分,如收集新數據和在實驗室進行實驗,」Beery 說。「像 Google 的 AI 共同科學家這樣的系統相對於實際科學過程的一大限制,是缺乏關於使用該系統的實驗室和研究者的背景資訊,包括他們的具體研究目標、過去的工作、技能組合以及可用的資源,這無疑限制了其可用性。」
AI 風險
AI 的技術局限性和風險,例如其「幻覺」或生成錯誤資訊的傾向,使科學家對依賴它進行嚴肅工作持謹慎態度。
KhudaBukhsh 擔心 AI 工具可能最終會讓科學文獻充斥噪音,而非促進進步。
這已經在發生。一項近期研究發現,AI 生成的「垃圾科學」正在充斥 Google Scholar,Google 的免費學術文獻搜尋引擎。
「如果不仔細監控,AI 生成的研究可能會以低質量甚至誤導性的研究淹沒科學領域,壓垮同行評審過程,」KhudaBukhsh 說。「在電腦科學等領域,頂級會議的投稿量呈指數增長,同行評審過程已經面臨挑戰。」
即使是設計良好的研究也可能因 AI 的錯誤行為而受到損害,Sinapayen 警告說。雖然她欣賞能協助文獻回顧和綜合的工具理念,但她不信任當前的 AI 能可靠地完成這項工作。
「這些是現有各種工具聲稱能做的事情,但這些不是我個人會交給當前 AI 去完成的任務,」Sinapayen 說。她還對 AI 系統的訓練方式和其消耗的能源表示擔憂。「即使所有倫理問題都解決了,當前的 AI 對我來說還不夠可靠,我無法依賴它們的輸出來進行我的工作。」
相關文章
微軟研究揭示AI模型在軟體除錯中的局限性
來自OpenAI、Anthropic及其他領先AI實驗室的AI模型越來越常用於編碼任務。Google執行長Sundar Pichai於10月表示,AI在公司內生成25%的新程式碼,而Meta執行長Mark Zuckerberg則計劃在這家社群媒體巨頭中廣泛應用AI編碼工具。然而,即使是表現最佳的模型,在修復軟體錯誤時仍難以達到經驗豐富的開發者輕鬆處理的水平。微軟研發部門近期進行的微軟研究顯示,像A
AI驅動的解決方案可顯著降低全球碳排放
倫敦經濟學院與Systemiq的最新研究顯示,人工智慧可在不犧牲現代便利性的前提下大幅降低全球碳排放,使AI成為對抗氣候變遷的關鍵盟友。研究指出,僅在三個領域應用智慧AI技術,到2035年每年可減少32億至54億噸的溫室氣體排放。與普遍擔憂相反,這些減排量將遠超AI運營所產生的碳足跡。題為《綠色與智慧:AI在氣候轉型中的角色》的報告,將AI視為打造可持續且包容經濟的轉型力量,而非僅僅是漸進式進展的
新研究揭示大規模語言模型實際記憶的數據量
AI模型實際記憶多少?新研究揭示驚人見解我們都知道,像ChatGPT、Claude和Gemini這樣的大規模語言模型(LLMs)是在龐大數據集上訓練的——來自書籍、網站、程式碼,甚至圖像和音頻等多媒體的數兆字詞。但這些數據到底發生了什麼?這些模型真的理解語言,還是僅僅在重複記憶的片段?來自Meta、Google DeepMind、Cornell和NVIDIA的一項突破性新研究終於給出了具體答案——
評論 (33)
0/200
PaulWilson
2025-08-08 21:00:59
I read about Google's AI co-scientist, and it sounds like a cool idea, but experts seem to think it’s more hype than substance. Anyone else feel like AI’s being oversold these days? 🤔
0
GaryLewis
2025-08-04 14:48:52
I read about Google's AI co-scientist and it sounds cool, but experts throwing shade makes me wonder if it’s just hype. 🤔 Anyone else think AI’s still got a long way to go before it’s truly helping scientists discover new stuff?
0
PeterYoung
2025-07-23 12:59:47
I find it intriguing that Google's pushing this AI co-scientist angle, but I'm not shocked experts are skeptical. Sounds like a cool concept, yet overhyped tech often fizzles out in practice. Anyone else think it’s more marketing than science? 😏
0
BruceGonzalez
2025-04-25 11:08:16
Google's AI co-scientist sounds cool on paper, but in real life? Not so much. I tried using it for my research, and it's more like a fancy suggestion box than a game-changer. It's okay for brainstorming, but don't expect it to revolutionize your work. Maybe in a few years, it'll be worth the hype. 🤔
0
RogerPerez
2025-04-24 11:00:20
구글의 'AI 공동 과학자'를 사용해 봤는데, 지금은 '공동 추측자' 같아요. 나오는 아이디어는 재미있지만, 과학을 혁신할 정도는 아니네요. 몇 년 후에는 더 유용할지 모르겠지만, 지금은 그냥 그런 정도? 🤔
0
IsabellaLevis
2025-04-21 15:32:19
Googleの「AI共助科学者」を試してみましたが、今のところ「共推測者」のようです。出てくるアイデアは面白いけど、科学を革命するには程遠いですね。数年後にはもっと役立つかもしれませんが、今はまだ。😅
0
Google 最近推出了其「AI 共同科學家」,這是一款旨在幫助科學家生成假設和研究計劃的 AI 工具。該公司宣稱這是發現新知識的革命性改變,但專家對其實際影響持懷疑態度。
「這個初步工具雖然有趣,但似乎不太可能被認真使用,」麻省理工學院的電腦視覺研究員 Sara Beery 在接受 TechCrunch 採訪時表示。「我不確定科學界對這類假設生成系統有需求。」
Google 是最新一家宣稱 AI 將徹底改變科學研究的科技巨頭,特別是在生物醫學等數據密集領域。OpenAI 執行長 Sam Altman 在今年早些時候的一篇論文中寫道,「超智能」AI 可以「大幅加速科學發現和創新」。同樣,Anthropic 執行長 Dario Amodei 預測 AI 可以幫助開發大多數癌症的治療方法。
然而,許多研究人員認為當前的 AI 工具遠未達到這些雄心勃勃的說法。他們認為,像 Google 的 AI 共同科學家這樣的應用更多是炒作而非實質,缺乏支持其承諾的實證數據。
例如,Google 在其 AI 共同科學家的博客文章中誇耀其在急性髓系白血病(一種影響骨髓的血癌)藥物再利用方面的潛力。然而,亞利桑那州西北醫療中心-圖森的病理學家 Favia Dubyk 表示,結果過於模糊,「沒有哪位正統科學家會認真對待它們。」
「它可能是一個不錯的起點,但缺乏細節令人擔憂,讓我無法信任它,」Dubyk 對 TechCrunch 說。「提供的資訊不足,實在很難判斷這是否真正有用。」
這不是 Google 第一次因宣傳 AI 突破而未提供足夠細節以供他人重現結果,從而遭到科學界的批評。
早在 2020 年,Google 聲稱其訓練用於檢測乳腺腫瘤的 AI 系統表現超越人類放射科醫師。但哈佛和史丹佛的研究人員在《Nature》期刊發表反駁,指出 Google 研究中缺乏詳細方法和程式碼「損害了其科學價值」。
科學家們還批評 Google 在材料工程等領域淡化其 AI 工具的局限性。2023 年,該公司聲稱在其 AI 系統 GNoME 的幫助下合成了大約 40 種「新材料」。然而,獨立分析發現這些材料中沒有一種是真正的新材料。
「在 Google 的『共同科學家』等工具經過跨多學科的嚴格獨立評估之前,我們無法真正了解其優勢和局限性,」羅徹斯特理工學院軟體工程助理教授 Ashique KhudaBukhsh 在接受 TechCrunch 採訪時表示。「AI 在受控環境中表現良好,但在應用於大規模時可能會失敗。」
複雜的過程
開發用於輔助科學發現的 AI 工具很棘手,因為很難預測所有可能出錯的因素。AI 在篩選大量可能性時很有用,但它是否能處理導致重大突破的創意問題解決尚不清楚。
「歷史上一些最重要的科學進展,如 mRNA 疫苗的開發,都是由人類的直覺和在懷疑面前的堅持推動的,」KhudaBukhsh 說。「當前的 AI 可能不適合複製這種能力。」
日本索尼電腦科學實驗室的 AI 研究員 Lana Sinapayen 認為,像 Google 的 AI 共同科學家這樣的工具專注於科學工作的錯誤面向。
Sinapayen 認為,AI 在自動化繁瑣任務(如總結新學術文獻或格式化補助申請)方面有價值。但她認為,生成假設的 AI 共同科學家需求不大,因為許多研究人員認為這項任務具有智力上的滿足感。
「對許多科學家,包括我在內,生成假設是工作中最有趣的部分,」Sinapayen 對 TechCrunch 說。「我為什麼要把我的樂趣外包給電腦,然後只留下辛苦的工作自己做?總的來說,許多生成式 AI 研究人員似乎誤解了人類為什麼做他們所做的事情,結果我們得到的是自動化我們感到快樂部分的產品提案。」
Beery 指出,科學過程中設計和實施研究以測試假設通常是最困難的部分,而當前 AI 系統難以勝任這一點。AI 無法實際進行實驗,且在數據稀缺的問題上常常表現不佳。
「大多數科學無法完全在虛擬環境中進行——科學過程通常有重要的物理部分,如收集新數據和在實驗室進行實驗,」Beery 說。「像 Google 的 AI 共同科學家這樣的系統相對於實際科學過程的一大限制,是缺乏關於使用該系統的實驗室和研究者的背景資訊,包括他們的具體研究目標、過去的工作、技能組合以及可用的資源,這無疑限制了其可用性。」
AI 風險
AI 的技術局限性和風險,例如其「幻覺」或生成錯誤資訊的傾向,使科學家對依賴它進行嚴肅工作持謹慎態度。
KhudaBukhsh 擔心 AI 工具可能最終會讓科學文獻充斥噪音,而非促進進步。
這已經在發生。一項近期研究發現,AI 生成的「垃圾科學」正在充斥 Google Scholar,Google 的免費學術文獻搜尋引擎。
「如果不仔細監控,AI 生成的研究可能會以低質量甚至誤導性的研究淹沒科學領域,壓垮同行評審過程,」KhudaBukhsh 說。「在電腦科學等領域,頂級會議的投稿量呈指數增長,同行評審過程已經面臨挑戰。」
即使是設計良好的研究也可能因 AI 的錯誤行為而受到損害,Sinapayen 警告說。雖然她欣賞能協助文獻回顧和綜合的工具理念,但她不信任當前的 AI 能可靠地完成這項工作。
「這些是現有各種工具聲稱能做的事情,但這些不是我個人會交給當前 AI 去完成的任務,」Sinapayen 說。她還對 AI 系統的訓練方式和其消耗的能源表示擔憂。「即使所有倫理問題都解決了,當前的 AI 對我來說還不夠可靠,我無法依賴它們的輸出來進行我的工作。」



I read about Google's AI co-scientist, and it sounds like a cool idea, but experts seem to think it’s more hype than substance. Anyone else feel like AI’s being oversold these days? 🤔




I read about Google's AI co-scientist and it sounds cool, but experts throwing shade makes me wonder if it’s just hype. 🤔 Anyone else think AI’s still got a long way to go before it’s truly helping scientists discover new stuff?




I find it intriguing that Google's pushing this AI co-scientist angle, but I'm not shocked experts are skeptical. Sounds like a cool concept, yet overhyped tech often fizzles out in practice. Anyone else think it’s more marketing than science? 😏




Google's AI co-scientist sounds cool on paper, but in real life? Not so much. I tried using it for my research, and it's more like a fancy suggestion box than a game-changer. It's okay for brainstorming, but don't expect it to revolutionize your work. Maybe in a few years, it'll be worth the hype. 🤔




구글의 'AI 공동 과학자'를 사용해 봤는데, 지금은 '공동 추측자' 같아요. 나오는 아이디어는 재미있지만, 과학을 혁신할 정도는 아니네요. 몇 년 후에는 더 유용할지 모르겠지만, 지금은 그냥 그런 정도? 🤔




Googleの「AI共助科学者」を試してみましたが、今のところ「共推測者」のようです。出てくるアイデアは面白いけど、科学を革命するには程遠いですね。数年後にはもっと役立つかもしれませんが、今はまだ。😅












