AIは「共同科学者」として準備ができていない、と専門家は言う

Googleは最近、科学者が仮説や研究計画を生成するのを助けるAIツール「AI co-scientist」を発表しました。同社はこれを新たな知識の発見における革新的なツールとして宣伝しましたが、専門家はその実際の影響について懐疑的です。
「この初期のツールは興味深いものの、本格的に使用される可能性は低そうです」と、MITのコンピュータビジョン研究者サラ・ビーリー氏はTechCrunchのインタビューで述べました。「科学界からこの種の仮説生成システムへの需要があるとは思えません。」
Googleは、AIが特にバイオメディシンなどのデータ量の多い分野で科学研究を革命化すると主張する最新のテック大手です。OpenAIのCEOサム・アルトマン氏は今年初めのエッセイで、「超インテリジェント」なAIが「科学的発見とイノベーションを大幅に加速させる」と書きました。同様に、AnthropicのCEOダリオ・アモディ氏は、AIがほとんどの癌の治療法開発に役立つと予測しています。
しかし、多くの研究者は、現在のAIツールがこれらの野心的な主張に及ばないと感じています。彼らは、GoogleのAI co-scientistのようなアプリケーションは、実証データに裏付けられた実質よりも誇大広告にすぎないと主張しています。
たとえば、GoogleのAI co-scientistに関するブログ記事では、急性骨髄性白血病(骨髄に影響を与える血液がんの一種)の薬物再利用における可能性を誇示しましたが、結果があまりにも曖昧で、「本物の科学者なら誰も真剣に受け取らない」と、アリゾナ州のノースウェスト医療センター-ツーソンの病理学者ファヴィア・ドゥビク氏は述べています。
「研究者にとって良い出発点になるかもしれないが、詳細の欠如は懸念材料で、信頼する気になれません」とドゥビク氏はTechCrunchに語りました。「提供された情報の不足は、これが本当に役立つかどうかを理解するのを非常に難しくしています。」
GoogleがAIのブレークスルーを宣伝しながら、結果を再現するのに十分な詳細を提供しないとして科学界から批判を受けるのはこれが初めてではありません。
2020年に、Googleは乳房腫瘍を検出するために訓練されたAIシステムが人間の放射線科医を上回ったと主張しました。しかし、ハーバードとスタンフォードの研究者はNatureで反論を発表し、Googleの研究における詳細な方法やコードの欠如が「その科学的価値を損なう」と主張しました。
科学者はまた、Googleが材料工学などの分野でAIツールの限界を軽視していると批判しています。2023年、GoogleはAIシステムGNoMEの助けを借りて約40の「新素材」が合成されたと主張しましたが、独立した分析では、これらの素材のどれも実際には新しいものではないことがわかりました。
「Googleの『co-scientist』のようなツールの強みと限界を本当に理解するには、多様な科学的分野での厳格な独立評価が必要です」と、ロチェスター工科大学のソフトウェア工学助教授アシケ・クダブクシュ氏はTechCrunchのインタビューで述べました。「AIは制御された環境ではうまく機能するかもしれませんが、大規模に適用すると失敗する可能性があります。」
複雑なプロセス
科学的発見を助けるAIツールの開発は、予期しない要因が問題を引き起こす可能性があるため難しいものです。AIは膨大な可能性のリストをふるいにかけるのに役立ちますが、大きなブレークスルーをもたらす創造的な問題解決を扱えるかどうかは不明です。
「歴史を通じて、mRNAワクチンの開発のような最も重要な科学的進歩のいくつかは、人間の直感と懐疑に直面した持続性によって推進されてきました」とクダブクシュ氏は述べました。「現在のAIは、それを再現するのに適していないかもしれません。」
日本のソニーコンピュータサイエンス研究所のAI研究者ラナ・シナパイエン氏は、GoogleのAI co-scientistのようなツールが科学的な仕事の間違った側面に焦点を当てていると考えています。
シナパイエン氏は、最新の学術文献の要約や助成金申請のフォーマットなどの退屈なタスクを自動化するAIに価値を見ています。しかし、仮説の生成をAIに任せることには需要が少なく、多くの研究者がそのタスクを知的報酬として楽しんでいると主張しています。
「私を含む多くの科学者にとって、仮説の生成は仕事の最も楽しい部分です」とシナパイエン氏はTechCrunchに語りました。「なぜ私が楽しみをコンピュータにアウトソーシングして、難しい仕事だけを自分でやらなければならないのでしょうか?一般に、多くの生成AI研究者は人間がなぜそのようなことをするのかを誤解しており、結果として私たちが喜びを感じる部分を自動化する製品の提案になってしまいます。」
ビーリー氏は、科学プロセスの最も難しい部分は、仮説をテストするための研究の設計と実施であり、現在のAIシステムが苦手とする部分だと指摘しました。AIは物理的に実験を行うことができず、データが不足している問題にも苦労します。
「ほとんどの科学は完全に仮想的に行うことはできません。新しいデータの収集やラボでの実験など、科学プロセスの重要な物理的要素が頻繁にあります」とビーリー氏は述べました。「GoogleのAI co-scientistのようなシステムの大きな制限は、ラボや研究者のコンテキスト、特定の研究目標、過去の研究、スキルセット、利用可能なリソースに関する情報が不足していることで、これがその有用性を確実に制限します。」
AIのリスク
AIの技術的限界や、「幻覚」を起こしたり誤った情報を生成したりする傾向などのリスクは、科学者が真剣な仕事にAIを頼ることに対して慎重にさせます。
クダブクシュ氏は、AIツールが科学文献を進歩させるよりもノイズで溢れさせる可能性があると懸念しています。
それはすでに起こっています。最近の研究では、AI生成の「ジャンクサイエンス」がGoogle Scholar、Googleの学術文献向け無料検索エンジンを溢れさせていることがわかりました。
「注意深く監視されなければ、AI生成の研究は、質の低い、または誤解を招く研究で科学分野を溢れさせ、査読プロセスを圧倒する可能性があります」とクダブクシュ氏は述べました。「コンピュータサイエンスのような分野では、トップカンファレンスへの投稿数が指数関数的に増加しており、査読プロセスがすでに課題となっています。」
シナパイエン氏は、適切に設計された研究でさえ、AIの不適切な動作によって損なわれる可能性があると警告しました。文献レビューや統合を支援するツールのアイデアは評価しますが、現在のAIにその仕事を信頼できないと述べました。
「それらはさまざまな既存のツールが主張していることですが、私が個人的に現在のAIに任せる仕事ではありません」とシナパイエン氏は述べました。彼女はまた、AIシステムのトレーニング方法や消費するエネルギーについても懸念を表明しました。「倫理的な問題がすべて解決されたとしても、現在のAIは私の仕事をその出力に基づいて信頼するのに十分な信頼性がありません。」
関連記事
Google Cloud が科学研究と発見のブレークスルーを促進
デジタル革命は、前例のない計算能力によって科学的方法論を変革している。最先端のテクノロジーは現在、理論的なフレームワークと実験室での実験の両方を補強し、高度なシミュレーションとビッグデータ分析によって分野横断的なブレークスルーを推進しています。基礎研究、スケーラブルなクラウドアーキテクチャ、人工知能開発に戦略的に投資することで、私たちは科学の進歩を加速させるエコシステムを確立しました。世界トップク
AIが科学研究を加速し、実社会により大きなインパクトを与える
グーグルは一貫してAIを科学的進歩の触媒として活用しており、今日の発見ペースは驚異的な新水準に達している。この加速は研究サイクルを一変させ、基礎的なブレークスルーを実用的な応用へと、かつて経験したことのない速さで転換させている。AIは人間の創造性に取って代わるどころか、人間の潜在能力を強力に増幅させる役割を果たしている。私たちの研究者たちは、基礎的な科学的課題に取り組むためにAIを採用し、世界的な
AIにおける倫理:オートメーションにおけるバイアスとコンプライアンスの課題に取り組む
オートメーションが産業全体に深く浸透するにつれ、倫理的配慮が重要な優先事項として浮上している。意思決定アルゴリズムは現在、雇用機会、金融サービス、医療、法的プロセスなど、社会の重要な側面に影響を及ぼしており、厳格な倫理的枠組みが求められている。適切なガバナンスがなければ、こうした強力なシステムは既存の不平等を増幅し、広範な害をもたらす危険性がある。AIシステムのバイアスを理解するアルゴリズムのバイ
コメント (35)
0/200
PatrickLewis
2025年8月24日 18:01:17 JST
I was hyped about Google's AI co-scientist, but experts raining on the parade makes sense. Sounds like it’s more flash than substance right now. 🤔 Still, curious to see where this goes!
0
GeorgeWilliams
2025年8月17日 22:00:59 JST
I was super excited about Google's AI co-scientist at first, but now I’m kinda bummed experts think it’s overhyped. 😕 Sounds like it’s more of a fancy assistant than a real game-changer. Anyone else feel it’s just not ready to shake up science yet?
0
PaulWilson
2025年8月8日 22:00:59 JST
I read about Google's AI co-scientist, and it sounds like a cool idea, but experts seem to think it’s more hype than substance. Anyone else feel like AI’s being oversold these days? 🤔
0
GaryLewis
2025年8月4日 15:48:52 JST
I read about Google's AI co-scientist and it sounds cool, but experts throwing shade makes me wonder if it’s just hype. 🤔 Anyone else think AI’s still got a long way to go before it’s truly helping scientists discover new stuff?
0
PeterYoung
2025年7月23日 13:59:47 JST
I find it intriguing that Google's pushing this AI co-scientist angle, but I'm not shocked experts are skeptical. Sounds like a cool concept, yet overhyped tech often fizzles out in practice. Anyone else think it’s more marketing than science? 😏
0
BruceGonzalez
2025年4月25日 12:08:16 JST
Google's AI co-scientist sounds cool on paper, but in real life? Not so much. I tried using it for my research, and it's more like a fancy suggestion box than a game-changer. It's okay for brainstorming, but don't expect it to revolutionize your work. Maybe in a few years, it'll be worth the hype. 🤔
0
Googleは最近、科学者が仮説や研究計画を生成するのを助けるAIツール「AI co-scientist」を発表しました。同社はこれを新たな知識の発見における革新的なツールとして宣伝しましたが、専門家はその実際の影響について懐疑的です。
「この初期のツールは興味深いものの、本格的に使用される可能性は低そうです」と、MITのコンピュータビジョン研究者サラ・ビーリー氏はTechCrunchのインタビューで述べました。「科学界からこの種の仮説生成システムへの需要があるとは思えません。」
Googleは、AIが特にバイオメディシンなどのデータ量の多い分野で科学研究を革命化すると主張する最新のテック大手です。OpenAIのCEOサム・アルトマン氏は今年初めのエッセイで、「超インテリジェント」なAIが「科学的発見とイノベーションを大幅に加速させる」と書きました。同様に、AnthropicのCEOダリオ・アモディ氏は、AIがほとんどの癌の治療法開発に役立つと予測しています。
しかし、多くの研究者は、現在のAIツールがこれらの野心的な主張に及ばないと感じています。彼らは、GoogleのAI co-scientistのようなアプリケーションは、実証データに裏付けられた実質よりも誇大広告にすぎないと主張しています。
たとえば、GoogleのAI co-scientistに関するブログ記事では、急性骨髄性白血病(骨髄に影響を与える血液がんの一種)の薬物再利用における可能性を誇示しましたが、結果があまりにも曖昧で、「本物の科学者なら誰も真剣に受け取らない」と、アリゾナ州のノースウェスト医療センター-ツーソンの病理学者ファヴィア・ドゥビク氏は述べています。
「研究者にとって良い出発点になるかもしれないが、詳細の欠如は懸念材料で、信頼する気になれません」とドゥビク氏はTechCrunchに語りました。「提供された情報の不足は、これが本当に役立つかどうかを理解するのを非常に難しくしています。」
GoogleがAIのブレークスルーを宣伝しながら、結果を再現するのに十分な詳細を提供しないとして科学界から批判を受けるのはこれが初めてではありません。
2020年に、Googleは乳房腫瘍を検出するために訓練されたAIシステムが人間の放射線科医を上回ったと主張しました。しかし、ハーバードとスタンフォードの研究者はNatureで反論を発表し、Googleの研究における詳細な方法やコードの欠如が「その科学的価値を損なう」と主張しました。
科学者はまた、Googleが材料工学などの分野でAIツールの限界を軽視していると批判しています。2023年、GoogleはAIシステムGNoMEの助けを借りて約40の「新素材」が合成されたと主張しましたが、独立した分析では、これらの素材のどれも実際には新しいものではないことがわかりました。
「Googleの『co-scientist』のようなツールの強みと限界を本当に理解するには、多様な科学的分野での厳格な独立評価が必要です」と、ロチェスター工科大学のソフトウェア工学助教授アシケ・クダブクシュ氏はTechCrunchのインタビューで述べました。「AIは制御された環境ではうまく機能するかもしれませんが、大規模に適用すると失敗する可能性があります。」
複雑なプロセス
科学的発見を助けるAIツールの開発は、予期しない要因が問題を引き起こす可能性があるため難しいものです。AIは膨大な可能性のリストをふるいにかけるのに役立ちますが、大きなブレークスルーをもたらす創造的な問題解決を扱えるかどうかは不明です。
「歴史を通じて、mRNAワクチンの開発のような最も重要な科学的進歩のいくつかは、人間の直感と懐疑に直面した持続性によって推進されてきました」とクダブクシュ氏は述べました。「現在のAIは、それを再現するのに適していないかもしれません。」
日本のソニーコンピュータサイエンス研究所のAI研究者ラナ・シナパイエン氏は、GoogleのAI co-scientistのようなツールが科学的な仕事の間違った側面に焦点を当てていると考えています。
シナパイエン氏は、最新の学術文献の要約や助成金申請のフォーマットなどの退屈なタスクを自動化するAIに価値を見ています。しかし、仮説の生成をAIに任せることには需要が少なく、多くの研究者がそのタスクを知的報酬として楽しんでいると主張しています。
「私を含む多くの科学者にとって、仮説の生成は仕事の最も楽しい部分です」とシナパイエン氏はTechCrunchに語りました。「なぜ私が楽しみをコンピュータにアウトソーシングして、難しい仕事だけを自分でやらなければならないのでしょうか?一般に、多くの生成AI研究者は人間がなぜそのようなことをするのかを誤解しており、結果として私たちが喜びを感じる部分を自動化する製品の提案になってしまいます。」
ビーリー氏は、科学プロセスの最も難しい部分は、仮説をテストするための研究の設計と実施であり、現在のAIシステムが苦手とする部分だと指摘しました。AIは物理的に実験を行うことができず、データが不足している問題にも苦労します。
「ほとんどの科学は完全に仮想的に行うことはできません。新しいデータの収集やラボでの実験など、科学プロセスの重要な物理的要素が頻繁にあります」とビーリー氏は述べました。「GoogleのAI co-scientistのようなシステムの大きな制限は、ラボや研究者のコンテキスト、特定の研究目標、過去の研究、スキルセット、利用可能なリソースに関する情報が不足していることで、これがその有用性を確実に制限します。」
AIのリスク
AIの技術的限界や、「幻覚」を起こしたり誤った情報を生成したりする傾向などのリスクは、科学者が真剣な仕事にAIを頼ることに対して慎重にさせます。
クダブクシュ氏は、AIツールが科学文献を進歩させるよりもノイズで溢れさせる可能性があると懸念しています。
それはすでに起こっています。最近の研究では、AI生成の「ジャンクサイエンス」がGoogle Scholar、Googleの学術文献向け無料検索エンジンを溢れさせていることがわかりました。
「注意深く監視されなければ、AI生成の研究は、質の低い、または誤解を招く研究で科学分野を溢れさせ、査読プロセスを圧倒する可能性があります」とクダブクシュ氏は述べました。「コンピュータサイエンスのような分野では、トップカンファレンスへの投稿数が指数関数的に増加しており、査読プロセスがすでに課題となっています。」
シナパイエン氏は、適切に設計された研究でさえ、AIの不適切な動作によって損なわれる可能性があると警告しました。文献レビューや統合を支援するツールのアイデアは評価しますが、現在のAIにその仕事を信頼できないと述べました。
「それらはさまざまな既存のツールが主張していることですが、私が個人的に現在のAIに任せる仕事ではありません」とシナパイエン氏は述べました。彼女はまた、AIシステムのトレーニング方法や消費するエネルギーについても懸念を表明しました。「倫理的な問題がすべて解決されたとしても、現在のAIは私の仕事をその出力に基づいて信頼するのに十分な信頼性がありません。」



I was hyped about Google's AI co-scientist, but experts raining on the parade makes sense. Sounds like it’s more flash than substance right now. 🤔 Still, curious to see where this goes!




I was super excited about Google's AI co-scientist at first, but now I’m kinda bummed experts think it’s overhyped. 😕 Sounds like it’s more of a fancy assistant than a real game-changer. Anyone else feel it’s just not ready to shake up science yet?




I read about Google's AI co-scientist, and it sounds like a cool idea, but experts seem to think it’s more hype than substance. Anyone else feel like AI’s being oversold these days? 🤔




I read about Google's AI co-scientist and it sounds cool, but experts throwing shade makes me wonder if it’s just hype. 🤔 Anyone else think AI’s still got a long way to go before it’s truly helping scientists discover new stuff?




I find it intriguing that Google's pushing this AI co-scientist angle, but I'm not shocked experts are skeptical. Sounds like a cool concept, yet overhyped tech often fizzles out in practice. Anyone else think it’s more marketing than science? 😏




Google's AI co-scientist sounds cool on paper, but in real life? Not so much. I tried using it for my research, and it's more like a fancy suggestion box than a game-changer. It's okay for brainstorming, but don't expect it to revolutionize your work. Maybe in a few years, it'll be worth the hype. 🤔












