オプション
ニュース
AIは「共同科学者」として準備ができていない、と専門家は言う

AIは「共同科学者」として準備ができていない、と専門家は言う

2025年4月10日
105

AIは「共同科学者」として準備ができていない、と専門家は言う

Googleは最近、科学者が仮説や研究計画を生成するのを助けるAIツール「AI co-scientist」を発表しました。同社はこれを新たな知識の発見における革新的なツールとして宣伝しましたが、専門家はその実際の影響について懐疑的です。

「この初期のツールは興味深いものの、本格的に使用される可能性は低そうです」と、MITのコンピュータビジョン研究者サラ・ビーリー氏はTechCrunchのインタビューで述べました。「科学界からこの種の仮説生成システムへの需要があるとは思えません。」

Googleは、AIが特にバイオメディシンなどのデータ量の多い分野で科学研究を革命化すると主張する最新のテック大手です。OpenAIのCEOサム・アルトマン氏は今年初めのエッセイで、「超インテリジェント」なAIが「科学的発見とイノベーションを大幅に加速させる」と書きました。同様に、AnthropicのCEOダリオ・アモディ氏は、AIがほとんどの癌の治療法開発に役立つと予測しています。

しかし、多くの研究者は、現在のAIツールがこれらの野心的な主張に及ばないと感じています。彼らは、GoogleのAI co-scientistのようなアプリケーションは、実証データに裏付けられた実質よりも誇大広告にすぎないと主張しています。

たとえば、GoogleのAI co-scientistに関するブログ記事では、急性骨髄性白血病(骨髄に影響を与える血液がんの一種)の薬物再利用における可能性を誇示しましたが、結果があまりにも曖昧で、「本物の科学者なら誰も真剣に受け取らない」と、アリゾナ州のノースウェスト医療センター-ツーソンの病理学者ファヴィア・ドゥビク氏は述べています。

「研究者にとって良い出発点になるかもしれないが、詳細の欠如は懸念材料で、信頼する気になれません」とドゥビク氏はTechCrunchに語りました。「提供された情報の不足は、これが本当に役立つかどうかを理解するのを非常に難しくしています。」

GoogleがAIのブレークスルーを宣伝しながら、結果を再現するのに十分な詳細を提供しないとして科学界から批判を受けるのはこれが初めてではありません。

2020年に、Googleは乳房腫瘍を検出するために訓練されたAIシステムが人間の放射線科医を上回ったと主張しました。しかし、ハーバードとスタンフォードの研究者はNatureで反論を発表し、Googleの研究における詳細な方法やコードの欠如が「その科学的価値を損なう」と主張しました。

科学者はまた、Googleが材料工学などの分野でAIツールの限界を軽視していると批判しています。2023年、GoogleはAIシステムGNoMEの助けを借りて約40の「新素材」が合成されたと主張しましたが、独立した分析では、これらの素材のどれも実際には新しいものではないことがわかりました。

「Googleの『co-scientist』のようなツールの強みと限界を本当に理解するには、多様な科学的分野での厳格な独立評価が必要です」と、ロチェスター工科大学のソフトウェア工学助教授アシケ・クダブクシュ氏はTechCrunchのインタビューで述べました。「AIは制御された環境ではうまく機能するかもしれませんが、大規模に適用すると失敗する可能性があります。」

複雑なプロセス

科学的発見を助けるAIツールの開発は、予期しない要因が問題を引き起こす可能性があるため難しいものです。AIは膨大な可能性のリストをふるいにかけるのに役立ちますが、大きなブレークスルーをもたらす創造的な問題解決を扱えるかどうかは不明です。

「歴史を通じて、mRNAワクチンの開発のような最も重要な科学的進歩のいくつかは、人間の直感と懐疑に直面した持続性によって推進されてきました」とクダブクシュ氏は述べました。「現在のAIは、それを再現するのに適していないかもしれません。」

日本のソニーコンピュータサイエンス研究所のAI研究者ラナ・シナパイエン氏は、GoogleのAI co-scientistのようなツールが科学的な仕事の間違った側面に焦点を当てていると考えています。

シナパイエン氏は、最新の学術文献の要約や助成金申請のフォーマットなどの退屈なタスクを自動化するAIに価値を見ています。しかし、仮説の生成をAIに任せることには需要が少なく、多くの研究者がそのタスクを知的報酬として楽しんでいると主張しています。

「私を含む多くの科学者にとって、仮説の生成は仕事の最も楽しい部分です」とシナパイエン氏はTechCrunchに語りました。「なぜ私が楽しみをコンピュータにアウトソーシングして、難しい仕事だけを自分でやらなければならないのでしょうか?一般に、多くの生成AI研究者は人間がなぜそのようなことをするのかを誤解しており、結果として私たちが喜びを感じる部分を自動化する製品の提案になってしまいます。」

ビーリー氏は、科学プロセスの最も難しい部分は、仮説をテストするための研究の設計と実施であり、現在のAIシステムが苦手とする部分だと指摘しました。AIは物理的に実験を行うことができず、データが不足している問題にも苦労します。

「ほとんどの科学は完全に仮想的に行うことはできません。新しいデータの収集やラボでの実験など、科学プロセスの重要な物理的要素が頻繁にあります」とビーリー氏は述べました。「GoogleのAI co-scientistのようなシステムの大きな制限は、ラボや研究者のコンテキスト、特定の研究目標、過去の研究、スキルセット、利用可能なリソースに関する情報が不足していることで、これがその有用性を確実に制限します。」

AIのリスク

AIの技術的限界や、「幻覚」を起こしたり誤った情報を生成したりする傾向などのリスクは、科学者が真剣な仕事にAIを頼ることに対して慎重にさせます。

クダブクシュ氏は、AIツールが科学文献を進歩させるよりもノイズで溢れさせる可能性があると懸念しています。

それはすでに起こっています。最近の研究では、AI生成の「ジャンクサイエンス」がGoogle Scholar、Googleの学術文献向け無料検索エンジンを溢れさせていることがわかりました。

「注意深く監視されなければ、AI生成の研究は、質の低い、または誤解を招く研究で科学分野を溢れさせ、査読プロセスを圧倒する可能性があります」とクダブクシュ氏は述べました。「コンピュータサイエンスのような分野では、トップカンファレンスへの投稿数が指数関数的に増加しており、査読プロセスがすでに課題となっています。」

シナパイエン氏は、適切に設計された研究でさえ、AIの不適切な動作によって損なわれる可能性があると警告しました。文献レビューや統合を支援するツールのアイデアは評価しますが、現在のAIにその仕事を信頼できないと述べました。

「それらはさまざまな既存のツールが主張していることですが、私が個人的に現在のAIに任せる仕事ではありません」とシナパイエン氏は述べました。彼女はまた、AIシステムのトレーニング方法や消費するエネルギーについても懸念を表明しました。「倫理的な問題がすべて解決されたとしても、現在のAIは私の仕事をその出力に基づいて信頼するのに十分な信頼性がありません。」

関連記事
Microsoft Study Reveals AI Models' Limitations in Software Debugging Microsoft Study Reveals AI Models' Limitations in Software Debugging OpenAI、Anthropic、その他の主要AIラボのAIモデルは、コーディングタスクにますます活用されています。GoogleのCEOであるSundar Pichaiは10月に、AIが同社の新しいコードの25%を生成していると述べ、MetaのCEOであるMark Zuckerbergは、ソーシャルメディア大手内でAIコーディングツールを広く導入することを目指しています。しかし、最高性能のモデルで
AI駆動のソリューションが世界の炭素排出量を大幅に削減可能 AI駆動のソリューションが世界の炭素排出量を大幅に削減可能 ロンドン経済学校とSystemiqの最近の研究によると、人工知能は現代の利便性を犠牲にせず、世界の炭素排出量を大幅に削減でき、気候変動対策の重要な味方となる可能性がある。この研究は、3つのセクターでのインテリジェントなAIアプリケーションが、2035年までに年間32億~54億トンの温室効果ガス排出量を削減できると強調している。一般的な懸念とは異なり、これらの削減はAI運用の炭素フットプリントをはる
新しい研究がLLMが実際にどれだけデータを記憶するかを明らかに 新しい研究がLLMが実際にどれだけデータを記憶するかを明らかに AIモデルは実際にどれだけ記憶するのか? 新しい研究が驚くべき洞察を明らかにChatGPT、Claude、Geminiなどの大規模言語モデル(LLM)は、本、ウェブサイト、コード、そして画像や音声などのマルチメディアからなる膨大なデータセット—何兆もの単語—で訓練されています。しかし、そのデータはどうなるのでしょうか? これらのモデルは本当に言語を「理解」しているのか、それとも記憶した断片をただ繰
コメント (33)
0/200
PaulWilson
PaulWilson 2025年8月8日 22:00:59 JST

I read about Google's AI co-scientist, and it sounds like a cool idea, but experts seem to think it’s more hype than substance. Anyone else feel like AI’s being oversold these days? 🤔

GaryLewis
GaryLewis 2025年8月4日 15:48:52 JST

I read about Google's AI co-scientist and it sounds cool, but experts throwing shade makes me wonder if it’s just hype. 🤔 Anyone else think AI’s still got a long way to go before it’s truly helping scientists discover new stuff?

PeterYoung
PeterYoung 2025年7月23日 13:59:47 JST

I find it intriguing that Google's pushing this AI co-scientist angle, but I'm not shocked experts are skeptical. Sounds like a cool concept, yet overhyped tech often fizzles out in practice. Anyone else think it’s more marketing than science? 😏

BruceGonzalez
BruceGonzalez 2025年4月25日 12:08:16 JST

Google's AI co-scientist sounds cool on paper, but in real life? Not so much. I tried using it for my research, and it's more like a fancy suggestion box than a game-changer. It's okay for brainstorming, but don't expect it to revolutionize your work. Maybe in a few years, it'll be worth the hype. 🤔

RogerPerez
RogerPerez 2025年4月24日 12:00:20 JST

구글의 'AI 공동 과학자'를 사용해 봤는데, 지금은 '공동 추측자' 같아요. 나오는 아이디어는 재미있지만, 과학을 혁신할 정도는 아니네요. 몇 년 후에는 더 유용할지 모르겠지만, 지금은 그냥 그런 정도? 🤔

IsabellaLevis
IsabellaLevis 2025年4月21日 16:32:19 JST

Googleの「AI共助科学者」を試してみましたが、今のところ「共推測者」のようです。出てくるアイデアは面白いけど、科学を革命するには程遠いですね。数年後にはもっと役立つかもしれませんが、今はまだ。😅

トップに戻ります
OR