オプション
ニュース
チャットボットから信頼できる健康アドバイスを得るための課題が研究で明らかに

チャットボットから信頼できる健康アドバイスを得るための課題が研究で明らかに

2025年10月10日
6

チャットボットから信頼できる健康アドバイスを得るための課題が研究で明らかに

医療制度が待ち時間の延長と費用の高騰に苦しむ中、ChatGPTのようなAIチャットボットを使って事前の医療アドバイスを試みる患者が増えている。最近のデータでは、米国の成人の約17%が毎月、健康情報のためにこれらのツールに相談している。しかし、新しい研究によると、この新たな実践には大きなリスクが伴うことが示唆されている。特に、ユーザーが適切なコンテキストを提供しなかったり、AIの応答を誤解したりした場合だ。

オックスフォード大学が主導した研究では、人々が医療自己診断のために会話型AIをいかに効果的に使うかについて、重大な限界があることを明らかにした。研究チームは、英国の参加者1,300人を対象に、医師が作成した医療シナリオを提示した。参加者は、AIアシスタントまたはインターネット検索のような従来の方法のいずれかを使用して診断を試みたが、複数のAIプラットフォームで懸念される結果が得られた。

オックスフォード・インターネット研究所の共著者であるアダム・マハディは、「私たちは、双方向で根本的なコミュニケーションの断絶を観察しました」と説明する。「AIユーザーは、従来のアプローチを採用したユーザーよりも優れた意思決定能力を示さなかった。

この研究では、3つの主要なAIモデルをテストした:OpenAIのGPT-4o(ChatGPTに搭載)、CohereのCommand R+、MetaのLlama 3である。その結果、2つの厄介なパターンが明らかになった:

  • AIツールを使用した参加者は、関連する健康状態を特定することにあまり成功していなかった。
  • AIとのインタラクションは、症状の重症度を危険なほど過小評価することにつながった。

Mahdi氏は、入力の質と出力の解釈に大きな問題があることを指摘した:"ユーザーは、クエリを作成する際に重要な医学的詳細を省略することが多く、AIの応答は正確なアドバイスと問題のある提案を混同することが多かった"。この組み合わせは、ユーザーが不適切な医療判断を下す可能性のある、特に危険なシナリオを生み出した。

業界の後押しと医療の現実

大手ハイテク企業が健康に特化したAIアプリケーションを積極的に開発している中で、このような調査結果が出た:

  • アップルは、運動と睡眠を指導するウェルネス・アドバイザーを開発中と報じられている。
  • アマゾンは社会的健康指標を得るために医療記録を分析している。
  • マイクロソフトは、患者とのコミュニケーションに優先順位をつけるAIシステムを開発している。

しかし、医療界はこれらの技術を臨床の場に導入することに慎重な姿勢を崩していない。米国医師会は、意思決定支援に消費者向けチャットボットを使用しないよう医師に明確に警告しており、この警告はAI開発者自身も同じことを言っている。Open AIの使用ポリシーでは、診断目的でモデルを使用することを特に禁止している。

「私たちは、ヘルスケアの意思決定にはチャットボットの出力ではなく、検証済みの医療情報源を参照するよう強く勧めます」とマハディ氏は強調する。"広く展開する前に、これらのシステムは、医薬品の臨床試験に匹敵する厳格な実世界試験が必要です。"

結論

AIチャットボットは、医療をより身近なものにするための興味深い可能性を提供する一方で、この研究は、現在の実装における実質的なリスクを浮き彫りにしている。技術が進化するにつれて、開発者は信頼性における重大なギャップに対処しなければならず、一方、利用者は適切な懐疑心を持ってAI医療アドバイスに臨むべきである。

関連記事
AIデータセンター、2030年までに2000億ドルのコスト、電力網に負担 AIデータセンター、2030年までに2000億ドルのコスト、電力網に負担 AIのトレーニングおよび運用データセンターは、近いうちに数百万のチップを収容し、数百億ドルのコストがかかり、主要都市の電力網に相当する電力を必要とする可能性がある。ジョージタウン、Epoch AI、ランドの研究者による新しい研究では、2019年から2025年までの世界500以上のAIデータセンターのプロジェクトを分析した。データによると、計算性能が年々倍増し、電力需要と資本コストが急上昇している。
研究が示す:簡潔なAI応答は幻覚を増加させる可能性がある 研究が示す:簡潔なAI応答は幻覚を増加させる可能性がある AIチャットボットに簡潔な回答を指示すると、幻覚がより頻繁に発生する可能性があると新たな研究が示唆しています。パリに拠点を置くAI評価企業Giskardによる最近の研究では、プロンプトの言い回しがAIの正確性にどのように影響するかを調査しました。Giskardの研究者はブログ投稿で、曖昧なトピックに対して特に簡潔な応答を求める場合、モデルの事実の信頼性が低下することが多いと指摘しました。「私たちの
AI駆動のソリューションが世界の炭素排出量を大幅に削減可能 AI駆動のソリューションが世界の炭素排出量を大幅に削減可能 ロンドン経済学校とSystemiqの最近の研究によると、人工知能は現代の利便性を犠牲にせず、世界の炭素排出量を大幅に削減でき、気候変動対策の重要な味方となる可能性がある。この研究は、3つのセクターでのインテリジェントなAIアプリケーションが、2035年までに年間32億~54億トンの温室効果ガス排出量を削減できると強調している。一般的な懸念とは異なり、これらの削減はAI運用の炭素フットプリントをはる
コメント (0)
0/200
トップに戻ります
OR