Anthropic CEO: AIのハルシネーション率が人間の正確さを上回る

AnthropicのCEOであるダリオ・アモデイは、サンフランシスコで木曜日に開催されたAnthropicの初の開発者会議「Code with Claude」の記者会見で、現在のAIモデルは人間よりも虚偽の生成が少なく、それを事実として提示していると述べました。
アモデイは、より広範な議論の中でこれを強調しました:AIのハルシネーションは、Anthropicが人間の知能に匹敵またはそれを超えるシステムであるAGIの追求を妨げるものではありません。
「測定方法によって異なりますが、AIモデルは人間よりも虚偽を生成する可能性が低いと私は考えています。ただし、そのエラーはより予期しないものです」と、アモデイはTechCrunchの質問に答えました。
AnthropicのCEOは、AIがAGIを達成することについて業界で最も楽観的なリーダーの一人です。昨年広く引用された論文で、アモデイはAGIが2026年までに現れる可能性があると予測しました。木曜日の記者会見で、彼は一貫した進歩を指摘し、「すべての分野で進歩が加速しています」と述べました。
「人々はAIの能力に根本的な限界を探し続けています」とアモデイは言いました。「そのような障壁は明らかではありません。そんな障壁は存在しません。」
他のAIリーダーは、ハルシネーションをAGIへの大きな障壁と見なしています。Google DeepMindのCEOであるデミス・ハサビスは最近、現在のAIモデルには欠陥が多すぎ、簡単な質問にもしばしば失敗すると指摘しました。たとえば、今月上旬、Anthropicを代表する弁護士は、Claudeが提出書類で誤った引用を生成し、名前や肩書きを誤って記載したとして裁判所に謝罪しました。
アモデイの主張を検証することは難しいです。なぜなら、ほとんどのハルシネーションベンチマークはAIモデル同士を比較するもので、人間と比較するものではないからです。ウェブ検索の統合などの技術はハルシネーション率を下げるように見えます。特に、OpenAIのGPT-4.5のようなモデルは、ベンチマークで以前のシステムよりも低いハルシネーション率を示しています。
TechCrunch Sessions: AIにご参加ください
OpenAI、Anthropic、Cohereからのスピーカーによる、AI業界のプレミアイベントにあなたの席を確保してください。限られた期間、チケットは1日中の専門家トーク、ワークショップ、強力なネットワーキングがわずか292ドルです。
TechCrunch Sessions: AIで展示
TC Sessions: AIであなたのイノベーションを1,200人以上の意思決定者に展示するスポットを確保してください。大きな投資は必要ありません。5月9日まで、またはテーブルがなくなるまで利用可能です。
バークレー、CA | 6月5日 今すぐ登録しかし、証拠によると、高度な推論AIモデルではハルシネーションが悪化している可能性があります。OpenAIのo3およびo4-miniモデルは、以前の推論モデルよりも高いハルシネーション率を示しており、原因は会社にとって不明です。
アモデイは後に、テレビの放送者、政治家、さまざまな分野の専門家の間でエラーが一般的であると指摘しました。彼は、AIのエラーがその知能を損なうものではないと主張しました。しかし、彼はAIが虚偽を事実として自信を持って提示することが問題を引き起こす可能性があることを認めました。
AnthropicはAIの欺瞞について広範な研究を行っており、特に最近リリースされたClaude Opus 4についてです。早期アクセスを持つ安全研究所であるApollo Researchは、Claude Opus 4の初期バージョンが人間を操作し欺く強い傾向を示したことを発見し、リリースに関する懸念を提起しました。AnthropicはApolloの懸念を解決するように見える緩和策を実施しました。
アモデイの発言は、Anthropicがハルシネーションを起こすAIをAGI、つまり人間レベルの知能として分類する可能性を示唆しています。しかし、多くの人はハルシネーションを起こすAIは真のAGIには及ばないと主張するでしょう。
関連記事
MastercardのAgent Payがシームレスな取引でAI検索を強化
従来の検索プラットフォームやAIエージェントでは、ユーザーが商品やサービスを見つけた後、購入を完了するためにウィンドウを切り替える必要がありました。Mastercardは、AIプラットフォームに自社の決済ネットワークを組み込むことでこのプロセスを革新し、同じエコシステム内でのスムーズな取引を可能にしています。同社は、Mastercardの決済システムをAIチャットプラットフォームに統合するプログラ
AI駆動の小売実験がAnthropicで壮絶に失敗
人工知能に小さな店舗を任せ、価格設定から顧客対応まで全てを委ねると想像してみてください。何が問題になるでしょうか?金曜日に発表されたAnthropicの最近の研究がその答えを示しています:ほぼ全てです。彼らのAIアシスタント、Claudeが、サンフランシスコのオフィスで1か月間小さな店舗を運営し、まるで実際の経験ゼロの誰かが書いたビジネス学生向けの教訓のような結果を生み出しました—まさにその通りで
AnthropicがClaudeをシームレスなツール統合と高度な研究機能で強化
Anthropicは、Claude向けの新しい「統合」機能を発表し、AIがお好みのワークツールと直接接続できるようにしました。同社はまた、より深い洞察のためのアップグレードされた「高度な研究」機能も導入しました。統合機能は、Anthropicが昨年導入した技術標準であるモデルコンテキストプロトコル(MCP)を簡素化し、より使いやすくしました。以前は複雑でローカルだったものが、今では開発者がClau
コメント (0)
0/200
AnthropicのCEOであるダリオ・アモデイは、サンフランシスコで木曜日に開催されたAnthropicの初の開発者会議「Code with Claude」の記者会見で、現在のAIモデルは人間よりも虚偽の生成が少なく、それを事実として提示していると述べました。
アモデイは、より広範な議論の中でこれを強調しました:AIのハルシネーションは、Anthropicが人間の知能に匹敵またはそれを超えるシステムであるAGIの追求を妨げるものではありません。
「測定方法によって異なりますが、AIモデルは人間よりも虚偽を生成する可能性が低いと私は考えています。ただし、そのエラーはより予期しないものです」と、アモデイはTechCrunchの質問に答えました。
AnthropicのCEOは、AIがAGIを達成することについて業界で最も楽観的なリーダーの一人です。昨年広く引用された論文で、アモデイはAGIが2026年までに現れる可能性があると予測しました。木曜日の記者会見で、彼は一貫した進歩を指摘し、「すべての分野で進歩が加速しています」と述べました。
「人々はAIの能力に根本的な限界を探し続けています」とアモデイは言いました。「そのような障壁は明らかではありません。そんな障壁は存在しません。」
他のAIリーダーは、ハルシネーションをAGIへの大きな障壁と見なしています。Google DeepMindのCEOであるデミス・ハサビスは最近、現在のAIモデルには欠陥が多すぎ、簡単な質問にもしばしば失敗すると指摘しました。たとえば、今月上旬、Anthropicを代表する弁護士は、Claudeが提出書類で誤った引用を生成し、名前や肩書きを誤って記載したとして裁判所に謝罪しました。
アモデイの主張を検証することは難しいです。なぜなら、ほとんどのハルシネーションベンチマークはAIモデル同士を比較するもので、人間と比較するものではないからです。ウェブ検索の統合などの技術はハルシネーション率を下げるように見えます。特に、OpenAIのGPT-4.5のようなモデルは、ベンチマークで以前のシステムよりも低いハルシネーション率を示しています。
TechCrunch Sessions: AIにご参加ください
OpenAI、Anthropic、Cohereからのスピーカーによる、AI業界のプレミアイベントにあなたの席を確保してください。限られた期間、チケットは1日中の専門家トーク、ワークショップ、強力なネットワーキングがわずか292ドルです。
TechCrunch Sessions: AIで展示
TC Sessions: AIであなたのイノベーションを1,200人以上の意思決定者に展示するスポットを確保してください。大きな投資は必要ありません。5月9日まで、またはテーブルがなくなるまで利用可能です。
バークレー、CA | 6月5日 今すぐ登録しかし、証拠によると、高度な推論AIモデルではハルシネーションが悪化している可能性があります。OpenAIのo3およびo4-miniモデルは、以前の推論モデルよりも高いハルシネーション率を示しており、原因は会社にとって不明です。
アモデイは後に、テレビの放送者、政治家、さまざまな分野の専門家の間でエラーが一般的であると指摘しました。彼は、AIのエラーがその知能を損なうものではないと主張しました。しかし、彼はAIが虚偽を事実として自信を持って提示することが問題を引き起こす可能性があることを認めました。
AnthropicはAIの欺瞞について広範な研究を行っており、特に最近リリースされたClaude Opus 4についてです。早期アクセスを持つ安全研究所であるApollo Researchは、Claude Opus 4の初期バージョンが人間を操作し欺く強い傾向を示したことを発見し、リリースに関する懸念を提起しました。AnthropicはApolloの懸念を解決するように見える緩和策を実施しました。
アモデイの発言は、Anthropicがハルシネーションを起こすAIをAGI、つまり人間レベルの知能として分類する可能性を示唆しています。しかし、多くの人はハルシネーションを起こすAIは真のAGIには及ばないと主張するでしょう。











