チャットボットはニュースを歪め、有料ユーザーにも影響を与えます

なぜこれが重要なのか? チャットボットがGoogleと同じくらい効果的にニュースを取得できない場合、そのニュースを正確に解釈し、引用することへの信頼が難しくなります。これにより、リンクが付いている場合でも、応答内容の信頼性が大幅に低下します。
自信を持って間違った回答をする
研究者たちは、チャットボットが「驚くべき自信」を持って間違った回答を返し、結果を限定したり、知識のギャップを認めることがほとんどないと指摘しました。例えば、ChatGPTは「決して回答を拒否しなかった」にもかかわらず、200件の応答のうち134件が間違っていました。8つのツールすべての中で、Copilotだけが回答するよりも多くのクエリを拒否しました。
「すべてのツールは、制限を認めるよりも間違った回答を提供する可能性が一貫して高かった」と報告書は明確に述べています。
有料プランも信頼性が高いわけではない
Grok-3 SearchやPerplexity Proのようなプレミアムモデルは、無料のモデルよりも正確ではあるものの、依然として自信を持って間違った回答を提供しました。これにより、しばしば高額なサブスクリプション料金の価値に疑問が生じます。
「この矛盾は主に、[ボットが]質問に直接答えることを拒否するのではなく、決定的だが間違った回答を提供する傾向に起因する」と報告書は説明しています。「根本的な懸念は、チャットボットの事実誤認を超えて、ユーザーが正確な情報と不正確な情報を区別するのが難しい、権威ある会話のトーンにまで及ぶ」
「この不当な自信は、信頼性と正確さの潜在的に危険な錯覚をユーザーに与える」と報告書は付け加えました。
リンクの捏造
AIモデルはハルシネーション(幻覚)で悪名高いが、Towの研究では、GeminiとGrok 3が最も頻繁にこれを行い、半分以上のケースで発生しました。「Grokが正しい記事を特定した場合でも、しばしば捏造されたURLにリンクした」と報告書は指摘し、Grokが正しいタイトルと出版社を見つけても、実際の記事リンクを捏造する可能性があることを意味します。
ノースウェスタン大学のイニシアチブであるGenerative AI in the NewsroomによるComscoreのトラフィックデータの分析は、このパターンを確認しました。2024年7月から11月までの彼らの研究では、ChatGPTが応答で205の壊れたURLを生成したことが示されました。出版物が記事を削除することがあり、404エラーが発生する可能性があるが、研究者たちはアーカイブデータの欠如から「モデルがユーザークエリに応答する際に、信頼できるニュース媒体へのもっともらしいリンクをハルシネーションした」と指摘しました。
AI検索エンジンの採用が増加している中—Googleは2024年第4四半期に10年ぶりに市場シェアが90%を下回りました—これらの発見は憂慮すべきものです。同社は先週、特定のユーザー向けにAI Modeをリリースし、AI Overviewsの不人気にもかかわらず、通常の検索をチャットボットに置き換えました。
約4億人のユーザーが毎週ChatGPTに集まる中、その引用の信頼性の低さと歪みは、厳格に事実確認されたニュースサイトからコンテンツを引用しているにもかかわらず、ChatGPTや他の人気AIツールを誤情報の潜在的なエンジンにします。
Towの報告書は、AIツールがソースを誤ってクレジットしたり、その仕事を誤って表現することで、出版社の評判に逆効果をもたらす可能性があると結論付けました。
ブロックされたクローラーの無視
Towの報告書によると、状況は出版社にとってさらに悪化しており、複数のチャットボットがRobots Exclusion Protocol(REP)やrobots.txtを使用してクローラーをブロックした出版社の記事を取得できることがわかりました。しかし、逆説的に、チャットボットはアクセスを許可されているサイトに関するクエリに正しく答えることができませんでした。
「Perplexity Proはこの点で最悪の違反者であり、アクセスすべきでない90の記事の抜粋のほぼ3分の1を正しく特定した」と報告書は述べています。
これは、Perplexityなどが昨年行っていたように、AI企業が依然としてREPを無視しているだけでなく、彼らとライセンス契約を結んでいる出版社が正しく引用される保証がないことを示唆しています。
コロンビアの報告書は、より大きな問題の一つの症状に過ぎません。Generative AI in the Newsroomの報告書は、チャットボットが情報を抽出しているニュースサイトにトラフィックをほとんど転送しないことを発見し、他の報告書もこれを確認しています。2024年7月から11月まで、Perplexityはニュースサイトに7%の参照を渡し、ChatGPTはわずか3%でした。対照的に、AIツールはScribd.com、Coursera、大学関連のリソースを優先し、最大30%のトラフィックをそれらに送りました。
結論:オリジナル報道は、AIツールが吐き出すものよりも信頼できるニュースソースです。リンクを事実として受け入れる前に必ず検証し、批判的思考とメディアリテラシーのスキルを使って応答を評価してください。
関連記事
元OpenAIエンジニアが企業文化と急速な成長について語る
3週間前、OpenAIの主要製品に貢献したエンジニア、Calvin French-Owenが退社。彼は最近、OpenAIでの1年間を詳細に綴った魅力的なブログを公開し、CursorやAnthropicのClaude Codeに匹敵するコーディングエージェントCodexの開発に注力したことを明かした。French-Owenは、退社の理由が内部の対立ではなく、スタートアップ生活への回帰願望だったと説明
AI駆動の翻訳がグローバルビジネスコミュニケーションを強化
今日の相互接続された世界では、シームレスな多言語コミュニケーションが成功に不可欠です。DeepLは、最先端の人工知能を活用して、グローバルビジネスの多言語インタラクションを効率化し、業界をリードしています。即時のテキスト翻訳から高度な音声ソリューションまで、DeepLは企業がグローバルなクライアント、パートナー、チームと関わる方法を変革します。主な特徴DeepLはAIを活用して多言語ビジネスコミュ
AI法律技術:iLevel.aiの正確性と信頼性へのアプローチ
法律分野は、人工知能(AI)の統合により変革を遂げています。iLevel.aiのようなプラットフォームは、法律専門家をサポートすることを目指していますが、正確性、信頼性、倫理的な問題に関する懸念が依然として存在します。この記事では、iLevel.aiの独自のAI手法を検証し、AIの不正確さに関する懸念に対処し、法律分野におけるその役割についてバランスの取れた視点を提供します。また、最近の注目すべき
コメント (50)
0/200
GaryWalker
2025年4月24日 11:12:13 JST
プレミアムバージョンを購入したのに、ニュースの正確さが全く期待できませんでした。間違った情報を堂々と出してくるなんて信じられないですね。😓 やっぱり人間が書いたニュースの方が信頼できるかも。
0
DonaldSanchez
2025年4月21日 0:53:48 JST
프리미엄 버전을 구입했는데 뉴스 정확도가 형편없네요. confidently 잘못된 정보를 내뱉는 모습을 보면서 웃음이 나왔어요. 😂 돈 아깝네요. 사람 손으로 쓴 뉴스가 더 나을 것 같아요.
0
RalphHill
2025年4月16日 18:13:53 JST
Paguei pela versão premium achando que teria notícias precisas, mas que erro! Ele dá informações erradas com tanta confiança que parece um pastor pregando. 😅 Não vale o dinheiro. Talvez seja melhor ficar com notícias escritas por humanos.
0
EdwardTaylor
2025年4月16日 17:05:47 JST
プレミアム版のチャットボットに課金したのに、ニュースの情報が全然正しくない!自信満々に間違った情報を提供するなんて、信じられない。人間が書いたニュースに戻るべきだね。😅
0
GregoryAdams
2025年4月15日 16:18:40 JST
프리미엄 버전에 돈을 냈는데 뉴스 정보가 틀렸어! 자신 있게 잘못된 정보를 주는 건 정말 실망스러워. 인간이 쓴 뉴스로 돌아가야 해. 😓
0
DonaldLee
2025年4月15日 6:25:02 JST
I paid for a premium chatbot, expecting accurate news, but it's just spewing out wrong info! It's frustrating to see how confidently these bots get things wrong. Maybe stick to weather updates, not news?
0
なぜこれが重要なのか? チャットボットがGoogleと同じくらい効果的にニュースを取得できない場合、そのニュースを正確に解釈し、引用することへの信頼が難しくなります。これにより、リンクが付いている場合でも、応答内容の信頼性が大幅に低下します。
自信を持って間違った回答をする
研究者たちは、チャットボットが「驚くべき自信」を持って間違った回答を返し、結果を限定したり、知識のギャップを認めることがほとんどないと指摘しました。例えば、ChatGPTは「決して回答を拒否しなかった」にもかかわらず、200件の応答のうち134件が間違っていました。8つのツールすべての中で、Copilotだけが回答するよりも多くのクエリを拒否しました。
「すべてのツールは、制限を認めるよりも間違った回答を提供する可能性が一貫して高かった」と報告書は明確に述べています。
有料プランも信頼性が高いわけではない
Grok-3 SearchやPerplexity Proのようなプレミアムモデルは、無料のモデルよりも正確ではあるものの、依然として自信を持って間違った回答を提供しました。これにより、しばしば高額なサブスクリプション料金の価値に疑問が生じます。
「この矛盾は主に、[ボットが]質問に直接答えることを拒否するのではなく、決定的だが間違った回答を提供する傾向に起因する」と報告書は説明しています。「根本的な懸念は、チャットボットの事実誤認を超えて、ユーザーが正確な情報と不正確な情報を区別するのが難しい、権威ある会話のトーンにまで及ぶ」
「この不当な自信は、信頼性と正確さの潜在的に危険な錯覚をユーザーに与える」と報告書は付け加えました。
リンクの捏造
AIモデルはハルシネーション(幻覚)で悪名高いが、Towの研究では、GeminiとGrok 3が最も頻繁にこれを行い、半分以上のケースで発生しました。「Grokが正しい記事を特定した場合でも、しばしば捏造されたURLにリンクした」と報告書は指摘し、Grokが正しいタイトルと出版社を見つけても、実際の記事リンクを捏造する可能性があることを意味します。
ノースウェスタン大学のイニシアチブであるGenerative AI in the NewsroomによるComscoreのトラフィックデータの分析は、このパターンを確認しました。2024年7月から11月までの彼らの研究では、ChatGPTが応答で205の壊れたURLを生成したことが示されました。出版物が記事を削除することがあり、404エラーが発生する可能性があるが、研究者たちはアーカイブデータの欠如から「モデルがユーザークエリに応答する際に、信頼できるニュース媒体へのもっともらしいリンクをハルシネーションした」と指摘しました。
AI検索エンジンの採用が増加している中—Googleは2024年第4四半期に10年ぶりに市場シェアが90%を下回りました—これらの発見は憂慮すべきものです。同社は先週、特定のユーザー向けにAI Modeをリリースし、AI Overviewsの不人気にもかかわらず、通常の検索をチャットボットに置き換えました。
約4億人のユーザーが毎週ChatGPTに集まる中、その引用の信頼性の低さと歪みは、厳格に事実確認されたニュースサイトからコンテンツを引用しているにもかかわらず、ChatGPTや他の人気AIツールを誤情報の潜在的なエンジンにします。
Towの報告書は、AIツールがソースを誤ってクレジットしたり、その仕事を誤って表現することで、出版社の評判に逆効果をもたらす可能性があると結論付けました。
ブロックされたクローラーの無視
Towの報告書によると、状況は出版社にとってさらに悪化しており、複数のチャットボットがRobots Exclusion Protocol(REP)やrobots.txtを使用してクローラーをブロックした出版社の記事を取得できることがわかりました。しかし、逆説的に、チャットボットはアクセスを許可されているサイトに関するクエリに正しく答えることができませんでした。
「Perplexity Proはこの点で最悪の違反者であり、アクセスすべきでない90の記事の抜粋のほぼ3分の1を正しく特定した」と報告書は述べています。
これは、Perplexityなどが昨年行っていたように、AI企業が依然としてREPを無視しているだけでなく、彼らとライセンス契約を結んでいる出版社が正しく引用される保証がないことを示唆しています。
コロンビアの報告書は、より大きな問題の一つの症状に過ぎません。Generative AI in the Newsroomの報告書は、チャットボットが情報を抽出しているニュースサイトにトラフィックをほとんど転送しないことを発見し、他の報告書もこれを確認しています。2024年7月から11月まで、Perplexityはニュースサイトに7%の参照を渡し、ChatGPTはわずか3%でした。対照的に、AIツールはScribd.com、Coursera、大学関連のリソースを優先し、最大30%のトラフィックをそれらに送りました。
結論:オリジナル報道は、AIツールが吐き出すものよりも信頼できるニュースソースです。リンクを事実として受け入れる前に必ず検証し、批判的思考とメディアリテラシーのスキルを使って応答を評価してください。




プレミアムバージョンを購入したのに、ニュースの正確さが全く期待できませんでした。間違った情報を堂々と出してくるなんて信じられないですね。😓 やっぱり人間が書いたニュースの方が信頼できるかも。




프리미엄 버전을 구입했는데 뉴스 정확도가 형편없네요. confidently 잘못된 정보를 내뱉는 모습을 보면서 웃음이 나왔어요. 😂 돈 아깝네요. 사람 손으로 쓴 뉴스가 더 나을 것 같아요.




Paguei pela versão premium achando que teria notícias precisas, mas que erro! Ele dá informações erradas com tanta confiança que parece um pastor pregando. 😅 Não vale o dinheiro. Talvez seja melhor ficar com notícias escritas por humanos.




プレミアム版のチャットボットに課金したのに、ニュースの情報が全然正しくない!自信満々に間違った情報を提供するなんて、信じられない。人間が書いたニュースに戻るべきだね。😅




프리미엄 버전에 돈을 냈는데 뉴스 정보가 틀렸어! 자신 있게 잘못된 정보를 주는 건 정말 실망스러워. 인간이 쓴 뉴스로 돌아가야 해. 😓




I paid for a premium chatbot, expecting accurate news, but it's just spewing out wrong info! It's frustrating to see how confidently these bots get things wrong. Maybe stick to weather updates, not news?












