OpenAIが高度なAI推論モデル、o3およびo4-miniを発表

OpenAIは水曜日に、質問を一時停止して分析してから回答するように設計された新しいAIモデル、o3とo4-miniを導入しました。
OpenAIは、o3をこれまでで最も高度な推論モデルとして宣伝しており、数学、コーディング、推論、科学、視覚理解のテストで従来のモデルを上回っています。一方、o4-miniはコスト、速度、性能のバランスを取り、AI駆動のアプリケーションを構築する開発者にとって強力な選択肢です。
これまでのモデルとは異なり、o3とo4-miniは、ウェブブラウジング、Pythonコード実行、画像処理、画像生成などのChatGPTツールを活用します。今日から、これらのモデルおよび回答精度を高めるために追加の時間を要するo4-mini-highは、OpenAIのPro、Plus、Teamプランの加入者に提供されます。
これらのモデルは、Google、Meta、xAI、Anthropic、DeepSeekなどのライバルをグローバルなAI競争で上回るためのOpenAIの取り組みの一環です。OpenAIはo1でAI推論を開拓しましたが、競合他社はその後、同等または優れたモデルをリリースしており、推論モデルはAIラボの主要な焦点となっています。
当初、o3はChatGPTでのリリースが予定されていませんでした。OpenAIのCEOであるSam Altmanは2月に、o3の技術を使用したより高度な代替案に焦点を当てることを示唆していました。しかし、競争圧力によりOpenAIはこれを発売した可能性があります。
OpenAIは、o3がSWE-bench verified(カスタム足場なし)でトップレベルのパフォーマンスを達成し、コーディングタスクで69.1%を記録したと報告しています。o4-miniは68.1%、o3-miniは49.3%を記録し、Claude 3.7 Sonnetの62.3%と比較されます。
OpenAIは、o3とo4-miniが画像を効果的に処理する初のモデルであると主張しています。ユーザーはホワイトボードのスケッチやPDF図表などの画像をアップロードでき、モデルは推論プロセス中にそれらを分析し、ぼやけた低品質の画像を処理したり、ズームや回転などのタスクを実行したりします。
画像以外にも、o3とo4-miniはChatGPTのCanvas機能を介してブラウザ内でPythonコードを実行し、リアルタイムのイベントクエリのためにウェブを検索します。
3つのモデル—o3、o4-mini、o4-mini-high—はすべて、OpenAIのChat Completions APIおよびResponses APIを通じてアクセス可能で、開発者は使用量ベースの価格設定でこれらをアプリケーションに統合できます。
OpenAIは、o3を入力トークン100万あたり10ドル(約75万語)、出力トークン100万あたり40ドルで価格設定しています。o4-miniはo3-miniと同じ価格で、入力トークン100万あたり1.10ドル、出力トークン100万あたり4.40ドルです。
今後数週間で、OpenAIはChatGPT Pro加入者向けに、計算負荷の高いo3のバージョンであるo3-proを発売する予定です。
CEOのSam Altmanは、o3とo4-miniが、従来のモデルと推論モデルの機能を統合するGPT-5の前に、ChatGPTにおけるOpenAIの最後の独立した推論モデルになる可能性があると示唆しました。
関連記事
あなたの家を一新:PinterestとChatGPTによるAI駆動のデコレーション
無数の選択肢で家のリデザインに苦労していませんか?Pinterestのビジュアルインスピレーションと人工知能を融合させて、理想の空間を作りましょう。このガイドでは、Pinterestの画像とChatGPTの創造的なプランニングを組み合わせて、魅力的なホームデコレーションを実現する方法を紹介します。主なポイントPinterestでビジュアルアイデアを探る:Pinterestを活用して多様なホームデコ
OpenAIが「ChatGPTでサインイン」をサードパーティアプリ向けに検討
OpenAIは、ユーザーがChatGPTの認証情報を使用してサードパーティアプリケーションにアクセスするオプションを調査中であり、火曜日に公開されたウェブページによると、同社はこの機能を自社のプラットフォームに組み込むことに興味を持つ開発者からのフィードバックを積極的に求めています。約6億人の月間アクティブユーザーを抱えるChatGPTは、世界をリードする消費者向けアプリケーションの一つにランクさ
AI研究者のグリーンカード拒否が米国の人材保持に懸念を引き起こす
カナダ出身のAI専門家でOpenAIに所属するカイ・チェン氏は、米国で12年間過ごした後、グリーンカードを拒否されたと、同社の著名な研究科学者ノアム・ブラウン氏が明らかにした。Xへの投稿で、ブラウン氏はチェン氏が金曜日にその決定を知り、近いうちに米国を離れなければならないと述べた。「私が一緒に仕事をした中で最も優れたAI研究者の一人[…]が米国のグリーンカードを拒否されたのは驚くべきことだ」とブラ
コメント (0)
0/200
OpenAIは水曜日に、質問を一時停止して分析してから回答するように設計された新しいAIモデル、o3とo4-miniを導入しました。
OpenAIは、o3をこれまでで最も高度な推論モデルとして宣伝しており、数学、コーディング、推論、科学、視覚理解のテストで従来のモデルを上回っています。一方、o4-miniはコスト、速度、性能のバランスを取り、AI駆動のアプリケーションを構築する開発者にとって強力な選択肢です。
これまでのモデルとは異なり、o3とo4-miniは、ウェブブラウジング、Pythonコード実行、画像処理、画像生成などのChatGPTツールを活用します。今日から、これらのモデルおよび回答精度を高めるために追加の時間を要するo4-mini-highは、OpenAIのPro、Plus、Teamプランの加入者に提供されます。
これらのモデルは、Google、Meta、xAI、Anthropic、DeepSeekなどのライバルをグローバルなAI競争で上回るためのOpenAIの取り組みの一環です。OpenAIはo1でAI推論を開拓しましたが、競合他社はその後、同等または優れたモデルをリリースしており、推論モデルはAIラボの主要な焦点となっています。
当初、o3はChatGPTでのリリースが予定されていませんでした。OpenAIのCEOであるSam Altmanは2月に、o3の技術を使用したより高度な代替案に焦点を当てることを示唆していました。しかし、競争圧力によりOpenAIはこれを発売した可能性があります。
OpenAIは、o3がSWE-bench verified(カスタム足場なし)でトップレベルのパフォーマンスを達成し、コーディングタスクで69.1%を記録したと報告しています。o4-miniは68.1%、o3-miniは49.3%を記録し、Claude 3.7 Sonnetの62.3%と比較されます。
OpenAIは、o3とo4-miniが画像を効果的に処理する初のモデルであると主張しています。ユーザーはホワイトボードのスケッチやPDF図表などの画像をアップロードでき、モデルは推論プロセス中にそれらを分析し、ぼやけた低品質の画像を処理したり、ズームや回転などのタスクを実行したりします。
画像以外にも、o3とo4-miniはChatGPTのCanvas機能を介してブラウザ内でPythonコードを実行し、リアルタイムのイベントクエリのためにウェブを検索します。
3つのモデル—o3、o4-mini、o4-mini-high—はすべて、OpenAIのChat Completions APIおよびResponses APIを通じてアクセス可能で、開発者は使用量ベースの価格設定でこれらをアプリケーションに統合できます。
OpenAIは、o3を入力トークン100万あたり10ドル(約75万語)、出力トークン100万あたり40ドルで価格設定しています。o4-miniはo3-miniと同じ価格で、入力トークン100万あたり1.10ドル、出力トークン100万あたり4.40ドルです。
今後数週間で、OpenAIはChatGPT Pro加入者向けに、計算負荷の高いo3のバージョンであるo3-proを発売する予定です。
CEOのSam Altmanは、o3とo4-miniが、従来のモデルと推論モデルの機能を統合するGPT-5の前に、ChatGPTにおけるOpenAIの最後の独立した推論モデルになる可能性があると示唆しました。












