選項
首頁
新聞
OpenAI 發布兩款先進開源 AI 模型

OpenAI 發布兩款先進開源 AI 模型

2025-08-28
0

OpenAI 於週二宣布推出兩款開源 AI 推理模型,性能媲美其 o 系列。兩款模型均可在 Hugging Face 免費下載,OpenAI 稱其在多項開源模型基準測試中表現「頂尖」。

模型分為兩種版本:強大的 gpt-oss-120b,僅需單一 Nvidia GPU 即可運行;輕量級 gpt-oss-20b,設計為可在具備 16GB 記憶體的標準筆電上運行。

這是 OpenAI 自五年前推出 GPT-2 後的首款開源語言模型。

在簡報會上,OpenAI 表示,其開源模型可通過連接到更先進的雲端 AI 系統處理複雜查詢,正如 TechCrunch 先前報導。這允許開發者在需要時將開源模型連接到 OpenAI 的專有模型,以執行如圖像處理等任務。

雖然 OpenAI 最初擁抱開源 AI 模型,但其後大多轉向專有開發模式,通過向企業和開發者提供 API 存取,推動蓬勃發展的業務。

今年一月,執行長 Sam Altman 承認 OpenAI 在未優先發展開源技術上可能有所失誤。公司現面臨來自中國 AI 實驗室如 DeepSeek、Alibaba 的 Qwen 及 Moonshot AI 的激烈競爭,這些實驗室以其高性能開源模型獲得關注。(Meta 的 Llama 模型曾是開源 AI 領域的領導者,但在過去一年落後。)

七月,川普政府鼓勵美國 AI 開發者開放更多技術,以推動符合美國價值觀的 AI 在全球發展。

科技與創投領袖亮相 Disrupt 2025

Netflix、ElevenLabs、Wayve 及 Sequoia Capital 等知名品牌將於 Disrupt 2025 議程中分享推動新創成功與創新的見解。不要錯過 TechCrunch Disrupt 20 週年,與科技頂尖聲音學習的機會——立即購票,於 8 月 7 日價格上漲前可節省高達 675 美元。

科技與創投領袖亮相 Disrupt 2025

Netflix、ElevenLabs、Wayve 及 Sequoia Capital 等知名品牌將於 Disrupt 2025 議程中分享推動新創成功與創新的見解。不要錯過 TechCrunch Disrupt 20 週年,與科技頂尖聲音學習的機會——立即購票,於 8 月 7 日價格上漲前可節省高達 675 美元。

舊金山 | 2025 年 10 月 27-29 日 立即註冊

透過 gpt-oss,OpenAI 旨在吸引開發者並響應川普政府的推動,雙方均注意到中國 AI 實驗室在開源領域的崛起。

「自 2015 年創立以來,OpenAI 的使命是推進 AGI 以造福全人類,」執行長 Sam Altman 在對 TechCrunch 的聲明中表示。「我們很高興看到全球在基於美國民主價值觀的開源 AI 框架上進行建設,自由存取且廣泛有益。」

OpenAI 執行長 Sam Altman
(照片由 Tomohiro Ohsumi/Getty Images 提供) 圖片來源:Tomohiro Ohsumi / Getty Images

模型性能概覽

OpenAI 設計其開源模型以領先於開源 AI 系統,公司聲稱已達成此目標。

在 Codeforces 的競賽程式設計測試(使用工具)中,gpt-oss-120b 得分 2622,gpt-oss-20b 得分 2516,超越 DeepSeek 的 R1,但落後於 o3 和 o4-mini。

OpenAI 開源模型在 Codeforces 的表現(來源:OpenAI)。

在「人類最後考試」,一項涵蓋多學科的嚴格眾包測試(使用工具)中,gpt-oss-120b 和 gpt-oss-20b 分別獲得 19% 和 17.3%,超越 DeepSeek 和 Qwen 的領先開源模型,但未達 o3 水平。

OpenAI 開源模型在 HLE 的表現(來源:OpenAI)。

值得注意的是,OpenAI 的開源模型幻覺率顯著高於其最新推理模型 o3 和 o4-mini。

幻覺問題在 OpenAI 近期 AI 推理模型中更為明顯,公司承認仍在調查原因。在一份白皮書中,OpenAI 指出:「知識較少的較小型模型預計比大型前沿模型更容易產生幻覺。」

在 OpenAI 內部用於評估模型對個人資訊準確性的基準 PersonQA 中,gpt-oss-120b 和 gpt-oss-20b 的幻覺率分別為 49% 和 53%,是 o1 模型(16%)的三倍以上,且高於 o4-mini(36%)。

訓練新模型

OpenAI 表示,其開源模型採用與專有模型相似的技術開發。每款模型使用專家混合(MoE)方法,每個查詢啟用較少的參數以提高效率。對於 gpt-oss-120b,總計 1170 億參數,每個 token 僅使用 51 億參數。

開源模型採用高運算強化學習(RL)進行訓練,這是一種使用 Nvidia GPU 集群在模擬環境中優化 AI 決策的後訓練方法。這與 OpenAI o 系列的訓練相似,並包含思考鏈過程,需要額外時間和資源來推理回應。

此訓練使開源模型擅長驅動 AI 代理,支援如網頁搜尋或 Python 程式碼執行等工具在其推理過程中。然而,它們僅限於文字任務,無法處理或生成圖像或音頻,與 OpenAI 的其他模型不同。

gpt-oss-120b 和 gpt-oss-20b 模型以 Apache 2.0 許可證發布,允許企業無需向 OpenAI 支付費用或取得許可即可商業化。

與 AI2 等實驗室的完全開源模型不同,OpenAI 不會公開其開源模型的訓練數據,此決定可能受到關於 AI 訓練中不當使用版權材料的訴訟影響。

OpenAI 多次推遲開源模型的發布以解決安全問題。除標準安全協議外,公司評估了惡意行為者是否可能將 gpt-oss 微調用於有害目的,如網路攻擊或製造生物或化學武器。

OpenAI 及外部評估者的測試發現,gpt-oss 可能略微增強生物能力,但即使經過微調,也未達到公司設定的「高危險」門檻。

雖然 OpenAI 的模型在開源模型中領先,開發者正期待 DeepSeek 的 R2 及 Meta 超智能實驗室的新開源模型發布。

相關文章
字節跳動推出Seed-Thinking-v1.5 AI模型以提升推理能力 字節跳動推出Seed-Thinking-v1.5 AI模型以提升推理能力 先進推理AI的競賽始於2024年9月OpenAI的o1模型,隨著2025年1月DeepSeek的R1推出而加速。主要AI開發商現正競相打造更快、更具成本效益的推理AI模型,通過思維鏈過程提供精確、深思熟慮的回應,確保回答前的準確性。字節跳動,TikTok的母公司,推出Seed-Thinking-v1.5,一款在技術論文中概述的新大型語言模型(LLM),旨在增強STEM及一般領域的推理能力。該模型尚
甲骨文40億美元Nvidia晶片投資推動德州AI數據中心 甲骨文40億美元Nvidia晶片投資推動德州AI數據中心 據《金融時報》報導,甲骨文計劃投資約40億美元於Nvidia晶片,為OpenAI在德州開發的大型新數據中心提供動力。這筆交易是迄今為止最大的晶片收購之一,凸顯了對AI運算資源的激增需求。該設施位於德州阿比林,是美國首個「星門」數據中心。由OpenAI和軟銀支持,屬於建設大規模AI基礎設施的更廣泛計劃的一部分。該德州中心預計明年完工,將提供1.2吉瓦的運算能力,位列全球最大之列。甲骨文計劃採購約40
軟銀以6.76億美元收購夏普工廠用於日本AI數據中心 軟銀以6.76億美元收購夏普工廠用於日本AI數據中心 軟銀正推進其在日本建立主要AI中心的目標,獨立進行並透過與OpenAI等合作。該科技巨頭於週五確認,將投資6.76億美元收購一座前夏普LCD面板工廠,將其轉型為AI數據中心。軟銀與夏普的交易包括位於大阪的堺工廠的土地和建築物,購買價格為1000億日元(6.76億美元)。此次收購對軟銀來說是關鍵一步,因為數據中心對於生成式AI革命至關重要,需要大量容量來訓練模型並支持持續服務。當被問及該地點是否將支
評論 (0)
0/200
回到頂部
OR