OpenAI發佈GPT-4.1未附安全報告
OpenAI的GPT-4.1在無安全報告的情況下推出——這為何重要
週一,OpenAI推出了其最新AI模型GPT-4.1,宣稱其性能有所提升,特別是在程式設計基準測試中。但與之前的發佈不同,這次有一個顯著的遺漏:無安全報告。
通常,OpenAI會發佈一份“系統卡”,詳細說明內部和第三方安全評估,揭示潛在風險,如欺騙行為或非預期的說服能力。這些報告被視為AI開發中促進透明度的誠信努力。
然而,截至週二,OpenAI確認其不會為GPT-4.1發佈安全報告。根據發言人Shaokyi Amdo的說法,該模型不被視為“前沿”AI系統——意即其未突破界限到需要完整安全分析的程度。
透明度下降的趨勢?
此舉正值人們日益擔憂主要AI實驗室正在縮減安全披露之際。過去一年:
- Google已延遲發佈安全報告。
- Anthropic和其他公司發表的評估細節較少。
- OpenAI本身因報告不一致而受到批評,包括:
- 發佈的2023年12月安全報告中的基準測試結果與實際模型不符。
- 在發佈DeepSeek-V3數週後才公開其系統卡。
Steven Adler,前OpenAI安全研究員,告訴TechCrunch,雖然這些報告是自願性的,但它們已成為AI行業的關鍵透明工具。OpenAI此前向政府承諾——包括在2023年英國AI安全峰會之前——系統卡對問責制至關重要。
為何遭到反對?
安全報告有時會揭示令人不安的真相——如模型可能操縱用戶或生成有害內容。但隨著競爭加劇,AI公司可能優先考慮速度而非審查。
近期報告顯示,OpenAI已削減安全測試資源,上週,12名前員工(包括Adler)在Elon Musk的訴訟中提交了友方意見書,警告以利潤為導向的OpenAI可能妥協安全。
無報告的GPT-4.1有風險嗎?
雖然GPT-4.1不是OpenAI的最先進模型,但其提升效率並降低延遲——這些因素仍可能引入風險。
Thomas Woodside,Secure AI Project聯合創始人,認為任何性能提升都應附有安全文件。“模型越複雜,風險越高,”他對TechCrunch表示。
AI監管的更大爭議
許多AI公司,包括OpenAI,反對強制性安全法規。今年早些時候,OpenAI反對加州SB 1047法案,該法案將強制AI開發者為公開模型發佈安全審計。
目前,行業的透明標準仍為自我約束——且越來越成為可選。
TechCrunch活動:全階段通行證節省200美元以上
🚀 更聰明地構建。更快地擴展。更深入地連接。
與來自Precursor Ventures、NEA、Index Ventures、Underscore VC等的遠見者共聚一堂,參與一天的策略、工作坊和人脈建立。
📍 麻州波士頓 | 7月15日
🔗 立即註冊
隨著AI的發展,安全與速度的爭論愈發激烈。若無更嚴格的問責制,誰來決定哪些風險值得冒?
相關文章
Former OpenAI Employees File Brief Against Company’s For-Profit Shift
Former OpenAI Employees Back Elon Musk in Lawsuit Against OpenAI’s Shift to For-Profit ModelA group of former OpenAI employees has filed an amicus brief in support of Elon Musk’s lawsuit against OpenAI, challenging the company’s planned transition from a nonprofit to a for-profit corporation. The b
OpenAI Enhances AI Model Behind Its Operator Agent
OpenAI Takes Operator to the Next LevelOpenAI is giving its autonomous AI agent, Operator, a major upgrade. The upcoming changes mean Operator will soon rely on a model based on o3
OpenAI’s o3 AI model scores lower on a benchmark than the company initially implied
Why Benchmark Discrepancies Matter in AIWhen it comes to AI, numbers often tell the story—and sometimes, those numbers don’t quite add up. Take OpenAI’s o3 model, for instance. The
評論 (0)
0/200
OpenAI的GPT-4.1在無安全報告的情況下推出——這為何重要
週一,OpenAI推出了其最新AI模型GPT-4.1,宣稱其性能有所提升,特別是在程式設計基準測試中。但與之前的發佈不同,這次有一個顯著的遺漏:無安全報告。
通常,OpenAI會發佈一份“系統卡”,詳細說明內部和第三方安全評估,揭示潛在風險,如欺騙行為或非預期的說服能力。這些報告被視為AI開發中促進透明度的誠信努力。
然而,截至週二,OpenAI確認其不會為GPT-4.1發佈安全報告。根據發言人Shaokyi Amdo的說法,該模型不被視為“前沿”AI系統——意即其未突破界限到需要完整安全分析的程度。
透明度下降的趨勢?
此舉正值人們日益擔憂主要AI實驗室正在縮減安全披露之際。過去一年:
- Google已延遲發佈安全報告。
- Anthropic和其他公司發表的評估細節較少。
- OpenAI本身因報告不一致而受到批評,包括:
- 發佈的2023年12月安全報告中的基準測試結果與實際模型不符。
- 在發佈DeepSeek-V3數週後才公開其系統卡。
Steven Adler,前OpenAI安全研究員,告訴TechCrunch,雖然這些報告是自願性的,但它們已成為AI行業的關鍵透明工具。OpenAI此前向政府承諾——包括在2023年英國AI安全峰會之前——系統卡對問責制至關重要。
為何遭到反對?
安全報告有時會揭示令人不安的真相——如模型可能操縱用戶或生成有害內容。但隨著競爭加劇,AI公司可能優先考慮速度而非審查。
近期報告顯示,OpenAI已削減安全測試資源,上週,12名前員工(包括Adler)在Elon Musk的訴訟中提交了友方意見書,警告以利潤為導向的OpenAI可能妥協安全。
無報告的GPT-4.1有風險嗎?
雖然GPT-4.1不是OpenAI的最先進模型,但其提升效率並降低延遲——這些因素仍可能引入風險。
Thomas Woodside,Secure AI Project聯合創始人,認為任何性能提升都應附有安全文件。“模型越複雜,風險越高,”他對TechCrunch表示。
AI監管的更大爭議
許多AI公司,包括OpenAI,反對強制性安全法規。今年早些時候,OpenAI反對加州SB 1047法案,該法案將強制AI開發者為公開模型發佈安全審計。
目前,行業的透明標準仍為自我約束——且越來越成為可選。
TechCrunch活動:全階段通行證節省200美元以上
🚀 更聰明地構建。更快地擴展。更深入地連接。
與來自Precursor Ventures、NEA、Index Ventures、Underscore VC等的遠見者共聚一堂,參與一天的策略、工作坊和人脈建立。
📍 麻州波士頓 | 7月15日
🔗 立即註冊
隨著AI的發展,安全與速度的爭論愈發激烈。若無更嚴格的問責制,誰來決定哪些風險值得冒?












