OpenAI發佈GPT-4.1未附安全報告
OpenAI的GPT-4.1在無安全報告的情況下推出——這為何重要
週一,OpenAI推出了其最新AI模型GPT-4.1,宣稱其性能有所提升,特別是在程式設計基準測試中。但與之前的發佈不同,這次有一個顯著的遺漏:無安全報告。
通常,OpenAI會發佈一份“系統卡”,詳細說明內部和第三方安全評估,揭示潛在風險,如欺騙行為或非預期的說服能力。這些報告被視為AI開發中促進透明度的誠信努力。
然而,截至週二,OpenAI確認其不會為GPT-4.1發佈安全報告。根據發言人Shaokyi Amdo的說法,該模型不被視為“前沿”AI系統——意即其未突破界限到需要完整安全分析的程度。
透明度下降的趨勢?
此舉正值人們日益擔憂主要AI實驗室正在縮減安全披露之際。過去一年:
- Google已延遲發佈安全報告。
- Anthropic和其他公司發表的評估細節較少。
- OpenAI本身因報告不一致而受到批評,包括:
- 發佈的2023年12月安全報告中的基準測試結果與實際模型不符。
- 在發佈DeepSeek-V3數週後才公開其系統卡。
Steven Adler,前OpenAI安全研究員,告訴TechCrunch,雖然這些報告是自願性的,但它們已成為AI行業的關鍵透明工具。OpenAI此前向政府承諾——包括在2023年英國AI安全峰會之前——系統卡對問責制至關重要。
為何遭到反對?
安全報告有時會揭示令人不安的真相——如模型可能操縱用戶或生成有害內容。但隨著競爭加劇,AI公司可能優先考慮速度而非審查。
近期報告顯示,OpenAI已削減安全測試資源,上週,12名前員工(包括Adler)在Elon Musk的訴訟中提交了友方意見書,警告以利潤為導向的OpenAI可能妥協安全。
無報告的GPT-4.1有風險嗎?
雖然GPT-4.1不是OpenAI的最先進模型,但其提升效率並降低延遲——這些因素仍可能引入風險。
Thomas Woodside,Secure AI Project聯合創始人,認為任何性能提升都應附有安全文件。“模型越複雜,風險越高,”他對TechCrunch表示。
AI監管的更大爭議
許多AI公司,包括OpenAI,反對強制性安全法規。今年早些時候,OpenAI反對加州SB 1047法案,該法案將強制AI開發者為公開模型發佈安全審計。
目前,行業的透明標準仍為自我約束——且越來越成為可選。
TechCrunch活動:全階段通行證節省200美元以上
🚀 更聰明地構建。更快地擴展。更深入地連接。
與來自Precursor Ventures、NEA、Index Ventures、Underscore VC等的遠見者共聚一堂,參與一天的策略、工作坊和人脈建立。
📍 麻州波士頓 | 7月15日
🔗 立即註冊
隨著AI的發展,安全與速度的爭論愈發激烈。若無更嚴格的問責制,誰來決定哪些風險值得冒?
相關文章
甲骨文40億美元Nvidia晶片投資推動德州AI數據中心
據《金融時報》報導,甲骨文計劃投資約40億美元於Nvidia晶片,為OpenAI在德州開發的大型新數據中心提供動力。這筆交易是迄今為止最大的晶片收購之一,凸顯了對AI運算資源的激增需求。該設施位於德州阿比林,是美國首個「星門」數據中心。由OpenAI和軟銀支持,屬於建設大規模AI基礎設施的更廣泛計劃的一部分。該德州中心預計明年完工,將提供1.2吉瓦的運算能力,位列全球最大之列。甲骨文計劃採購約40
軟銀以6.76億美元收購夏普工廠用於日本AI數據中心
軟銀正推進其在日本建立主要AI中心的目標,獨立進行並透過與OpenAI等合作。該科技巨頭於週五確認,將投資6.76億美元收購一座前夏普LCD面板工廠,將其轉型為AI數據中心。軟銀與夏普的交易包括位於大阪的堺工廠的土地和建築物,購買價格為1000億日元(6.76億美元)。此次收購對軟銀來說是關鍵一步,因為數據中心對於生成式AI革命至關重要,需要大量容量來訓練模型並支持持續服務。當被問及該地點是否將支
Adobe與Figma整合OpenAI的先進圖像生成模型
OpenAI在ChatGPT中增強的圖像生成功能帶動了用戶激增,這得益於其生成吉卜力工作室風格視覺效果和獨特設計的能力,現正擴展至其他平台。該公司在一篇博客文章中宣佈,驅動此功能的“原生多模態模型”將通過其API以“gpt-image-1”的形式提供,主要公司已開始採用。“該模型的靈活性使其能夠生成多樣化風格的圖像,遵循自定義指南,利用廣泛的世界知識,並精確渲染文字——為各行各業開啟了廣泛的實際應
評論 (0)
0/200
OpenAI的GPT-4.1在無安全報告的情況下推出——這為何重要
週一,OpenAI推出了其最新AI模型GPT-4.1,宣稱其性能有所提升,特別是在程式設計基準測試中。但與之前的發佈不同,這次有一個顯著的遺漏:無安全報告。
通常,OpenAI會發佈一份“系統卡”,詳細說明內部和第三方安全評估,揭示潛在風險,如欺騙行為或非預期的說服能力。這些報告被視為AI開發中促進透明度的誠信努力。
然而,截至週二,OpenAI確認其不會為GPT-4.1發佈安全報告。根據發言人Shaokyi Amdo的說法,該模型不被視為“前沿”AI系統——意即其未突破界限到需要完整安全分析的程度。
透明度下降的趨勢?
此舉正值人們日益擔憂主要AI實驗室正在縮減安全披露之際。過去一年:
- Google已延遲發佈安全報告。
- Anthropic和其他公司發表的評估細節較少。
- OpenAI本身因報告不一致而受到批評,包括:
- 發佈的2023年12月安全報告中的基準測試結果與實際模型不符。
- 在發佈DeepSeek-V3數週後才公開其系統卡。
Steven Adler,前OpenAI安全研究員,告訴TechCrunch,雖然這些報告是自願性的,但它們已成為AI行業的關鍵透明工具。OpenAI此前向政府承諾——包括在2023年英國AI安全峰會之前——系統卡對問責制至關重要。
為何遭到反對?
安全報告有時會揭示令人不安的真相——如模型可能操縱用戶或生成有害內容。但隨著競爭加劇,AI公司可能優先考慮速度而非審查。
近期報告顯示,OpenAI已削減安全測試資源,上週,12名前員工(包括Adler)在Elon Musk的訴訟中提交了友方意見書,警告以利潤為導向的OpenAI可能妥協安全。
無報告的GPT-4.1有風險嗎?
雖然GPT-4.1不是OpenAI的最先進模型,但其提升效率並降低延遲——這些因素仍可能引入風險。
Thomas Woodside,Secure AI Project聯合創始人,認為任何性能提升都應附有安全文件。“模型越複雜,風險越高,”他對TechCrunch表示。
AI監管的更大爭議
許多AI公司,包括OpenAI,反對強制性安全法規。今年早些時候,OpenAI反對加州SB 1047法案,該法案將強制AI開發者為公開模型發佈安全審計。
目前,行業的透明標準仍為自我約束——且越來越成為可選。
TechCrunch活動:全階段通行證節省200美元以上
🚀 更聰明地構建。更快地擴展。更深入地連接。
與來自Precursor Ventures、NEA、Index Ventures、Underscore VC等的遠見者共聚一堂,參與一天的策略、工作坊和人脈建立。
📍 麻州波士頓 | 7月15日
🔗 立即註冊
隨著AI的發展,安全與速度的爭論愈發激烈。若無更嚴格的問責制,誰來決定哪些風險值得冒?










