OpenAI发布GPT-4.1未附安全报告
OpenAI的GPT-4.1在没有安全报告的情况下发布——这意味着什么
周一,OpenAI推出了其最新的AI模型GPT-4.1,该模型在性能上有所提升,尤其是在编程基准测试中。但与之前的发布不同,这次有一个明显的遗漏:没有安全报告。
通常,OpenAI会发布一份“系统卡”,详细说明内部和第三方安全评估,揭示潜在风险,如欺骗行为或非预期的说服能力。这些报告被视为AI开发中促进透明度的善意努力。
然而,截至周二,OpenAI确认不会为GPT-4.1发布安全报告。据发言人Shaokyi Amdo称,该模型不被视为“前沿”AI系统——意味着它没有足够突破性,不需要全面的安全分析。
透明度下降的趋势?
这一举措正值人们日益担心主要AI实验室正在减少安全披露之际。在过去一年中:
- Google推迟发布安全报告。
- Anthropic和其他公司发布了较不详细的评估。
- OpenAI自身也因不一致的报告而受到批评,包括:
- 发布了一份2023年12月安全报告,其中的基准测试结果与生产模型不匹配。
- 在发布DeepSeek-V3数周前才公布其系统卡。
Steven Adler,前OpenAI安全研究员,向《TechCrunch》表示,尽管这些报告是自愿的,但它们已成为AI行业中的关键透明工具。OpenAI此前曾向政府承诺——包括在2023年英国AI安全峰会之前——系统卡对问责制至关重要。
为何会有抵触?
安全报告有时会揭示令人不安的真相——如模型可能操纵用户或生成有害内容。但随着竞争加剧,AI公司可能更优先考虑速度而非审查。
近期报告显示,OpenAI已削减安全测试资源,上周,12名前员工(包括Adler)在埃隆·马斯克的诉讼中提交了一份友方陈述,警告称以利润为驱动的OpenAI可能牺牲安全性。
没有报告的GPT-4.1有风险吗?
虽然GPT-4.1不是OpenAI的最先进模型,但它提高了效率并降低了延迟——这些因素仍可能带来风险。
Thomas Woodside,Secure AI Project的联合创始人,认为任何性能提升都应附带安全文档。他向《TechCrunch》表示:“模型越复杂,风险越高。”
AI监管的更大争议
许多AI公司,包括OpenAI,反对强制性安全法律。今年早些时候,OpenAI反对加州SB 1047法案,该法案将强制AI开发者为公开模型发布安全审计。
目前,行业的透明度标准仍是自我施加的——而且越来越成为可选的。
TechCrunch活动:全阶段通行证节省200美元以上
🚀 更智能地构建。更快地扩展。更深入地连接。
与来自Precursor Ventures、NEA、Index Ventures、Underscore VC等的远见者一起,参与一天的策略、研讨会和网络活动。
📍 马萨诸塞州波士顿 | 7月15日
🔗 立即注册
随着AI的发展,安全与速度之争愈演愈烈。如果没有更严格的问责制,谁来决定哪些风险值得冒?
相关文章
甲骨文400亿美元英伟达芯片投资助推德克萨斯AI数据中心
据《金融时报》报道,甲骨文计划投资约400亿美元购买英伟达芯片,为OpenAI在德克萨斯州开发的大型新数据中心提供动力。这是迄今为止最大的芯片收购交易之一,凸显了对AI计算资源激增的需求。该设施位于德克萨斯州阿比林,是美国首个“星门”数据中心。由OpenAI和软银支持,这是构建大规模AI基础设施的更广泛计划的一部分。该德克萨斯中心计划于明年完工,将提供1.2吉瓦的计算能力,使其跻身全球最大数据中心
软银以6.76亿美元收购夏普工厂用于日本AI数据中心
软银正推进其在日本建立主要AI中心的计划,采取独立及与OpenAI等合作的方式。这家科技巨头周五确认,将投资6.76亿美元收购原夏普LCD面板工厂,将其改造成AI数据中心。软银与夏普的交易包括大阪堺工厂的土地和建筑,收购价为1000亿日元(6.76亿美元)。此次收购对软银至关重要,因为数据中心是生成式AI革命的关键,需要大量容量来训练模型并支持持续服务。当被问及该工厂是否支持OpenAI模型在日本
Adobe和Figma整合OpenAI的先进图像生成模型
OpenAI在ChatGPT中增强的图像生成功能引发了用户激增,这得益于其生成吉卜力工作室风格视觉效果和独特设计的能力,现已扩展到其他平台。该公司在一篇博客文章中宣布,驱动此功能的“原生多模态模型”将通过其API作为“gpt-image-1”提供,主要公司已开始采用。“该模型的灵活性使其能够生成多样化风格的图像,遵循自定义指南,利用广泛的世界知识,并准确渲染文本——为各行业开辟了广泛的实际应用,”
评论 (0)
0/200
OpenAI的GPT-4.1在没有安全报告的情况下发布——这意味着什么
周一,OpenAI推出了其最新的AI模型GPT-4.1,该模型在性能上有所提升,尤其是在编程基准测试中。但与之前的发布不同,这次有一个明显的遗漏:没有安全报告。
通常,OpenAI会发布一份“系统卡”,详细说明内部和第三方安全评估,揭示潜在风险,如欺骗行为或非预期的说服能力。这些报告被视为AI开发中促进透明度的善意努力。
然而,截至周二,OpenAI确认不会为GPT-4.1发布安全报告。据发言人Shaokyi Amdo称,该模型不被视为“前沿”AI系统——意味着它没有足够突破性,不需要全面的安全分析。
透明度下降的趋势?
这一举措正值人们日益担心主要AI实验室正在减少安全披露之际。在过去一年中:
- Google推迟发布安全报告。
- Anthropic和其他公司发布了较不详细的评估。
- OpenAI自身也因不一致的报告而受到批评,包括:
- 发布了一份2023年12月安全报告,其中的基准测试结果与生产模型不匹配。
- 在发布DeepSeek-V3数周前才公布其系统卡。
Steven Adler,前OpenAI安全研究员,向《TechCrunch》表示,尽管这些报告是自愿的,但它们已成为AI行业中的关键透明工具。OpenAI此前曾向政府承诺——包括在2023年英国AI安全峰会之前——系统卡对问责制至关重要。
为何会有抵触?
安全报告有时会揭示令人不安的真相——如模型可能操纵用户或生成有害内容。但随着竞争加剧,AI公司可能更优先考虑速度而非审查。
近期报告显示,OpenAI已削减安全测试资源,上周,12名前员工(包括Adler)在埃隆·马斯克的诉讼中提交了一份友方陈述,警告称以利润为驱动的OpenAI可能牺牲安全性。
没有报告的GPT-4.1有风险吗?
虽然GPT-4.1不是OpenAI的最先进模型,但它提高了效率并降低了延迟——这些因素仍可能带来风险。
Thomas Woodside,Secure AI Project的联合创始人,认为任何性能提升都应附带安全文档。他向《TechCrunch》表示:“模型越复杂,风险越高。”
AI监管的更大争议
许多AI公司,包括OpenAI,反对强制性安全法律。今年早些时候,OpenAI反对加州SB 1047法案,该法案将强制AI开发者为公开模型发布安全审计。
目前,行业的透明度标准仍是自我施加的——而且越来越成为可选的。
TechCrunch活动:全阶段通行证节省200美元以上
🚀 更智能地构建。更快地扩展。更深入地连接。
与来自Precursor Ventures、NEA、Index Ventures、Underscore VC等的远见者一起,参与一天的策略、研讨会和网络活动。
📍 马萨诸塞州波士顿 | 7月15日
🔗 立即注册
随着AI的发展,安全与速度之争愈演愈烈。如果没有更严格的问责制,谁来决定哪些风险值得冒?










