Meta 增强人工智能安全,推出高级 Llama 工具
Meta 发布了新的 Llama 安全工具,以加强人工智能开发并防御新兴威胁。
这些升级的 Llama 人工智能模型安全工具与 Meta 的新资源相结合,旨在增强网络安全团队利用人工智能进行防御的能力,提升所有人工智能利益相关者的安全性。
使用 Llama 模型的开发者现在可以直接在 Meta 的 Llama Protections 页面、Hugging Face 和 GitHub 上访问增强的工具。
Llama Guard 4 引入了多模态功能,支持对文本和图像的安全执法,这对日益视觉化的人工智能应用至关重要。它已集成到 Meta 的新 Llama API 中,目前处于有限预览阶段。
LlamaFirewall 是一个新增的安全中心,用于人工智能系统,协调安全模型并与 Meta 的保护工具集成,以应对提示注入攻击、不安全代码生成或恶意人工智能插件行为等风险。
Meta 还优化了 Llama Prompt Guard。更新后的 Prompt Guard 2 (86M) 模型擅长检测越狱尝试和提示注入。此外,紧凑型 Prompt Guard 2 22M 将延迟和计算成本降低了高达 75%,为注重成本的开发者保持强大的检测能力。
除了开发者,Meta 还为网络安全专业人士提供人工智能驱动的工具,以应对网络攻击,满足对高级防御的日益增长的需求。
CyberSec Eval 4 基准套件已全面升级,为组织提供评估人工智能在安全任务中表现的工具。它包括两个新功能:
- CyberSOC Eval:与 CrowdStrike 合作开发,此框架评估人工智能在真实安全运营中心环境中的有效性,重点关注威胁检测和响应。它即将推出。
- AutoPatchBench:测试 Llama 和其他人工智能模型在漏洞利用前识别和修补代码漏洞的能力。
Meta 的 Llama Defenders 计划为合作伙伴和开发者提供定制的人工智能安全解决方案,结合开源和早期访问工具,应对多样化挑战。
Meta 分享了其内部自动化敏感文档分类工具,该工具为敏感文档打标签,以防止在 RAG 设置等人工智能系统中未经授权的泄露或滥用。
为应对人工智能生成的音频诈骗,Meta 与 ZenDesk、Bell Canada 和 AT&T 等合作伙伴分享了 Llama Generated Audio Detector 和 Llama Audio Watermark Detector,以识别钓鱼或欺诈尝试中的欺诈性人工智能语音。
Meta 还预览了 WhatsApp 的私有处理功能,使人工智能能够在不访问消息内容的情况下总结消息或起草回复,优先考虑用户隐私。
Meta 公开分享其威胁模型,鼓励安全研究人员在发布前审查架构,展示对强大隐私措施的承诺。
Meta 的这一套全面的人工智能安全更新增强了其人工智能生态系统,同时为技术社区提供了安全开发和有效防御的工具。
另见:Microsoft 揭露 40 亿美元的人工智能驱动欺诈尝试
在阿姆斯特丹、加利福尼亚和伦敦的 AI & Big Data Expo 上了解更多关于人工智能和大数据的信息,该展会与智能自动化大会、BlockX、数字化转型周和网络安全与云博览会同期举办。
在此探索 TechForge 即将举办的企业技术活动和网络研讨会。
相关文章
微软在新的人工智能合作中托管 xAI 先进的 Grok 3 模型
本月早些时候,我的*记事本*调查新闻报道揭露了微软整合埃隆-马斯克(Elon Musk)的Grok人工智能模型的计划--这一消息现已得到官方证实。今天,在微软年度Build开发者大会上,公司高管透露,Azure AI Foundry将整合马斯克xAI初创公司的Grok-3及其紧凑型同胞兄弟Grok-3 mini。微软不断扩展的人工智能生态系统"微软发言人证实:"这些尖端模型将满足微软客户对我们云服
苹果公司与 Anthropic 合作为 Xcode 开发人工智能编码工具
苹果与 Anthropic 合作开发人工智能编码助手据彭博社报道,苹果公司正在开发一款先进的人工智能编码助手,将直接集成到其旗舰开发环境 Xcode 中。此次与 Anthropic 的合作将采用 Claude Sonnet 模型,协助开发人员编写、完善和测试代码。新工具目前正在进行内部测试,苹果尚未确定公开发布的计划。据报道,该系统采用对话式界面来处理开发人员的请求,并具备 UI 测试和自
微软研究发现更多人工智能代币会增加推理错误
关于 LLM 推理效率的新见解微软的最新研究表明,大型语言模型中的高级推理技术并不能在不同的人工智能系统中产生统一的改进。他们的突破性研究分析了九个领先的基础模型在推理过程中对各种扩展方法的反应。评估推理时间扩展方法研究团队对三种不同的缩放技术实施了严格的测试方法:传统的思维链提示并行答案生成与汇总通过反馈环路进行顺序改进评估推理性能的实验框架八项综合基准提供了跨学科的挑战性测试场景,包括数学、科
评论 (0)
0/200
Meta 发布了新的 Llama 安全工具,以加强人工智能开发并防御新兴威胁。
这些升级的 Llama 人工智能模型安全工具与 Meta 的新资源相结合,旨在增强网络安全团队利用人工智能进行防御的能力,提升所有人工智能利益相关者的安全性。
使用 Llama 模型的开发者现在可以直接在 Meta 的 Llama Protections 页面、Hugging Face 和 GitHub 上访问增强的工具。
Llama Guard 4 引入了多模态功能,支持对文本和图像的安全执法,这对日益视觉化的人工智能应用至关重要。它已集成到 Meta 的新 Llama API 中,目前处于有限预览阶段。
LlamaFirewall 是一个新增的安全中心,用于人工智能系统,协调安全模型并与 Meta 的保护工具集成,以应对提示注入攻击、不安全代码生成或恶意人工智能插件行为等风险。
Meta 还优化了 Llama Prompt Guard。更新后的 Prompt Guard 2 (86M) 模型擅长检测越狱尝试和提示注入。此外,紧凑型 Prompt Guard 2 22M 将延迟和计算成本降低了高达 75%,为注重成本的开发者保持强大的检测能力。
除了开发者,Meta 还为网络安全专业人士提供人工智能驱动的工具,以应对网络攻击,满足对高级防御的日益增长的需求。
CyberSec Eval 4 基准套件已全面升级,为组织提供评估人工智能在安全任务中表现的工具。它包括两个新功能:
- CyberSOC Eval:与 CrowdStrike 合作开发,此框架评估人工智能在真实安全运营中心环境中的有效性,重点关注威胁检测和响应。它即将推出。
- AutoPatchBench:测试 Llama 和其他人工智能模型在漏洞利用前识别和修补代码漏洞的能力。
Meta 的 Llama Defenders 计划为合作伙伴和开发者提供定制的人工智能安全解决方案,结合开源和早期访问工具,应对多样化挑战。
Meta 分享了其内部自动化敏感文档分类工具,该工具为敏感文档打标签,以防止在 RAG 设置等人工智能系统中未经授权的泄露或滥用。
为应对人工智能生成的音频诈骗,Meta 与 ZenDesk、Bell Canada 和 AT&T 等合作伙伴分享了 Llama Generated Audio Detector 和 Llama Audio Watermark Detector,以识别钓鱼或欺诈尝试中的欺诈性人工智能语音。
Meta 还预览了 WhatsApp 的私有处理功能,使人工智能能够在不访问消息内容的情况下总结消息或起草回复,优先考虑用户隐私。
Meta 公开分享其威胁模型,鼓励安全研究人员在发布前审查架构,展示对强大隐私措施的承诺。
Meta 的这一套全面的人工智能安全更新增强了其人工智能生态系统,同时为技术社区提供了安全开发和有效防御的工具。
另见:Microsoft 揭露 40 亿美元的人工智能驱动欺诈尝试
在阿姆斯特丹、加利福尼亚和伦敦的 AI & Big Data Expo 上了解更多关于人工智能和大数据的信息,该展会与智能自动化大会、BlockX、数字化转型周和网络安全与云博览会同期举办。
在此探索 TechForge 即将举办的企业技术活动和网络研讨会。












