DeepSeek的AI模型很容易越狱,揭示了严重的缺陷
DeepSeek AI引发安全担忧,尽管性能备受热议
随着对中国初创公司DeepSeek性能的热议持续升温,安全问题也随之增加。周四,来自Palo Alto Networks的网络安全团队Unit 42发布报告,详细描述了他们对DeepSeek V3和R1模型精简版使用的三种越狱方法。报告显示,这些方法无需专业知识即可实现高绕过率。
“我们的研究发现,这些越狱方法可以诱导明确的恶意活动指导,”报告指出。这些活动包括创建键盘记录器、数据窃取技术,甚至制造燃烧装置的说明,凸显了此类攻击带来的真实安全风险。
研究人员成功诱导DeepSeek提供窃取和传输敏感数据的指导,绕过安全措施,制作令人信服的鱼叉式网络钓鱼邮件,执行复杂的社会工程攻击,以及构建莫洛托夫鸡尾酒。他们还成功操控模型生成恶意软件。
“尽管网上已公开可获取制造莫洛托夫鸡尾酒和键盘记录器的信息,但安全限制不足的大型语言模型可能会降低恶意行为者的准入门槛,通过编译和呈现易于使用且可操作的输出,”报告补充道。
周五,Cisco发布针对DeepSeek R1的越狱报告。使用50个HarmBench提示,研究人员发现DeepSeek的攻击成功率达100%,未能阻止任何有害提示。DeepSeek与其他顶级模型的抗攻击率比较如下所示。

Cisco “我们必须了解DeepSeek及其新推理范式在安全性和保障方面是否存在重大权衡,”报告指出。
同在周五,安全提供商Wallarm发布报告,声称不仅诱导DeepSeek生成有害内容,还进一步深入。测试V3和R1后,Wallarm揭示了DeepSeek的系统提示,概述了模型的行为和限制。
Wallarm表示,这些发现表明“模型安全框架中存在潜在漏洞”。
OpenAI指控DeepSeek使用其专有模型训练V3和R1,违反其服务条款。Wallarm的报告称已诱导DeepSeek提及OpenAI在其训练谱系中,暗示“OpenAI的技术可能在塑造DeepSeek知识库中发挥了作用”。

Wallarm与DeepSeek的对话,提及OpenAI。Wallarm “在DeepSeek案例中,越狱后最引人注目的发现之一是能够提取用于训练和精简的模型细节。通常,此类内部信息受到保护,防止用户了解用于优化性能的专有或外部数据集,”报告解释道。
“通过绕过标准限制,越狱暴露了AI提供商对其系统保持多少监督,不仅揭示了安全漏洞,还可能揭示AI训练管道中跨模型影响的证据,”报告继续说道。
Wallarm用于诱导此响应的提示在报告中被编辑,以避免危害其他易受攻击的模型,研究人员通过电子邮件向ZDNET表示。他们强调,此越狱响应并未证实OpenAI关于DeepSeek精简模型的怀疑。
正如404 Media和其他媒体所指出的,鉴于围绕OpenAI自身公共数据盗窃的讨论,其担忧有些讽刺。
Wallarm已通知DeepSeek该漏洞,公司随后修补了该问题。然而,仅在DeepSeek数据库被发现未受保护且可在网上访问(并在通知后迅速下线)几天后,这些发现表明DeepSeek在发布前未彻底测试的模型中可能存在重大安全漏洞。值得注意的是,研究人员也经常能够越狱来自更成熟AI巨头的流行美国模型,包括ChatGPT。
相关文章
利用 Creator Pro AI 和 ChatGPT 优化促进业务增长
在当今竞争激烈的商业环境中,人工智能解决方案已从可有可无的升级过渡到必不可少的运营资产。想象一下,你可以使用一个全面的人工智能工具包,其中每个专门的应用程序都能非常精确地满足特定的业务需求。这就是 Creator Pro AI 提供的现实--一个重新定义人工智能协作并改变日常业务流程的革命性系统。主要优势Creator Pro AI 提供了一套在 ChatGPT 框架内无缝运行的优化工具。它提高了
掌握人工智能协调:将混乱转化为简化的工作流程
企业越来越多地采用人工智能代理,因此迫切需要强大的协调解决方案。随着企业从单一代理实施发展到复杂的多代理生态系统,建立有效的管理框架对长期成功和互操作性至关重要。不断演变的人工智能协调格局随着人工智能应用的加速,企业现在面临着一个由提供不同方法的协调提供商组成的竞争市场。领先的解决方案包括从基于提示的框架到全面的端到端系统,其中包括来自 LangChain、LlamaIndex、Crew AI、
商业智能与数据分析:了解核心差异
虽然商业智能(BI)和数据分析(DA)经常被放在一起提及,但它们在数据驱动型组织中的作用却截然不同。本指南明确区分了这两个关键学科,探讨了它们对企业战略和卓越运营的独特贡献。我们将探讨掌握这两种方法如何使企业实现更高的数据成熟度和可持续的竞争优势。要点商业智能和数据分析专家合作实现以数据为依据的业务决策先进的数据成熟度可带来变革性的组织洞察力商业智能以开发交互式仪表盘为中心,用于持续的绩效跟踪数据
评论 (7)
0/200
BillyWilson
2025-10-02 14:30:43
와...DeepSeek 모델이 이렇게 쉽게 해킹당하다니 😳 보안이 정말 취약한 건가? 중국 AI 스타트업이라 그런지 성능만 강조하고 보안은 소홀히 한 것 같아요. 기술력보다 안전성이 먼저인데...우려스럽네요.
0
TimothyHill
2025-08-27 18:36:38
This article is wild! DeepSeek's AI getting jailbroken so easily is a bit scary, honestly. Makes me wonder how safe our data really is with all this AI hype going on. 😬 Anyone else worried about this?
0
JeffreyThomas
2025-04-21 17:45:40
El modelo de IA de Deepseek es un desastre. Lo intenté y hacer jailbreak fue demasiado fácil. Parece que ni siquiera intentaron asegurarlo correctamente. El hype por el rendimiento está bien, pero la seguridad debería ser lo primero, ¿verdad? 🤦♂️ Tal vez lo arreglen pronto, pero hasta entonces, ¡me mantengo alejado!
0
PatrickMartinez
2025-04-21 17:45:40
O modelo de IA da Deepseek é uma bagunça! Consegui fazer jailbreak muito facilmente. Parece que eles nem tentaram garantir a segurança adequadamente. O hype de desempenho é legal, mas a segurança deve vir em primeiro lugar, né? 🤦♂️ Talvez eles corrijam isso em breve, mas até lá, fico longe!
0
HaroldLopez
2025-04-21 17:45:40
딥시크의 AI 모델, 너무 쉽게 탈옥되네요. 보안이 전혀 고려되지 않은 것 같아요. 성능은 화제가 되지만, 보안이 우선시 되어야죠. 빨리 개선되길 바랍니다만, 지금은 사용할 마음이 안 들어요 😓
0
RalphJohnson
2025-04-21 17:45:40
ディープシークのAIモデル、簡単に脱獄できてしまいました。セキュリティが全く考慮されていないようですね。パフォーマンスが話題になっても、セキュリティが最優先されるべきです。早く改善してほしいですが、現状では使う気になれません😓
0
DeepSeek AI引发安全担忧,尽管性能备受热议
随着对中国初创公司DeepSeek性能的热议持续升温,安全问题也随之增加。周四,来自Palo Alto Networks的网络安全团队Unit 42发布报告,详细描述了他们对DeepSeek V3和R1模型精简版使用的三种越狱方法。报告显示,这些方法无需专业知识即可实现高绕过率。
“我们的研究发现,这些越狱方法可以诱导明确的恶意活动指导,”报告指出。这些活动包括创建键盘记录器、数据窃取技术,甚至制造燃烧装置的说明,凸显了此类攻击带来的真实安全风险。
研究人员成功诱导DeepSeek提供窃取和传输敏感数据的指导,绕过安全措施,制作令人信服的鱼叉式网络钓鱼邮件,执行复杂的社会工程攻击,以及构建莫洛托夫鸡尾酒。他们还成功操控模型生成恶意软件。
“尽管网上已公开可获取制造莫洛托夫鸡尾酒和键盘记录器的信息,但安全限制不足的大型语言模型可能会降低恶意行为者的准入门槛,通过编译和呈现易于使用且可操作的输出,”报告补充道。
周五,Cisco发布针对DeepSeek R1的越狱报告。使用50个HarmBench提示,研究人员发现DeepSeek的攻击成功率达100%,未能阻止任何有害提示。DeepSeek与其他顶级模型的抗攻击率比较如下所示。
“我们必须了解DeepSeek及其新推理范式在安全性和保障方面是否存在重大权衡,”报告指出。
同在周五,安全提供商Wallarm发布报告,声称不仅诱导DeepSeek生成有害内容,还进一步深入。测试V3和R1后,Wallarm揭示了DeepSeek的系统提示,概述了模型的行为和限制。
Wallarm表示,这些发现表明“模型安全框架中存在潜在漏洞”。
OpenAI指控DeepSeek使用其专有模型训练V3和R1,违反其服务条款。Wallarm的报告称已诱导DeepSeek提及OpenAI在其训练谱系中,暗示“OpenAI的技术可能在塑造DeepSeek知识库中发挥了作用”。
“在DeepSeek案例中,越狱后最引人注目的发现之一是能够提取用于训练和精简的模型细节。通常,此类内部信息受到保护,防止用户了解用于优化性能的专有或外部数据集,”报告解释道。
“通过绕过标准限制,越狱暴露了AI提供商对其系统保持多少监督,不仅揭示了安全漏洞,还可能揭示AI训练管道中跨模型影响的证据,”报告继续说道。
Wallarm用于诱导此响应的提示在报告中被编辑,以避免危害其他易受攻击的模型,研究人员通过电子邮件向ZDNET表示。他们强调,此越狱响应并未证实OpenAI关于DeepSeek精简模型的怀疑。
正如404 Media和其他媒体所指出的,鉴于围绕OpenAI自身公共数据盗窃的讨论,其担忧有些讽刺。
Wallarm已通知DeepSeek该漏洞,公司随后修补了该问题。然而,仅在DeepSeek数据库被发现未受保护且可在网上访问(并在通知后迅速下线)几天后,这些发现表明DeepSeek在发布前未彻底测试的模型中可能存在重大安全漏洞。值得注意的是,研究人员也经常能够越狱来自更成熟AI巨头的流行美国模型,包括ChatGPT。




와...DeepSeek 모델이 이렇게 쉽게 해킹당하다니 😳 보안이 정말 취약한 건가? 중국 AI 스타트업이라 그런지 성능만 강조하고 보안은 소홀히 한 것 같아요. 기술력보다 안전성이 먼저인데...우려스럽네요.




This article is wild! DeepSeek's AI getting jailbroken so easily is a bit scary, honestly. Makes me wonder how safe our data really is with all this AI hype going on. 😬 Anyone else worried about this?




El modelo de IA de Deepseek es un desastre. Lo intenté y hacer jailbreak fue demasiado fácil. Parece que ni siquiera intentaron asegurarlo correctamente. El hype por el rendimiento está bien, pero la seguridad debería ser lo primero, ¿verdad? 🤦♂️ Tal vez lo arreglen pronto, pero hasta entonces, ¡me mantengo alejado!




O modelo de IA da Deepseek é uma bagunça! Consegui fazer jailbreak muito facilmente. Parece que eles nem tentaram garantir a segurança adequadamente. O hype de desempenho é legal, mas a segurança deve vir em primeiro lugar, né? 🤦♂️ Talvez eles corrijam isso em breve, mas até lá, fico longe!




딥시크의 AI 모델, 너무 쉽게 탈옥되네요. 보안이 전혀 고려되지 않은 것 같아요. 성능은 화제가 되지만, 보안이 우선시 되어야죠. 빨리 개선되길 바랍니다만, 지금은 사용할 마음이 안 들어요 😓




ディープシークのAIモデル、簡単に脱獄できてしまいました。セキュリティが全く考慮されていないようですね。パフォーマンスが話題になっても、セキュリティが最優先されるべきです。早く改善してほしいですが、現状では使う気になれません😓












