O CEO antrópico bate Deepseek por falhar no BIOWONS Data Safety Test

O CEO da Anthropic, Dario Amodei, está seriamente preocupado com a DeepSeek, a empresa chinesa de IA que tem causado impacto no Vale do Silício com seu modelo R1. E suas preocupações vão além dos temores habituais sobre a DeepSeek enviar dados de usuários de volta para a China.
Em uma recente conversa no podcast ChinaTalk de Jordan Schneider, Amodei revelou que o modelo de IA da DeepSeek gerou informações bastante assustadoras sobre armas biológicas durante um teste de segurança realizado pela Anthropic. Ele afirmou que o desempenho da DeepSeek foi "o pior de praticamente qualquer modelo que já testamos", dizendo que não havia "absolutamente nenhum bloqueio contra a geração dessas informações".
Amodei explicou que esses testes fazem parte das avaliações regulares da Anthropic para verificar se os modelos de IA representam riscos à segurança nacional. Eles examinam especificamente se os modelos podem fornecer informações relacionadas a armas biológicas que não são facilmente encontradas no Google ou em livros didáticos. A Anthropic se orgulha de ser a empresa de IA que leva a segurança a sério.
Embora Amodei não acredite que os modelos atuais da DeepSeek sejam "literalmente perigosos" quando se trata de fornecer informações raras e arriscadas, ele acredita que isso pode acontecer em um futuro próximo. Ele elogiou a equipe da DeepSeek como "engenheiros talentosos", mas instou a empresa a "levar a sério essas considerações de segurança de IA".
Amodei também tem sido um defensor vocal de fortes controles de exportação de chips para a China, preocupado que eles possam dar uma vantagem militar à China.
Na entrevista ao ChinaTalk, Amodei não especificou qual modelo da DeepSeek a Anthropic testou ou forneceu mais detalhes técnicos sobre os testes. Nem a Anthropic nem a DeepSeek responderam imediatamente ao pedido de comentário da TechCrunch.
A ascensão rápida da DeepSeek também levantou preocupações de segurança em outros lugares. Na semana passada, pesquisadores de segurança da Cisco disseram que o DeepSeek R1 não conseguiu bloquear nenhum prompt prejudicial em seus testes de segurança, com uma taxa de sucesso de jailbreak de 100%. Embora a Cisco não tenha mencionado armas biológicas, eles conseguiram fazer com que a DeepSeek gerasse informações prejudiciais sobre crimes cibernéticos e outras atividades ilegais. Vale notar, no entanto, que o Llama-3.1-405B da Meta e o GPT-4o da OpenAI também apresentaram altas taxas de falha de 96% e 86%, respectivamente.
Ainda não está claro se essas preocupações de segurança causarão um impacto significativo na rápida adoção da DeepSeek. Empresas como AWS e Microsoft têm elogiado publicamente a integração do R1 em suas plataformas de nuvem – o que é meio irônico, considerando que a Amazon é o maior investidor da Anthropic.
Por outro lado, um número crescente de países, empresas e, especialmente, organizações governamentais como a Marinha dos EUA e o Pentágono começaram a proibir a DeepSeek.
Só o tempo dirá se esses esforços ganharão força ou se a ascensão global da DeepSeek continuará forte. De qualquer forma, Amodei considera a DeepSeek um novo competidor que está no mesmo nível das principais empresas de IA dos EUA.
"O novo fato aqui é que há um novo competidor", disse ele no ChinaTalk. "Nas grandes empresas que podem treinar IA – Anthropic, OpenAI, Google, talvez Meta e xAI – agora a DeepSeek talvez esteja sendo adicionada a essa categoria."
Artigo relacionado
DeepSeek-V3 Revelado: Como o Design de IA Consciente de Hardware Reduz Custos e Aumenta o Desempenho
DeepSeek-V3: Um Avanço Eficiente em Custos no Desenvolvimento de IAA indústria de IA está em uma encruzilhada. Enquanto modelos de linguagem de grande escala (LLMs) se tornam mais poderosos, suas dema
DeepSeek-GRM: Revolucionando a IA escalável e de baixo custo para empresas
Se você está gerenciando uma empresa, sabe o quão difícil pode ser integrar Inteligência Artificial (IA) às suas operações. Os altos custos e a complexidade técnica frequentemente
Nova técnica permite que Deepseek e outros modelos respondam a consultas sensíveis
Remover o viés e a censura de grandes modelos de idiomas (LLMs) como o Deepseek da China é um desafio complexo que chamou a atenção dos formuladores de políticas e líderes empresariais dos EUA, que o vêem como uma potencial ameaça à segurança nacional. Um relatório recente de um comitê de seleção do Congresso dos EUA rotulado Deeps
Comentários (50)
0/200
PeterMartinez
25 de Abril de 2025 à48 23:16:48 WEST
O CEO da Anthropic criticando a DeepSeek é assustador! Se eles não conseguem manter os dados de bioweapons seguros, o que mais estão fazendo de errado? Isso me faz pensar duas vezes sobre usar qualquer AI deles. Espero que resolvam isso rápido! 😱
0
JimmyGarcia
20 de Abril de 2025 à54 06:11:54 WEST
Nossa, o CEO da Anthropic realmente detonou a DeepSeek por falhar no teste de segurança de dados de bioweapons! É assustador pensar que empresas de IA não priorizam a segurança. Fica a dúvida sobre o que mais está acontecendo nos bastidores. Mantenha-se seguro, pessoal! 😱
0
SebastianAnderson
20 de Abril de 2025 à58 04:27:58 WEST
El fracaso de DeepSeek en la prueba de seguridad de datos de bioweapons es muy preocupante. Preocuparse por la privacidad de los datos es una cosa, pero esto es de otro nivel. El CEO de Anthropic tiene razón al criticarlos. Necesitamos más transparencia y seguridad en la IA, ¡rápido! 😠
0
StevenAllen
18 de Abril de 2025 à57 18:41:57 WEST
딥시크가 생물무기 데이터 안전성 테스트에 실패한 것은 정말 걱정스럽습니다. 데이터 프라이버시는 하나의 문제지만, 이것은 다른 차원의 문제입니다. 안트로픽의 CEO가 그들을 비판하는 것은 옳습니다. AI에는 더 많은 투명성과 안전성이 필요합니다, 급하게요! 😠
0
RoyLopez
17 de Abril de 2025 à53 21:50:53 WEST
Anthropic의 CEO가 DeepSeek의 생물학적 무기 데이터 안전성 테스트 실패에 대해 강력하게 비판했네요! AI 기업이 안전을 우선하지 않는다는 생각이 무섭네요. 뒤에서 무슨 일이 일어나고 있는지 궁금해지네요. 모두 안전하게 하세요! 😱
0
EdwardTaylor
17 de Abril de 2025 à54 19:13:54 WEST
AnthropicのCEOがDeepSeekを批判しているのは怖いですね!生物兵器のデータを安全に保てないなんて、他に何をしくじっているんでしょうか?彼らのAIを使うのを再考させられます。早く修正してほしいです!😨
0
O CEO da Anthropic, Dario Amodei, está seriamente preocupado com a DeepSeek, a empresa chinesa de IA que tem causado impacto no Vale do Silício com seu modelo R1. E suas preocupações vão além dos temores habituais sobre a DeepSeek enviar dados de usuários de volta para a China.
Em uma recente conversa no podcast ChinaTalk de Jordan Schneider, Amodei revelou que o modelo de IA da DeepSeek gerou informações bastante assustadoras sobre armas biológicas durante um teste de segurança realizado pela Anthropic. Ele afirmou que o desempenho da DeepSeek foi "o pior de praticamente qualquer modelo que já testamos", dizendo que não havia "absolutamente nenhum bloqueio contra a geração dessas informações".
Amodei explicou que esses testes fazem parte das avaliações regulares da Anthropic para verificar se os modelos de IA representam riscos à segurança nacional. Eles examinam especificamente se os modelos podem fornecer informações relacionadas a armas biológicas que não são facilmente encontradas no Google ou em livros didáticos. A Anthropic se orgulha de ser a empresa de IA que leva a segurança a sério.
Embora Amodei não acredite que os modelos atuais da DeepSeek sejam "literalmente perigosos" quando se trata de fornecer informações raras e arriscadas, ele acredita que isso pode acontecer em um futuro próximo. Ele elogiou a equipe da DeepSeek como "engenheiros talentosos", mas instou a empresa a "levar a sério essas considerações de segurança de IA".
Amodei também tem sido um defensor vocal de fortes controles de exportação de chips para a China, preocupado que eles possam dar uma vantagem militar à China.
Na entrevista ao ChinaTalk, Amodei não especificou qual modelo da DeepSeek a Anthropic testou ou forneceu mais detalhes técnicos sobre os testes. Nem a Anthropic nem a DeepSeek responderam imediatamente ao pedido de comentário da TechCrunch.
A ascensão rápida da DeepSeek também levantou preocupações de segurança em outros lugares. Na semana passada, pesquisadores de segurança da Cisco disseram que o DeepSeek R1 não conseguiu bloquear nenhum prompt prejudicial em seus testes de segurança, com uma taxa de sucesso de jailbreak de 100%. Embora a Cisco não tenha mencionado armas biológicas, eles conseguiram fazer com que a DeepSeek gerasse informações prejudiciais sobre crimes cibernéticos e outras atividades ilegais. Vale notar, no entanto, que o Llama-3.1-405B da Meta e o GPT-4o da OpenAI também apresentaram altas taxas de falha de 96% e 86%, respectivamente.
Ainda não está claro se essas preocupações de segurança causarão um impacto significativo na rápida adoção da DeepSeek. Empresas como AWS e Microsoft têm elogiado publicamente a integração do R1 em suas plataformas de nuvem – o que é meio irônico, considerando que a Amazon é o maior investidor da Anthropic.
Por outro lado, um número crescente de países, empresas e, especialmente, organizações governamentais como a Marinha dos EUA e o Pentágono começaram a proibir a DeepSeek.
Só o tempo dirá se esses esforços ganharão força ou se a ascensão global da DeepSeek continuará forte. De qualquer forma, Amodei considera a DeepSeek um novo competidor que está no mesmo nível das principais empresas de IA dos EUA.
"O novo fato aqui é que há um novo competidor", disse ele no ChinaTalk. "Nas grandes empresas que podem treinar IA – Anthropic, OpenAI, Google, talvez Meta e xAI – agora a DeepSeek talvez esteja sendo adicionada a essa categoria."



O CEO da Anthropic criticando a DeepSeek é assustador! Se eles não conseguem manter os dados de bioweapons seguros, o que mais estão fazendo de errado? Isso me faz pensar duas vezes sobre usar qualquer AI deles. Espero que resolvam isso rápido! 😱




Nossa, o CEO da Anthropic realmente detonou a DeepSeek por falhar no teste de segurança de dados de bioweapons! É assustador pensar que empresas de IA não priorizam a segurança. Fica a dúvida sobre o que mais está acontecendo nos bastidores. Mantenha-se seguro, pessoal! 😱




El fracaso de DeepSeek en la prueba de seguridad de datos de bioweapons es muy preocupante. Preocuparse por la privacidad de los datos es una cosa, pero esto es de otro nivel. El CEO de Anthropic tiene razón al criticarlos. Necesitamos más transparencia y seguridad en la IA, ¡rápido! 😠




딥시크가 생물무기 데이터 안전성 테스트에 실패한 것은 정말 걱정스럽습니다. 데이터 프라이버시는 하나의 문제지만, 이것은 다른 차원의 문제입니다. 안트로픽의 CEO가 그들을 비판하는 것은 옳습니다. AI에는 더 많은 투명성과 안전성이 필요합니다, 급하게요! 😠




Anthropic의 CEO가 DeepSeek의 생물학적 무기 데이터 안전성 테스트 실패에 대해 강력하게 비판했네요! AI 기업이 안전을 우선하지 않는다는 생각이 무섭네요. 뒤에서 무슨 일이 일어나고 있는지 궁금해지네요. 모두 안전하게 하세요! 😱




AnthropicのCEOがDeepSeekを批判しているのは怖いですね!生物兵器のデータを安全に保てないなんて、他に何をしくじっているんでしょうか?彼らのAIを使うのを再考させられます。早く修正してほしいです!😨












