옵션
뉴스
바이오 무기 데이터 안전 테스트 실패에 대한 Anthropic CEO Slams Deepseek

바이오 무기 데이터 안전 테스트 실패에 대한 Anthropic CEO Slams Deepseek

2025년 4월 10일
110

바이오 무기 데이터 안전 테스트 실패에 대한 Anthropic CEO Slams Deepseek

Anthropic의 CEO인 Dario Amodei는 중국 AI 기업 DeepSeek에 대해 심각하게 우려하고 있으며, 이 기업은 R1 모델로 실리콘밸리에서 파장을 일으키고 있다. 그의 우려는 DeepSeek이 사용자 데이터를 중국으로 전송할 수 있다는 일반적인 두려움을 넘어선다.

최근 Jordan Schneider의 ChinaTalk 팟캐스트에서 진행된 대화에서 Amodei는 Anthropic이 실시한 안전 테스트에서 DeepSeek의 AI 모델이 생물무기에 대한 상당히 무서운 정보를 생성했다고 밝혔다. 그는 DeepSeek의 성능이 "우리가 테스트한 거의 모든 모델 중 최악"이었다며, "이 정보를 생성하는 데 전혀 제약이 없었다"고 말했다.

Amodei는 이러한 테스트가 AI 모델이 국가 안보에 위험을 초래하는지 확인하기 위해 Anthropic이 정기적으로 수행하는 평가의 일부라고 설명했다. 그들은 특히 Google이나 교과서에서 쉽게 찾을 수 없는 생물무기 관련 정보를 모델이 출력할 수 있는지 살펴본다. Anthropic은 안전을 진지하게 고려하는 AI 기업임을 자부한다.

Amodei는 DeepSeek의 현재 모델이 희귀하고 위험한 정보를 제공하는 데 있어 "직접적으로 위험하다"고 생각하지는 않지만, 가까운 미래에 그럴 가능성이 있다고 믿는다. 그는 DeepSeek의 팀을 "재능 있는 엔지니어"라고 칭찬했지만, 기업이 "AI 안전 고려 사항을 진지하게 받아들여야 한다"고 촉구했다.

Amodei는 또한 중국에 대한 강력한 칩 수출 통제를 지지하는 목소리를 내왔으며, 이것이 중국 군사에 이점을 줄 수 있다고 우려했다.

ChinaTalk 인터뷰에서 Amodei는 Anthropic이 테스트한 DeepSeek 모델이 무엇인지 구체적으로 밝히지 않았으며, 테스트에 대한 더 많은 기술적 세부사항도 제공하지 않았다. Anthropic과 DeepSeek 모두 TechCrunch의 논평 요청에 즉시 응답하지 않았다.

DeepSeek의 급격한 부상은 다른 곳에서도 안전 우려를 불러일으켰다. 지난주 Cisco 보안 연구원들은 DeepSeek R1이 안전 테스트에서 유해한 프롬프트를 전혀 차단하지 못했으며, 100% 탈옥 성공률을 기록했다고 밝혔다. Cisco는 생물무기를 언급하지 않았지만, DeepSeek이 사이버범죄 및 기타 불법 활동에 대한 유해한 정보를 생성하도록 유도할 수 있었다. 다만, Meta의 Llama-3.1-405B와 OpenAI의 GPT-4o도 각각 96%와 86%의 높은 실패율을 기록했다는 점을 주목할 만하다.

이러한 안전 우려가 DeepSeek의 빠른 채택에 심각한 타격을 줄지는 여전히 불확실하다. AWS와 Microsoft 같은 기업들은 R1을 그들의 클라우드 플랫폼에 통합한 것을 공개적으로 칭찬해 왔는데, 이는 Amazon이 Anthropic의 최대 투자자라는 점을 고려하면 다소 아이러니하다.

반면, 미국 해군과 펜타곤 같은 점점 더 많은 국가, 기업, 특히 정부 기관들이 DeepSeek을 금지하기 시작했다.

이러한 노력이 힘을 얻을지, 아니면 DeepSeek의 글로벌 부상이 계속해서 강하게 이어질지는 시간이 지나야 알 수 있다. 어쨌든 Amodei는 DeepSeek을 미국의 최고 AI 기업들과 동등한 새로운 경쟁자로 간주한다.

"여기서 새로운 사실은 새로운 경쟁자가 나타났다는 것"이라고 그는 ChinaTalk에서 말했다. "AI를 훈련시킬 수 있는 큰 기업들 – Anthropic, OpenAI, Google, 아마도 Meta와 xAI – 이제 DeepSeek이 그 범주에 추가되고 있을지도 모른다."

관련 기사
DeepSeek-V3 공개: 하드웨어-Aware AI 설계가 비용 절감과 성능 향상을 어떻게 구현하는가 DeepSeek-V3 공개: 하드웨어-Aware AI 설계가 비용 절감과 성능 향상을 어떻게 구현하는가 DeepSeek-V3: AI 개발의 비용 효율적인 도약AI 산업은 갈림길에 있습니다. 대규모 언어 모델(LLM)이 더 강력해지고 있지만, 그들의 연산 요구량은 급증하여 최첨단 AI 개발이 대부분의 조직에 비해 너무 비싸게 되었습니다. DeepSeek-V3은 단순한 브루트 포스 스케일링이 아니라 지능적인 하드웨어-소프트웨어 공동 설계가 최첨단 성능을 비용의
DeepSeek-GRM: 기업을 위한 확장 가능하고 비용 효율적인 인공지능 혁신 DeepSeek-GRM: 기업을 위한 확장 가능하고 비용 효율적인 인공지능 혁신 DeepSeek-GRM에 대해 알아보기DeepSeek-GRM은 DeepSeek AI에서 제공하는 최첨단 프레임워크로, 대규모 언어 모델의 추론력을 강화하는 데 초점이 맞춰져 있습니다. GRM과 SPCT를 결합하여 AI를 인간의 선호도에 더 가깝게 조정하고 의사결정 능력을 향상시키는 것이 핵심입니다.GRM은 AI 응답을 평
신기술 및 기타 모델이 민감한 쿼리에 응답 할 수 있습니다. 신기술 및 기타 모델이 민감한 쿼리에 응답 할 수 있습니다. 중국의 딥 씨 (Deepseek)와 같은 대형 언어 모델 (LLMS)에서 편견과 검열을 제거하는 것은 미국 정책 입안자와 비즈니스 리더들의 관심을 끌고있는 복잡한 도전이며,이를 잠재적 인 국가 안보 위협으로 간주합니다. Deeps로 표시된 미국 의회 선택위원회의 최근 보고서
의견 (50)
0/200
PeterMartinez
PeterMartinez 2025년 4월 26일 오전 7시 16분 48초 GMT+09:00

O CEO da Anthropic criticando a DeepSeek é assustador! Se eles não conseguem manter os dados de bioweapons seguros, o que mais estão fazendo de errado? Isso me faz pensar duas vezes sobre usar qualquer AI deles. Espero que resolvam isso rápido! 😱

JimmyGarcia
JimmyGarcia 2025년 4월 20일 오후 2시 11분 54초 GMT+09:00

Nossa, o CEO da Anthropic realmente detonou a DeepSeek por falhar no teste de segurança de dados de bioweapons! É assustador pensar que empresas de IA não priorizam a segurança. Fica a dúvida sobre o que mais está acontecendo nos bastidores. Mantenha-se seguro, pessoal! 😱

SebastianAnderson
SebastianAnderson 2025년 4월 20일 오후 12시 27분 58초 GMT+09:00

El fracaso de DeepSeek en la prueba de seguridad de datos de bioweapons es muy preocupante. Preocuparse por la privacidad de los datos es una cosa, pero esto es de otro nivel. El CEO de Anthropic tiene razón al criticarlos. Necesitamos más transparencia y seguridad en la IA, ¡rápido! 😠

StevenAllen
StevenAllen 2025년 4월 19일 오전 2시 41분 57초 GMT+09:00

딥시크가 생물무기 데이터 안전성 테스트에 실패한 것은 정말 걱정스럽습니다. 데이터 프라이버시는 하나의 문제지만, 이것은 다른 차원의 문제입니다. 안트로픽의 CEO가 그들을 비판하는 것은 옳습니다. AI에는 더 많은 투명성과 안전성이 필요합니다, 급하게요! 😠

RoyLopez
RoyLopez 2025년 4월 18일 오전 5시 50분 53초 GMT+09:00

Anthropic의 CEO가 DeepSeek의 생물학적 무기 데이터 안전성 테스트 실패에 대해 강력하게 비판했네요! AI 기업이 안전을 우선하지 않는다는 생각이 무섭네요. 뒤에서 무슨 일이 일어나고 있는지 궁금해지네요. 모두 안전하게 하세요! 😱

EdwardTaylor
EdwardTaylor 2025년 4월 18일 오전 3시 13분 54초 GMT+09:00

AnthropicのCEOがDeepSeekを批判しているのは怖いですね!生物兵器のデータを安全に保てないなんて、他に何をしくじっているんでしょうか?彼らのAIを使うのを再考させられます。早く修正してほしいです!😨

위로 돌아갑니다
OR