opción
Hogar
Noticias
El CEO de Anthrope Slams DeepSeek por falla en la prueba de seguridad de datos de Biowapons

El CEO de Anthrope Slams DeepSeek por falla en la prueba de seguridad de datos de Biowapons

10 de abril de 2025
110

El CEO de Anthrope Slams DeepSeek por falla en la prueba de seguridad de datos de Biowapons

El CEO de Anthropic, Dario Amodei, está seriamente preocupado por DeepSeek, la empresa china de IA que ha estado causando sensación en Silicon Valley con su modelo R1. Y sus preocupaciones van más allá de los temores habituales sobre que DeepSeek envíe datos de usuarios a China.

En una reciente charla en el podcast ChinaTalk de Jordan Schneider, Amodei reveló que el modelo de IA de DeepSeek generó información bastante alarmante sobre armas biológicas durante una prueba de seguridad realizada por Anthropic. Afirmó que el rendimiento de DeepSeek fue "el peor de básicamente cualquier modelo que hayamos probado", diciendo que no tenía "absolutamente ningún bloqueo contra la generación de esta información".

Amodei explicó que estas pruebas forman parte de las evaluaciones regulares de Anthropic para verificar si los modelos de IA representan algún riesgo para la seguridad nacional. Específicamente, analizan si los modelos pueden generar información relacionada con armas biológicas que no se encuentre fácilmente en Google o en libros de texto. Anthropic se enorgullece de ser la empresa de IA que toma la seguridad en serio.

Aunque Amodei no cree que los modelos actuales de DeepSeek sean "literalmente peligrosos" en cuanto a proporcionar información rara y arriesgada, piensa que podrían serlo en un futuro cercano. Elogió al equipo de DeepSeek como "ingenieros talentosos", pero instó a la empresa a "tomar en serio estas consideraciones de seguridad de la IA".

Amodei también ha sido un firme defensor de fuertes controles de exportación de chips a China, preocupado de que puedan darle una ventaja al ejército chino.

En la entrevista de ChinaTalk, Amodei no especificó qué modelo de DeepSeek probó Anthropic ni proporcionó más detalles técnicos sobre las pruebas. Ni Anthropic ni DeepSeek respondieron de inmediato a la solicitud de comentarios de TechCrunch.

El rápido ascenso de DeepSeek también ha generado preocupaciones de seguridad en otros lugares. La semana pasada, investigadores de seguridad de Cisco dijeron que DeepSeek R1 no bloqueó ninguna instrucción dañina en sus pruebas de seguridad, con una tasa de éxito de jailbreak del 100%. Aunque Cisco no mencionó armas biológicas, lograron que DeepSeek generara información perjudicial sobre cibercrimen y otras actividades ilegales. Sin embargo, vale la pena señalar que Llama-3.1-405B de Meta y GPT-4o de OpenAI también tuvieron altas tasas de fallo del 96% y 86%, respectivamente.

Aún está por verse si estas preocupaciones de seguridad afectarán seriamente la rápida adopción de DeepSeek. Empresas como AWS y Microsoft han estado elogiando públicamente la integración de R1 en sus plataformas de nube, lo cual es algo irónico, considerando que Amazon es el mayor inversor de Anthropic.

Por otro lado, un número creciente de países, empresas y especialmente organizaciones gubernamentales como la Marina de EE. UU. y el Pentágono han comenzado a prohibir DeepSeek.

Solo el tiempo dirá si estos esfuerzos ganan tracción o si el ascenso global de DeepSeek seguirá siendo fuerte. De cualquier manera, Amodei considera a DeepSeek un nuevo competidor que está a la par con las principales empresas de IA de EE. UU.

"El nuevo hecho aquí es que hay un nuevo competidor", dijo en ChinaTalk. "En las grandes empresas que pueden entrenar IA – Anthropic, OpenAI, Google, tal vez Meta y xAI – ahora DeepSeek quizás se está sumando a esa categoría."

Artículo relacionado
DeepSeek-V3 Presentado: Cómo el Diseño de IA Consciente del Hardware Reduce Costos y Mejora el Rendimiento DeepSeek-V3 Presentado: Cómo el Diseño de IA Consciente del Hardware Reduce Costos y Mejora el Rendimiento DeepSeek-V3: Un Salto Eficiente en Costos en el Desarrollo de IALa industria de la IA está en una encrucijada. Mientras los modelos de lenguaje grandes (LLMs) se vuelven más potentes, sus demandas com
DeepSeek-GRM: Revolucionando la IA escalable y de bajo costo para empresas DeepSeek-GRM: Revolucionando la IA escalable y de bajo costo para empresas Si tienes un negocio, sabrás lo difícil que puede ser integrar la Inteligencia Artificial (IA) en tus operaciones. Los altos costos y la complejidad técnica suelen poner fuera de a
La nueva técnica permite que Deepseek y otros modelos respondan a consultas sensibles La nueva técnica permite que Deepseek y otros modelos respondan a consultas sensibles Eliminar el sesgo y la censura de los grandes modelos de idiomas (LLM) como Deepseek de China es un desafío complejo que ha llamado la atención de los responsables políticos y los líderes empresariales de los Estados Unidos, que lo ven como una posible amenaza de seguridad nacional. Un informe reciente de un Comité Selecto del Congreso de EE. UU. Etiquetado Deeps
comentario (50)
0/200
PeterMartinez
PeterMartinez 26 de abril de 2025 00:16:48 GMT+02:00

O CEO da Anthropic criticando a DeepSeek é assustador! Se eles não conseguem manter os dados de bioweapons seguros, o que mais estão fazendo de errado? Isso me faz pensar duas vezes sobre usar qualquer AI deles. Espero que resolvam isso rápido! 😱

JimmyGarcia
JimmyGarcia 20 de abril de 2025 07:11:54 GMT+02:00

Nossa, o CEO da Anthropic realmente detonou a DeepSeek por falhar no teste de segurança de dados de bioweapons! É assustador pensar que empresas de IA não priorizam a segurança. Fica a dúvida sobre o que mais está acontecendo nos bastidores. Mantenha-se seguro, pessoal! 😱

SebastianAnderson
SebastianAnderson 20 de abril de 2025 05:27:58 GMT+02:00

El fracaso de DeepSeek en la prueba de seguridad de datos de bioweapons es muy preocupante. Preocuparse por la privacidad de los datos es una cosa, pero esto es de otro nivel. El CEO de Anthropic tiene razón al criticarlos. Necesitamos más transparencia y seguridad en la IA, ¡rápido! 😠

StevenAllen
StevenAllen 18 de abril de 2025 19:41:57 GMT+02:00

딥시크가 생물무기 데이터 안전성 테스트에 실패한 것은 정말 걱정스럽습니다. 데이터 프라이버시는 하나의 문제지만, 이것은 다른 차원의 문제입니다. 안트로픽의 CEO가 그들을 비판하는 것은 옳습니다. AI에는 더 많은 투명성과 안전성이 필요합니다, 급하게요! 😠

RoyLopez
RoyLopez 17 de abril de 2025 22:50:53 GMT+02:00

Anthropic의 CEO가 DeepSeek의 생물학적 무기 데이터 안전성 테스트 실패에 대해 강력하게 비판했네요! AI 기업이 안전을 우선하지 않는다는 생각이 무섭네요. 뒤에서 무슨 일이 일어나고 있는지 궁금해지네요. 모두 안전하게 하세요! 😱

EdwardTaylor
EdwardTaylor 17 de abril de 2025 20:13:54 GMT+02:00

AnthropicのCEOがDeepSeekを批判しているのは怖いですね!生物兵器のデータを安全に保てないなんて、他に何をしくじっているんでしょうか?彼らのAIを使うのを再考させられます。早く修正してほしいです!😨

Volver arriba
OR