Le PDG anthropique claque Deepseek pour l'échec du test de sécurité des données BIOWAPONS

Le PDG d’Anthropic, Dario Amodei, est gravement préoccupé par DeepSeek, l’entreprise chinoise d’IA qui fait des vagues dans la Silicon Valley avec son modèle R1. Et ses inquiétudes vont au-delà des craintes habituelles concernant l’envoi de données utilisateurs par DeepSeek vers la Chine.
Dans une récente discussion sur le podcast ChinaTalk de Jordan Schneider, Amodei a révélé que le modèle d’IA de DeepSeek avait généré des informations assez effrayantes sur les armes biologiques lors d’un test de sécurité effectué par Anthropic. Il a affirmé que la performance de DeepSeek était « la pire de tous les modèles que nous ayons testés », déclarant qu’il n’avait « absolument aucun blocage contre la génération de ces informations ».
Amodei a expliqué que ces tests font partie des évaluations régulières d’Anthropic pour vérifier si les modèles d’IA présentent des risques pour la sécurité nationale. Ils examinent spécifiquement si les modèles peuvent produire des informations liées aux armes biologiques introuvables facilement sur Google ou dans les manuels. Anthropic se targue d’être l’entreprise d’IA qui prend la sécurité au sérieux.
Bien qu’Amodei ne pense pas que les modèles actuels de DeepSeek soient « littéralement dangereux » en termes de fourniture d’informations rares et risquées, il estime qu’ils pourraient l’être dans un avenir proche. Il a salué l’équipe de DeepSeek comme des « ingénieurs talentueux » mais a exhorté l’entreprise à « prendre au sérieux ces considérations de sécurité de l’IA ».
Amodei est également un fervent partisan de contrôles stricts à l’exportation des puces vers la Chine, craignant que cela ne donne un avantage militaire à la Chine.
Dans l’interview de ChinaTalk, Amodei n’a pas précisé quel modèle de DeepSeek Anthropic a testé ni fourni plus de détails techniques sur les tests. Ni Anthropic ni DeepSeek n’ont répondu immédiatement à la demande de commentaire de TechCrunch.
L’ascension rapide de DeepSeek a également soulevé des préoccupations de sécurité ailleurs. La semaine dernière, des chercheurs en sécurité de Cisco ont déclaré que DeepSeek R1 n’avait bloqué aucune invite nuisible lors de ses tests de sécurité, avec un taux de succès de jailbreak de 100 %. Bien que Cisco n’ait pas mentionné les armes biologiques, ils ont réussi à faire générer à DeepSeek des informations nuisibles sur la cybercriminalité et d’autres activités illégales. Il est à noter, cependant, que Llama-3.1-405B de Meta et GPT-4o d’OpenAI avaient également des taux d’échec élevés de 96 % et 86 %, respectivement.
Il reste incertain si ces préoccupations de sécurité porteront un coup sérieux à l’adoption rapide de DeepSeek. Des entreprises comme AWS et Microsoft ont publiquement loué l’intégration de R1 dans leurs plateformes cloud – ce qui est quelque peu ironique, étant donné qu’Amazon est le plus grand investisseur d’Anthropic.
D’un autre côté, un nombre croissant de pays, d’entreprises et surtout d’organisations gouvernementales comme la marine américaine et le Pentagone ont commencé à interdire DeepSeek.
Seul le temps dira si ces efforts gagneront du terrain ou si l’ascension mondiale de DeepSeek continuera de croître. Quoi qu’il en soit, Amodei considère DeepSeek comme un nouveau concurrent à la hauteur des principales entreprises d’IA américaines.
« La nouveauté ici est qu’il y a un nouveau concurrent », a-t-il déclaré sur ChinaTalk. « Parmi les grandes entreprises qui peuvent entraîner l’IA – Anthropic, OpenAI, Google, peut-être Meta et xAI – maintenant DeepSeek est peut-être ajouté à cette catégorie. »
Article connexe
DeepSeek-V3 Dévoilé : Comment la Conception d'IA Consciente du Matériel Réduit les Coûts et Améliore les Performances
DeepSeek-V3 : Un Bond Économique dans le Développement de l'IAL'industrie de l'IA est à un tournant. Alors que les grands modèles de langage (LLMs) deviennent plus puissants, leurs besoins en calcul o
DeepSeek-GRM : Révolutionne l'IA scalable et rentable pour les entreprises
Si vous dirigez une entreprise, vous savez à quel point il peut être difficile d'intégrer l'intelligence artificielle (IA) dans vos opérations. Les coûts élevés et la complexité te
La nouvelle technique permet à Deepseek et à d'autres modèles de répondre aux requêtes sensibles
La suppression des préjugés et de la censure des modèles de grands langues (LLM) comme Deepseek de la Chine est un défi complexe qui a attiré l'attention des décideurs américains et des chefs d'entreprise, qui le considèrent comme une menace potentielle de la sécurité nationale. Un rapport récent d'un comité restreint du Congrès américain étiqueté Deeps
commentaires (50)
0/200
PeterMartinez
26 avril 2025 00:16:48 UTC+02:00
O CEO da Anthropic criticando a DeepSeek é assustador! Se eles não conseguem manter os dados de bioweapons seguros, o que mais estão fazendo de errado? Isso me faz pensar duas vezes sobre usar qualquer AI deles. Espero que resolvam isso rápido! 😱
0
JimmyGarcia
20 avril 2025 07:11:54 UTC+02:00
Nossa, o CEO da Anthropic realmente detonou a DeepSeek por falhar no teste de segurança de dados de bioweapons! É assustador pensar que empresas de IA não priorizam a segurança. Fica a dúvida sobre o que mais está acontecendo nos bastidores. Mantenha-se seguro, pessoal! 😱
0
SebastianAnderson
20 avril 2025 05:27:58 UTC+02:00
El fracaso de DeepSeek en la prueba de seguridad de datos de bioweapons es muy preocupante. Preocuparse por la privacidad de los datos es una cosa, pero esto es de otro nivel. El CEO de Anthropic tiene razón al criticarlos. Necesitamos más transparencia y seguridad en la IA, ¡rápido! 😠
0
StevenAllen
18 avril 2025 19:41:57 UTC+02:00
딥시크가 생물무기 데이터 안전성 테스트에 실패한 것은 정말 걱정스럽습니다. 데이터 프라이버시는 하나의 문제지만, 이것은 다른 차원의 문제입니다. 안트로픽의 CEO가 그들을 비판하는 것은 옳습니다. AI에는 더 많은 투명성과 안전성이 필요합니다, 급하게요! 😠
0
RoyLopez
17 avril 2025 22:50:53 UTC+02:00
Anthropic의 CEO가 DeepSeek의 생물학적 무기 데이터 안전성 테스트 실패에 대해 강력하게 비판했네요! AI 기업이 안전을 우선하지 않는다는 생각이 무섭네요. 뒤에서 무슨 일이 일어나고 있는지 궁금해지네요. 모두 안전하게 하세요! 😱
0
EdwardTaylor
17 avril 2025 20:13:54 UTC+02:00
AnthropicのCEOがDeepSeekを批判しているのは怖いですね!生物兵器のデータを安全に保てないなんて、他に何をしくじっているんでしょうか?彼らのAIを使うのを再考させられます。早く修正してほしいです!😨
0
Le PDG d’Anthropic, Dario Amodei, est gravement préoccupé par DeepSeek, l’entreprise chinoise d’IA qui fait des vagues dans la Silicon Valley avec son modèle R1. Et ses inquiétudes vont au-delà des craintes habituelles concernant l’envoi de données utilisateurs par DeepSeek vers la Chine.
Dans une récente discussion sur le podcast ChinaTalk de Jordan Schneider, Amodei a révélé que le modèle d’IA de DeepSeek avait généré des informations assez effrayantes sur les armes biologiques lors d’un test de sécurité effectué par Anthropic. Il a affirmé que la performance de DeepSeek était « la pire de tous les modèles que nous ayons testés », déclarant qu’il n’avait « absolument aucun blocage contre la génération de ces informations ».
Amodei a expliqué que ces tests font partie des évaluations régulières d’Anthropic pour vérifier si les modèles d’IA présentent des risques pour la sécurité nationale. Ils examinent spécifiquement si les modèles peuvent produire des informations liées aux armes biologiques introuvables facilement sur Google ou dans les manuels. Anthropic se targue d’être l’entreprise d’IA qui prend la sécurité au sérieux.
Bien qu’Amodei ne pense pas que les modèles actuels de DeepSeek soient « littéralement dangereux » en termes de fourniture d’informations rares et risquées, il estime qu’ils pourraient l’être dans un avenir proche. Il a salué l’équipe de DeepSeek comme des « ingénieurs talentueux » mais a exhorté l’entreprise à « prendre au sérieux ces considérations de sécurité de l’IA ».
Amodei est également un fervent partisan de contrôles stricts à l’exportation des puces vers la Chine, craignant que cela ne donne un avantage militaire à la Chine.
Dans l’interview de ChinaTalk, Amodei n’a pas précisé quel modèle de DeepSeek Anthropic a testé ni fourni plus de détails techniques sur les tests. Ni Anthropic ni DeepSeek n’ont répondu immédiatement à la demande de commentaire de TechCrunch.
L’ascension rapide de DeepSeek a également soulevé des préoccupations de sécurité ailleurs. La semaine dernière, des chercheurs en sécurité de Cisco ont déclaré que DeepSeek R1 n’avait bloqué aucune invite nuisible lors de ses tests de sécurité, avec un taux de succès de jailbreak de 100 %. Bien que Cisco n’ait pas mentionné les armes biologiques, ils ont réussi à faire générer à DeepSeek des informations nuisibles sur la cybercriminalité et d’autres activités illégales. Il est à noter, cependant, que Llama-3.1-405B de Meta et GPT-4o d’OpenAI avaient également des taux d’échec élevés de 96 % et 86 %, respectivement.
Il reste incertain si ces préoccupations de sécurité porteront un coup sérieux à l’adoption rapide de DeepSeek. Des entreprises comme AWS et Microsoft ont publiquement loué l’intégration de R1 dans leurs plateformes cloud – ce qui est quelque peu ironique, étant donné qu’Amazon est le plus grand investisseur d’Anthropic.
D’un autre côté, un nombre croissant de pays, d’entreprises et surtout d’organisations gouvernementales comme la marine américaine et le Pentagone ont commencé à interdire DeepSeek.
Seul le temps dira si ces efforts gagneront du terrain ou si l’ascension mondiale de DeepSeek continuera de croître. Quoi qu’il en soit, Amodei considère DeepSeek comme un nouveau concurrent à la hauteur des principales entreprises d’IA américaines.
« La nouveauté ici est qu’il y a un nouveau concurrent », a-t-il déclaré sur ChinaTalk. « Parmi les grandes entreprises qui peuvent entraîner l’IA – Anthropic, OpenAI, Google, peut-être Meta et xAI – maintenant DeepSeek est peut-être ajouté à cette catégorie. »



O CEO da Anthropic criticando a DeepSeek é assustador! Se eles não conseguem manter os dados de bioweapons seguros, o que mais estão fazendo de errado? Isso me faz pensar duas vezes sobre usar qualquer AI deles. Espero que resolvam isso rápido! 😱




Nossa, o CEO da Anthropic realmente detonou a DeepSeek por falhar no teste de segurança de dados de bioweapons! É assustador pensar que empresas de IA não priorizam a segurança. Fica a dúvida sobre o que mais está acontecendo nos bastidores. Mantenha-se seguro, pessoal! 😱




El fracaso de DeepSeek en la prueba de seguridad de datos de bioweapons es muy preocupante. Preocuparse por la privacidad de los datos es una cosa, pero esto es de otro nivel. El CEO de Anthropic tiene razón al criticarlos. Necesitamos más transparencia y seguridad en la IA, ¡rápido! 😠




딥시크가 생물무기 데이터 안전성 테스트에 실패한 것은 정말 걱정스럽습니다. 데이터 프라이버시는 하나의 문제지만, 이것은 다른 차원의 문제입니다. 안트로픽의 CEO가 그들을 비판하는 것은 옳습니다. AI에는 더 많은 투명성과 안전성이 필요합니다, 급하게요! 😠




Anthropic의 CEO가 DeepSeek의 생물학적 무기 데이터 안전성 테스트 실패에 대해 강력하게 비판했네요! AI 기업이 안전을 우선하지 않는다는 생각이 무섭네요. 뒤에서 무슨 일이 일어나고 있는지 궁금해지네요. 모두 안전하게 하세요! 😱




AnthropicのCEOがDeepSeekを批判しているのは怖いですね!生物兵器のデータを安全に保てないなんて、他に何をしくじっているんでしょうか?彼らのAIを使うのを再考させられます。早く修正してほしいです!😨












