вариант
Дом Новости Openai Labels DeepSeek 'контролируемые государством, «призывает запретить« PRC-производимые »модели

Openai Labels DeepSeek 'контролируемые государством, «призывает запретить« PRC-производимые »модели

Дата выпуска Дата выпуска 10 апреля 2025 г.
Автор Автор AnthonyScott
виды виды 13

Openai Labels DeepSeek 'контролируемые государством, «призывает запретить« PRC-производимые »модели

В недавнем политическом предложении OpenAI назвал китайскую лабораторию AI Deepseek как «субсидированные государством» и «контролируемые государством», что предполагает, что правительство США должно рассматриваться как модели запрета, разработанные Deepseek и аналогичными операциями, поддерживаемыми Китайской Народной Республикой (КНР).

В этом предложении, представленном в рамках инициативы администрации Трампа «План действий», утверждается, что модели Deepseek, такие как модель рассуждения R1 «рассуждения», представляют риски безопасности из -за юридических требований китайского языка, которые предоставляют соответствие правительственным запросам на пользовательские данные. OpenAI рекомендует запретить «модели, проработанные PRC» в странах, классифицированные как «уровень 1» в соответствии с правилами экспорта администрации Байдена для смягчения проблем с конфиденциальностью и безопасности, включая риск кражи интеллектуальной собственности.

Неясно, включает ли Openai «модели» «модели» Deepseek API, его открытые модели или оба. Интересно, что открытые модели Deepseek не имеют встроенных механизмов для правительства Китая, чтобы получить доступ к пользовательским данным; Вместо этого они размещаются в таких компаниях, как Microsoft, Nemploversity и Amazon.

OpenAI ранее обвинял Deepseek, который получил признание в начале этого года, в извлечении знаний из моделей Openai в нарушение его условий обслуживания. Новые претензии - которые DeepSeek поддерживается и контролируется КНР - указывают на значительную эскалацию в продолжающемся споре Openai с китайской лабораторией.

Нет прямых доказательств, связывающих Deepseek, побочный продукт от количественного хедж-фонда с высоким содержанием китайского правительства. Тем не менее, КНР недавно проявил растущий интерес к Deepseek, подчеркнутая встречей основателя Deepseek Лян Венфенг и китайского лидера Си Цзиньпина несколько недель назад.

Обновлено 3/15 8:38 PM Pacific: несколько дней после того, как эта история появилась в новостях, представитель Openai Лиз Буржуа предоставил следующее разъяснение :

«Мы не настаиваем на ограничениях для людей, использующих такие модели, как DeepSeek. Наше предложение фокусируется на изменении правил экспорта США, чтобы позволить большему количеству стран получить доступ к американским вычислительным ресурсам, при условии, что их обработки данных не используют технологию PRC, которые могут представлять риски безопасности. Это не ограничивает доступ к чипам на основе страхов, которые они будут перенаправлены в PRC. Наша цель - это расширение доступа к AI для большего количества стран».

Собственный инструмент Deep Research с AI на основе AI описывает это утверждение как «двусмысленное, используя девятивные и размягченные язык, который несколько противоречит более настойчивой позиции в исходном подчинении».

Связанная статья
Former DeepSeeker and collaborators release new method for training reliable AI agents: RAGEN Former DeepSeeker and collaborators release new method for training reliable AI agents: RAGEN The Year of AI Agents: A Closer Look at 2025's Expectations and Realities2025 was heralded by many experts as the year when AI agents—specialized AI systems powered by advanced large language and multimodal models from companies like OpenAI, Anthropic, Google, and DeepSeek—would finally take center
Google Search Introduces 'AI Mode' for Complex, Multi-Part Queries Google Search Introduces 'AI Mode' for Complex, Multi-Part Queries Google Unveils "AI Mode" in Search to Rival Perplexity AI and ChatGPTGoogle is stepping up its game in the AI arena with the launch of an experimental "AI Mode" feature in its Search engine. Aimed at taking on the likes of Perplexity AI and OpenAI's ChatGPT Search, this new mode was announced on Wed
YouTube Backs 'No Fakes Act' to Combat Unauthorized AI Replicas YouTube Backs 'No Fakes Act' to Combat Unauthorized AI Replicas Senators Chris Coons (D-DE) and Marsha Blackburn (R-TN) are once again pushing forward their Nurture Originals, Foster Art, and Keep Entertainment Safe, or NO FAKES, Act. This legislation aims to set clear rules about creating AI-generated copies of someone's face, name, or voice. After being introd
Комментарии (40)
FredMartínez
FredMartínez 10 апреля 2025 г., 8:02:08 GMT

OpenAI calling DeepSeek 'state-controlled' and suggesting a ban? That's a bit harsh, isn't it? I get the security concerns, but shouldn't we be promoting global collaboration in AI instead of drawing lines? Feels like we're heading back to the Cold War era!

RoySmith
RoySmith 10 апреля 2025 г., 8:02:08 GMT

OpenAIがDeepSeekを「国家管理」と呼び、禁止を提案するなんて、ちょっと厳しすぎませんか?セキュリティの懸念は理解できますが、AIでのグローバルな協力の促進をすべきでは?冷戦時代に戻っている気がします!

FredYoung
FredYoung 10 апреля 2025 г., 8:02:08 GMT

오픈AI가 DeepSeek을 '국가 통제'라고 부르고 금지를 제안하다니, 너무 심하지 않나요? 보안 우려는 이해하지만, AI에서 글로벌 협력을 촉진해야 하지 않나요? 냉전 시대로 돌아가는 것 같아요!

KeithHarris
KeithHarris 10 апреля 2025 г., 8:02:08 GMT

OpenAI chamando DeepSeek de 'controlado pelo estado' e sugerindo uma proibição? Isso não é um pouco duro demais? Entendo as preocupações de segurança, mas não deveríamos estar promovendo a colaboração global em IA em vez de traçar linhas? Parece que estamos voltando à era da Guerra Fria!

AlbertThomas
AlbertThomas 10 апреля 2025 г., 8:02:08 GMT

¿OpenAI llamando a DeepSeek 'controlado por el estado' y sugiriendo una prohibición? ¿No es eso un poco duro? Entiendo las preocupaciones de seguridad, pero ¿no deberíamos estar promoviendo la colaboración global en IA en lugar de trazar líneas? ¡Parece que estamos volviendo a la era de la Guerra Fría!

RalphJackson
RalphJackson 10 апреля 2025 г., 12:45:28 GMT

OpenAI's move to label DeepSeek as state-controlled feels a bit heavy-handed. I get the security concerns, but outright banning PRC-produced models? That's a bit extreme, isn't it? Maybe we need more nuanced policies rather than just slamming the door shut. Food for thought, OpenAI!

Вернуться к вершине
OR