Liang Wenfeng - 최고의 AI 리더 및 혁신가 | 프로필, 주요 이정표 및 프로젝트 - xix.ai
옵션

품질 AI 도구를 발견하십시오

업무 효율성을 향상시키는 데 도움이되는 세계 최고의 인공 지능 도구를 모으십시오.

AL 도구 검색…
AI 유명인
Liang Wenfeng
Liang Wenfeng

Liang Wenfeng

DeepSeek CEO, High-Flyer 공동창립자
출생 연도  1985
국적  Chinese

중요한 이정표

2015 설립된 하이플라이어

AI를 활용한 금융 분석을 위해 하이플라이어, 정량적 헤지 펀드를 공동 설립함

2023년 설립된 DeepSeek

효율성에 중점을 두고 오픈소스 AI 모델을 개발하기 위해 DeepSeek을 설립했습니다.

2025 DeepSeek-R1 출시

DeepSeek-R1을 출시하여 앱 다운로드에서 ChatGPT를 능가하고 글로벌 AI 시장에 영향을 미침

AI 제품

DeepSeek-V3 surpasse les autres modèles open-source tels que Qwen2.5-72B et Llama-3.1-405B dans plusieurs évaluations et égale les performances des modèles propriétaires de premier plan comme GPT-4 et Claude-3.5-Sonnet.

Le modèle d'inférence Spark X1, publié par iFlytek, sur la base de performances de pointe dans les tâches mathématiques nationales, évalue ses performances dans des tâches générales telles que l'inférence, la génération de texte et la compréhension du langage par rapport à la série o d'OpenAI et DeepSeek R1.

La dernière version de Deepseek R1.

DeepSeek-V2 est un modèle de langue robuste de type Mixture-of-Experts (MoE), caractérisé par un coût d'entraînement économique et une inférence efficace. Il comprend un total de 236 milliards de paramètres, dont 21 milliards sont activés pour chaque jeton. Comparé à DeepSeek 67B, DeepSeek-V2 offre des performances supérieures tout en économisant 42,5 % des coûts d'entraînement, réduisant la mémoire de cache KV de 93,3 % et augmentant la capacité maximale de génération jusqu'à 5,76 fois.

Le modèle d'inférence Spark X1 publié par iFlytek, sur la base de tâches mathématiques nationales de premier plan, compare les performances de tâches générales telles que l'inférence, la génération de texte et la compréhension du langage avec OpenAI o1 et DeepSeek R1.

DeepSeek-V2.5 est une version mise à jour combinant DeepSeek-V2-Chat et DeepSeek-Coder-V2-Instruct. Le nouveau modèle intègre les capacités générales et de codage des deux versions précédentes.

DeepSeek-V3 surpasse d'autres modèles open source tels que Qwen2.5-72B et Llama-3.1-405B dans plusieurs évaluations et égale les performances des meilleurs modèles propriétaires comme GPT-4 et Claude-3.5-Sonnet.

DeepSeek-V2, un modèle de langue Mixture-of-Experts (MoE) puissant présenté par DeepSeek, DeepSeek-V2-Lite est une version allégée de celui-ci.

DeepSeek-V2 est un modèle linguistique robuste du type Mixture-of-Experts (MoE), caractérisé par un entraînement économique et une inférence efficace. Il comporte 236 milliards de paramètres au total, dont 21 milliards sont activés pour chaque jeton. Comparé à DeepSeek 67B, DeepSeek-V2 offre des performances supérieures tout en économisant 42.5 % des coûts d'entraînement, réduisant la mémoire cache KV de 93.3 % et augmentant le débit maximal de génération de 5.76 fois.

DeepSeek-R1 est un modèle entraîné via un apprentissage par renforcement (RL) à grande échelle sans utiliser de mise au point supervisée (SFT) comme étape initiale. Ses performances dans les tâches mathématiques, de codage et de raisonnement sont comparables à celles d'OpenAI-o1.

DeepSeek-V2.5 est une version mise à jour combinant DeepSeek-V2-Chat et DeepSeek-Coder-V2-Instruct. Le nouveau modèle intègre les capacités générales et de codage des deux versions précédentes.

DeepSeek-V3 a obtenu des scores d'évaluation plus élevés que d'autres modèles open source tels que Qwen2.5-72B et Llama-3.1-405B, et son rendement équivaut à celui des meilleurs modèles propriétaires mondiaux comme GPT-4o et Claude-3.5-Sonnet.

DeepSeek-R1 a largement utilisé les techniques d'apprentissage par renforcement au cours de la phase de post-entraînement, améliorant de manière significative les capacités de raisonnement du modèle avec seulement une quantité minimale de données annotées. Dans les tâches impliquant les mathématiques, le codage et l'inférence du langage naturel, ses performances sont comparables à celles de la version officielle de o1 d'OpenAI.

DeepSeek-V2, un modèle de langue Mixture-of-Experts (MoE) puissant présenté par DeepSeek, DeepSeek-V2-Lite est une version allégée de celui-ci.

개인 프로필

DeepSeek을 설립하고 DeepSeek-R1 및 V3와 같은 비용 효율적인 AI 모델 개발을 이끌며 글로벌 AI 산업 표준에 도전함.

위로 돌아갑니다
OR