Liang Wenfeng - トップAIリーダー&イノベーター|プロフィール、節目、プロジェクト - xix.ai
オプション

高品質のAIツールを発見します

世界をリードする人工知能ツールを集めて、作業効率を向上させるのに役立ちます

ALツールを検索します…
AI著名人
Liang Wenfeng
Liang Wenfeng

Liang Wenfeng

DeepSeek CEO、High-Flyer共同創業者
生年  1985
国籍  Chinese

重要な節目

2015年設立ハイフライヤー

AIを活用した金融分析のための定量ヘッジファンド、ハイフライヤーを共同設立

2023年設立DeepSeek

効率性に焦点を当てたオープンソースAIモデルの開発のためにDeepSeekを設立

2025 DeepSeek-R1リリース

DeepSeek-R1を発売し、アプリのダウンロード数でChatGPTを上回り、グローバルAI市場に影響を与えた。

AI製品

DeepSeek-V3 supera a otros modelos de código abierto como Qwen2.5-72B y Llama-3.1-405B en múltiples evaluaciones y iguala el rendimiento de modelos de código cerrado de primer nivel como GPT-4 y Claude-3.5-Sonnet.

El modelo de inferencia Spark X1 lanzado por iFlytek, sobre la base de liderar las tareas matemáticas nacionales, compara el rendimiento de tareas generales como inferencia, generación de texto y comprensión del lenguaje con la serie o de OpenAI y DeepSeek R1.

La última versión de Deepseek R1.

DeepSeek-V2 es un modelo de lenguaje de Mixture-of-Experts (MoE) potente, caracterizado por un entrenamiento económico y una inferencia eficiente. Cuenta con 236 mil millones de parámetros en total, de los cuales 21 mil millones están activos para cada token. En comparación con DeepSeek 67B, DeepSeek-V2 ofrece un mejor rendimiento, reduce en un 42,5% los costos de entrenamiento, disminuye el almacenamiento en caché KV en un 93,3% y mejora la capacidad máxima de generación hasta 5,76 veces.

El modelo de inferencia Spark X1 lanzado por iFlytek, además de liderar tareas matematicas nacionales, evalua el rendimiento de tareas generales como inferencia, generacion de texto e inteligencia linguistica frente al OpenAI o1 y el DeepSeek R1.

DeepSeek-V2.5 es una versión actualizada que combina DeepSeek-V2-Chat y DeepSeek-Coder-V2-Instruct. El nuevo modelo integra las capacidades generales y de codificación de las dos versiones anteriores.

DeepSeek-V3 supera a otros modelos open source como Qwen2.5-72B y Llama-3.1-405B en múltiples evaluaciones y coincide con el rendimiento de los principales modelos cerrados como GPT-4 y Claude-3.5-Sonnet.

DeepSeek-V2, un modelo de lenguaje potente de Mixture-of-Experts (MoE) presentado por DeepSeek, el DeepSeek-V2-Lite es una versión ligera de él.

DeepSeek-V2 es un modelo de lenguaje Mixture-of-Experts (MoE) potente caracterizado por un entrenamiento económico y una inferencia eficiente. Cuenta con un total de 236 mil millones de parámetros, de los cuales 21 mil millones están activos para cada token. En comparación con DeepSeek 67B, DeepSeek-V2 ofrece un mejor rendimiento, reduce en un 42,5% los costos de entrenamiento, disminuye el caché KV en un 93,3% y aumenta el rendimiento máximo de generación hasta 5,76 veces.

DeepSeek-R1 es un modelo entrenado mediante aprendizaje por refuerzo a gran escala (RL) sin utilizar Afinamiento Supervisado (SFT) como paso inicial. Su rendimiento en tareas de matemáticas, codificación y razonamiento es comparable al de OpenAI-o1.

DeepSeek-V2.5 es una versión actualizada que combina DeepSeek-V2-Chat y DeepSeek-Coder-V2-Instruct. El nuevo modelo integra las capacidades generales y de codificación de las dos versiones anteriores.

DeepSeek-V3 ha logrado puntajes de evaluación más altos que otros modelos de código abierto como Qwen2.5-72B y Llama-3.1-405B, y su rendimiento está a la par con los principales modelos闭源 del mundo como GPT-4o y Claude-3.5-Sonnet.

DeepSeek-R1 utilizó ampliamente técnicas de aprendizaje por refuerzo durante la fase de post-entrenamiento, mejorando significativamente las capacidades de razonamiento del modelo con sólo una cantidad mínima de datos anotados. En tareas relacionadas con las matemáticas, la codificación y la inferencia del lenguaje natural, su rendimiento está a la par con la versión oficial de o1 de OpenAI.

DeepSeek-V2, un modelo fuerte de lenguaje Mixture-of-Experts (MoE) presentado por DeepSeek, el DeepSeek-V2-Lite es una versión ligera de él.

個人プロフィール

DeepSeekを設立し、DeepSeek-R1やV3などのコスト効率の高いAIモデルの開発を主導し、グローバルAI業界の常識に挑戦。

トップに戻ります
OR