Xavier Martinet - Principales líderes e innovadores de IA | Perfiles, hitos y proyectos - xix.ai
opción

Descubre herramientas de IA de calidad

Reúna las principales herramientas de inteligencia artificial del mundo para ayudar a mejorar la eficiencia laboral

Buscar herramientas de Al…
Hogar
Celebridad de IA
Xavier Martinet
Xavier Martinet

Xavier Martinet

Ingeniero de Investigación, Meta AI
Año de nacimiento  1990
Nacionalidad  French

Hito importante

2019 Se unió a Meta AI

Trabajó en la infraestructura de AI en Meta

Artículo de LLaMA 2023

Artículo de investigación de LLaMA coescrito

Despliegue de LLaMA 3.1 2024

Despliegue asistido de LLaMA 3.1 en plataformas en la nube

Producto de IA

Llama 4 模型是自回歸語言模型,採用專家混合(MoE)架構,並融入早期融合技術以實現原生多模態能力。

Llama3.1 是多語言模型,具有顯著更長的上下文長度 128K,最先進的工具使用能力以及整體更強的推理能力。

Llama 3.1 405B 是第一個在普通知識、可控性、數學、工具使用和多語言翻譯等尖端能力方面可與頂級 AI 模型相匹敵的開源模型。

Llama 3.2 3B 模型支援長達 128K 個標記的上下文長度,並且在其設備端應用場景(如摘要、指令跟隨和重寫任務在邊緣本地運行)方面處於同類產品的領先地位。

Llama3.1 支援多語言,並且具有顯著更長的上下文長度 128K、最先進的工具使用能力和整體更強的推理能力。

Llama3 是 Meta 的最新開源大型語言模型,基於 15T 的語料庫進行訓練,支援 8K 的上下文長度,並針對有效性和安全性進行了最佳化。

Llama 3.1 405B 是第一個在普通知識、可控性、數學、工具使用和多語言翻譯等尖端能力方面可與頂級 AI 模型相媲美的公開可用模型。

Llama3.1 支援多語言,並且具有顯著更長的上下文長度 128K,最先進的工具使用能力以及整體更強的推理能力。

Llama3.1 是多語言模型,具有顯著更長的上下文長度 128K,最先進的工具使用能力和整體更強的推理能力。

Llama 3.2 3B 模型支援長達 128K 個標記的上下文長度,並且在其設備端應用場景(如摘要、指令跟隨和重寫任務在邊緣本地運行)中處於同類產品的領先地位。

Llama 4 模型是自迴歸語言模型,採用專家混合(MoE)架構,並結合早期融合實現原生多模態。

Llama3 是 Meta 的最新開源大型語言模型,基於 15T 的語料庫訓練,支援 8K 的上下文長度,並針對有效性與安全性進行了最佳化。

Mixtral-8x7B 大型語言模型(LLM)是一個預訓練的生成式稀疏專家混合模型。在我們測試的大多數基準上,Mistral-8x7B 的表現優於 Llama 2 70B。

Llama 3.1 405B 是第一個在普通知識、可控性、數學、工具使用和多語言翻譯等尖端能力方面可與頂級 AI 模型相匹敵的公開可用模型。

Llama3.1 支援多語言,並且具有顯著更長的上下文長度 128K、最先進的工具使用能力和整體更強的推理能力。

Mixtral-8x7B 大型語言模型(LLM)是一個預訓練的生成式稀疏專家混合模型。在我們測試的大多數基準上,Mistral-8x7B 的表現優於 Llama 2 70B。

Llama 4 模型是自迴歸語言模型,採用混合專家(MoE)架構,並結合早期融合實現原生多模態。

Llama3.1 是多語言模型,具有顯著更長的上下文長度 128K,最先進的工具使用能力以及整體更強的推理能力。

Llama3.1 是多語言模型,具有顯著更長的上下文長度 128K,最先進的工具使用能力和整體更強的推理能力。

Llama 3.2 3B 模型支援長達 128K 個標記的上下文長度,並且在本地邊緣運行的摘要、指令遵循和重寫任務等裝置端應用場景中處於同類產品的領先地位。

Llama3.1 是多語言的,具有顯著更長的上下文長度 128K,最先進的工具使用能力,以及整體更強的推理能力。

Perfil personal

Apoyó la infraestructura de LLaMA para el entrenamiento de modelos a gran escala.

Volver arriba
OR