Marie-Anne Lachaux - Principais Líderes e Inovadores de IA | Perfis, Marcos e Projetos - xix.ai
opção

Descubra ferramentas de qualidade de qualidade

Reunir as principais ferramentas de inteligência artificial do mundo para ajudar a melhorar a eficiência do trabalho

Procure por ferramentas AL…
Lar
Celebridade de IA
Marie-Anne Lachaux
Marie-Anne Lachaux

Marie-Anne Lachaux

Cientista de Pesquisa, Meta AI
Ano de nascimento  1990
Nacionalidade  French

Marco importante

2018 Juntou-se à Meta AI

Iniciou pesquisa de NLP na Meta

Artigo LLaMA 2023

Artigo de pesquisa LLaMA coautorado

LLaMA 3.1 Multilíngue 2024

Suporte aprimorado do LLaMA 3.1 para oito idiomas

Produto de IA

Os modelos Llama 4 são modelos de linguagem autorregressivos que utilizam uma arquitetura de mistura de especialistas (MoE) e incorporam fusão precoce para multimodalidade nativa.

Llama3.1 são multilíngues e têm uma extensa janela de contexto de 128K, uso avançado de ferramentas e capacidades gerais de raciocínio mais fortes.

O Llama 3.1 405B é o primeiro modelo amplamente disponível que rivaliza com os principais modelos de IA em termos de capacidades de ponta em conhecimento geral, controlabilidade, matemática, uso de ferramentas e tradução multilíngue.

Os modelos Llama 3.2 3B suportam uma extensão de contexto de 128K tokens e são líderes em sua categoria para casos de uso em dispositivo, como resumos, seguimento de instruções e tarefas de reescrita executadas localmente na borda.

Llama3.1 são multilíngues e têm uma comprida consideravelmente maior capacidade de contexto de 128K, uso de ferramentas de ponta e capacidades gerais de raciocínio mais fortes.

Llama3 é o último modelo de linguagem grande de código aberto da Meta, treinado em um corpus de 15T, suporta uma extensão de contexto de 8K e foi otimizado para eficácia e segurança.

Llama 3.1 405B é o primeiro modelo amplamente disponível que rivaliza com os principais modelos de IA em termos de capacidades de ponta em conhecimento geral, controlabilidade, matemática, uso de ferramentas e tradução multilíngue.

A Llama3.1 são multilíngues e têm uma comprida consideravelmente maior capacidade de contexto de 128K, uso de ferramentas de ponta e capacidades de raciocínio mais fortes no geral.

Llama3.1 são multilíngues e têm uma comprida consideravelmente maior capacidade de contexto de 128K, uso de ferramentas de ponta e capacidades de raciocínio mais fortes em geral.

Os modelos Llama 3.2 3B suportam comprimento de contexto de 128K tokens e são os mais avançados de sua categoria para casos de uso local, como resumo, execução de instruções e tarefas de reescrita, rodando localmente na borda.

Os modelos Llama 4 são modelos de linguagem auto-regressivos que utilizam uma arquitetura de mistura-de-especialistas (MoE) e incorporam fusão precoce para multimodalidade nativa.

Llama3 é o último modelo de linguagem grande de código aberto da Meta, treinado em um corpus de 15T, suporta uma extensão de contexto de 8K e foi otimizado para eficácia e segurança.

O modelo de Linguagem Grande Mixtral-8x7B (LLM) é um modelo pré-treinado gerador de Especialistas Esparsos Misturados. O Mistral-8x7B supera o Llama 2 70B em a maioria dos benchmarks que testamos.

Llama 3.1 405B é o primeiro modelo amplamente disponível que rivaliza com os principais modelos de IA em termos de capacidades de ponta em conhecimento geral, controlabilidade, matemática, uso de ferramentas e tradução multilíngue.

A Llama3.1 são multilíngues e têm uma extensa janela de contexto de 128K, uso avançado de ferramentas e capacidades de raciocínio mais robustas.

O Modelo de Linguagem Grande Mixtral-8x7B (LLM) é um modelo pré-treinado gerador de Especialistas Esparsos Misturados. O Mistral-8x7B supera o Llama 2 70B em a maioria dos benchmarks que testamos.

Os modelos Llama 4 são modelos de linguagem auto-regressivos que utilizam uma arquitetura de mistura-de-especialistas (MoE) e incorporam a fusão precoce para multimodalidade nativa.

Llama3.1 são multilíngues e possuem uma extensa janela de contexto de 128K, ferramentas de ponta no uso e capacidades de raciocínio mais robustas em geral.

Llama3.1 são multilíngues e têm uma comprimento de contexto significativamente maior de 128K, uso de ferramentas de última geração e capacidades gerais de raciocínio mais fortes.

Os modelos Llama 3.2 3B suportam comprimento de contexto de 128K tokens e são líderes em sua categoria para casos de uso local, como resumo, seguimento de instruções e tarefas de reescrita executadas localmente na borda.

Llama3.1 são multilíngues e têm uma comprimento de contexto significativamente maior de 128K, uso de ferramentas de ponta e capacidades de raciocínio mais fortes no geral.

Perfil pessoal

Focado nas capacidades multilíngues do LLaMA e na curadoria de conjuntos de dados.

De volta ao topo
OR