Marie-Anne Lachaux - 최고의 AI 리더 및 혁신가 | 프로필, 주요 이정표 및 프로젝트 - xix.ai
옵션

품질 AI 도구를 발견하십시오

업무 효율성을 향상시키는 데 도움이되는 세계 최고의 인공 지능 도구를 모으십시오.

AL 도구 검색…
AI 유명인
Marie-Anne Lachaux
Marie-Anne Lachaux

Marie-Anne Lachaux

메타 AI 연구원
출생 연도  1990
국적  French

중요한 이정표

2018년 Meta AI 가입

Meta에서 NLP 연구 시작

2023 LLaMA 논문

공동 저술한 LLaMA 연구 논문

2024 LLaMA 3.1 다국어

LLaMA 3.1의 8개 언어 지원 강화

AI 제품

Les modèles Llama 4 sont des modèles de langage auto-régressifs qui utilisent une architecture de mélange d'experts (MoE) et intègrent une fusion précoce pour une multimodalité native.

Llama3.1 sont multilingues, ont une longueur de contexte considérablement plus longue de 128K, un usage d'outils de pointe et des capacités de raisonnement globalement plus fortes.

Llama 3.1 405B est le premier modèle largement disponible qui rivalise avec les meilleurs modèles IA en termes de capacités de pointe en connaissance générale, de dirigibilité, de mathématiques, d’utilisation d’outils et de traduction multilingue.

Les modèles Llama 3.2 3B prennent en charge une longueur de contexte de 128K tokens et sont de pointe dans leur catégorie pour les cas d'utilisation sur appareil comme la résumé, l'exécution des instructions et les tâches de réécriture s'exécutant localement à la périphérie.

Llama3.1 sont multilingues et ont une longueur de contexte considérablement plus longue de 128K, des outils d'utilisation de pointe et des capacités de raisonnement globalement plus fortes.

Llama3 est le dernier modèle linguistique open source de Meta, entraîné sur un corpus de 15To, prenant en charge une longueur de contexte de 8K et optimisé pour l'efficacité et la sécurité.

Llama 3.1 405B est le premier modèle disponible publiquement qui rivalise avec les meilleurs modèles IA en termes de capacités de pointe en connaissance générale, contrôlabilité, mathématiques, utilisation d'outils et traduction multilingue.

Llama3.1 est multilingue, possède une longueur de contexte considérable de 128K, des compétences avancées dans l'utilisation d'outils et des capacités de raisonnement globalement plus fortes.

Llama3.1 sont multilingues et ont une longueur de contexte notable de 128K, des compétences avancées d’utilisation d’outils et une capacité générale de raisonnement plus forte.

Les modèles Llama 3.2 3B prennent en charge une longueur de contexte de 128K tokens et sont de premier plan dans leur catégorie pour les cas d'utilisation sur appareil tels que la synthèse, le suivi des instructions et les tâches de réécriture s'exécutant localement au niveau du bord.

Les modèles Llama 4 sont des modèles de langage auto-régressifs qui utilisent une architecture mixte d'experts (MoE) et intègrent une fusion précoce pour la multimodalité native.

Llama3 est le dernier modèle linguistique open source de Meta, formé sur un corpus de 15 To, prenant en charge une longueur de contexte de 8K et optimisé pour l'efficacité et la sécurité.

Le modèle de langue large Mixtral-8x7B (LLM) est un modèle pré-entraîné génératif de type Mélange d'Experts Sparse. Le Mistral-8x7B surpasse Llama 2 70B sur la plupart des benchmarks que nous avons testés.

Llama 3.1 405B est le premier modèle accessible au public qui rivalise avec les meilleurs modèles d'IA en termes de capacités de pointe en connaissance générale, de dirigibilité, de mathématiques, d'utilisation d'outils et de traduction multilingue.

Llama3.1 est multilingue, possède une longueur de contexte considérable de 128K, des compétences avancées en utilisation d'outils et une capacité de raisonnement globalement plus forte.

Le modèle de langue large Mixtral-8x7B (LLM) est un modèle pré-entraîné génératif de type Sparse Mixture of Experts. Le Mistral-8x7B surpasse Llama 2 70B sur la plupart des benchmarks que nous avons testés.

Les modèles Llama 4 sont des modèles de langage autoregressifs qui utilisent une architecture 'mixture-of-experts' (MoE) et intègrent une fusion précoce pour la multimodalité native.

Llama3.1 est multilingue, possède une longueur de contexte considérable de 128K, un usage d'outils de pointe et des capacités de raisonnement globalement plus fortes.

Llama3.1 sont multilingues et ont une longueur de contexte notable de 128K, des compétences avancées d'utilisation d'outils et une capacité générale de raisonnement renforcée.

Les modèles Llama 3.2 3B prennent en charge une longueur de contexte de 128K tokens et sont leaders dans leur catégorie pour les cas d'utilisation sur appareil tels que la synthèse, le suivi d'instructions et les tâches de réécriture s'exécutant localement au niveau du bord.

Llama3.1 sont multilingues, ont une longueur de contexte considérablement plus longue de 128K, des outils d'utilisation de pointe et des capacités de raisonnement globalement plus fortes.

개인 프로필

LLaMA의 다국어 기능과 데이터셋 큐레이션에 집중.

위로 돌아갑니다
OR