Hugo Touvron - Leaders et innovateurs IA | Profils, étapes clés & projets - xix.ai
option

Découvrez des outils AI de qualité

Rassemblez les principaux outils d'intelligence artificielle du monde pour aider à améliorer l'efficacité du travail

Rechercher des outils AL…
Maison
Célébrité de l’IA
Hugo Touvron
Hugo Touvron

Hugo Touvron

Chercheur scientifique, Meta AI
Année de naissance  1990
Nationalité  French

Étape importante

2018 Rejoint Meta AI

A commencé la recherche sur les grands modèles de langage chez Meta

Document LLaMA 2023

Document de recherche LLaMA co-rédigé sur les modèles de base efficaces

Développement de LLaMA 3.1 2024

A contribué à LLaMA 3.1, améliorant les capacités multilingues

Produit IA

Les modèles Llama 4 sont des modèles de langage auto-régressifs qui utilisent une architecture de mélange d'experts (MoE) et intègrent une fusion précoce pour une multimodalité native.

Llama3.1 sont multilingues, ont une longueur de contexte considérablement plus longue de 128K, un usage d'outils de pointe et des capacités de raisonnement globalement plus fortes.

Llama 3.1 405B est le premier modèle largement disponible qui rivalise avec les meilleurs modèles IA en termes de capacités de pointe en connaissance générale, de dirigibilité, de mathématiques, d’utilisation d’outils et de traduction multilingue.

Les modèles Llama 3.2 3B prennent en charge une longueur de contexte de 128K tokens et sont de pointe dans leur catégorie pour les cas d'utilisation sur appareil comme la résumé, l'exécution des instructions et les tâches de réécriture s'exécutant localement à la périphérie.

Llama3.1 sont multilingues et ont une longueur de contexte considérablement plus longue de 128K, des outils d'utilisation de pointe et des capacités de raisonnement globalement plus fortes.

Llama3 est le dernier modèle linguistique open source de Meta, entraîné sur un corpus de 15To, prenant en charge une longueur de contexte de 8K et optimisé pour l'efficacité et la sécurité.

Llama 3.1 405B est le premier modèle disponible publiquement qui rivalise avec les meilleurs modèles IA en termes de capacités de pointe en connaissance générale, contrôlabilité, mathématiques, utilisation d'outils et traduction multilingue.

Llama3.1 est multilingue, possède une longueur de contexte considérable de 128K, des compétences avancées dans l'utilisation d'outils et des capacités de raisonnement globalement plus fortes.

Llama3.1 sont multilingues et ont une longueur de contexte notable de 128K, des compétences avancées d’utilisation d’outils et une capacité générale de raisonnement plus forte.

Les modèles Llama 3.2 3B prennent en charge une longueur de contexte de 128K tokens et sont de premier plan dans leur catégorie pour les cas d'utilisation sur appareil tels que la synthèse, le suivi des instructions et les tâches de réécriture s'exécutant localement au niveau du bord.

Les modèles Llama 4 sont des modèles de langage auto-régressifs qui utilisent une architecture mixte d'experts (MoE) et intègrent une fusion précoce pour la multimodalité native.

Llama3 est le dernier modèle linguistique open source de Meta, formé sur un corpus de 15 To, prenant en charge une longueur de contexte de 8K et optimisé pour l'efficacité et la sécurité.

Le modèle de langue large Mixtral-8x7B (LLM) est un modèle pré-entraîné génératif de type Mélange d'Experts Sparse. Le Mistral-8x7B surpasse Llama 2 70B sur la plupart des benchmarks que nous avons testés.

Llama 3.1 405B est le premier modèle accessible au public qui rivalise avec les meilleurs modèles d'IA en termes de capacités de pointe en connaissance générale, de dirigibilité, de mathématiques, d'utilisation d'outils et de traduction multilingue.

Llama3.1 est multilingue, possède une longueur de contexte considérable de 128K, des compétences avancées en utilisation d'outils et une capacité de raisonnement globalement plus forte.

Le modèle de langue large Mixtral-8x7B (LLM) est un modèle pré-entraîné génératif de type Sparse Mixture of Experts. Le Mistral-8x7B surpasse Llama 2 70B sur la plupart des benchmarks que nous avons testés.

Les modèles Llama 4 sont des modèles de langage autoregressifs qui utilisent une architecture 'mixture-of-experts' (MoE) et intègrent une fusion précoce pour la multimodalité native.

Llama3.1 est multilingue, possède une longueur de contexte considérable de 128K, un usage d'outils de pointe et des capacités de raisonnement globalement plus fortes.

Llama3.1 sont multilingues et ont une longueur de contexte notable de 128K, des compétences avancées d'utilisation d'outils et une capacité générale de raisonnement renforcée.

Les modèles Llama 3.2 3B prennent en charge une longueur de contexte de 128K tokens et sont leaders dans leur catégorie pour les cas d'utilisation sur appareil tels que la synthèse, le suivi d'instructions et les tâches de réécriture s'exécutant localement au niveau du bord.

Llama3.1 sont multilingues, ont une longueur de contexte considérablement plus longue de 128K, des outils d'utilisation de pointe et des capacités de raisonnement globalement plus fortes.

Profil personnel

A dirigé des recherches sur les modèles LLaMA, en se concentrant sur l'entraînement efficace et la mise à l'échelle.

Retour en haut
OR