Marie-Anne Lachaux - トップAIリーダー&イノベーター|プロフィール、節目、プロジェクト - xix.ai
オプション

高品質のAIツールを発見します

世界をリードする人工知能ツールを集めて、作業効率を向上させるのに役立ちます

ALツールを検索します…
AI著名人
Marie-Anne Lachaux
Marie-Anne Lachaux

Marie-Anne Lachaux

Meta AI 研究者
生年  1990
国籍  French

重要な節目

2018年にMeta AIに参加

MetaでNLP研究を開始

2023 LLaMA論文

共同執筆したLLaMA研究論文

2024 LLaMA 3.1 多言語対応

LLaMA 3.1の8言語に対するサポートの強化

AI製品

Llama 4モデルは、専門家の混合(MoE)アーキテクチャを使用し、ネイティブなマルチモーダル機能のために早期融合を取り入れた自己回帰型言語モデルです。

Llama3.1 はマルチリンガルで、大幅に長いコンテキスト長(128K)、最先端のツール利用能力、そして全体的な優れた推論能力を持っています。

Llama 3.1 405B は、汎用知識、操縦性、数学、ツール使用、多言語翻訳などの最先端能力においてトップのAIモデルと互角に戦える最初のオープンソースモデルです。

Llama 3.2 3B モデルは128Kトークンのコンテキスト長をサポートしており、要約、指示フォローやリライトなどのオンデバイス用途において、エッジでローカルに実行されるクラス最高の性能を発揮します。

Llama3.1 はマルチリンガルで、大幅に長いコンテキスト長(128K)、最先端のツール利用能力、そして全体的な優れた推論能力を備えています。

Llama3 は Meta の最新のオープンソース大規模言語モデルで、15兆単位のコーパスに基づいてトレーニングされ、8K のコンテキスト長をサポートし、効果と安全性の最適化が図られています。

Llama 3.1 405B は、汎用知識、操縦性、数学、ツール使用、多言語翻訳において最先端の能力でトップ AI モデルと競うことができる最初の公開利用可能なモデルです。

Llama3.1 はマルチリンガルで、大幅に長いコンテキスト長(128K)、最先端のツール利用能力、そして全体的により強力な推論能力を持っています。

Llama3.1 はマルチリンガルで、大幅に長いコンテキスト長(128K)、最先端のツール利用能力、そして全体的により強い推論能力を持っています。

Llama 3.2 3B モデルは128Kトークンのコンテキスト長をサポートしており、要約、指示フォローやリライトなどのオンデバイス利用において、エッジでローカルに実行されるタスクでクラス最高の性能を発揮します。

Llama 4 モデルは自動回帰言語モデルであり、専門家混合(MoE)アーキテクチャを使用し、ネイティブマルチモーダルを実現するために早期融合を組み込んでいます。

Llama3 は Meta の最新のオープンソース大規模言語モデルで、15兆単位のコーパスに基づいてトレーニングされ、8K のコンテキスト長をサポートし、効果と安全性に最適化されています。

Mixtral-8x7B ラージランゲージモデル(LLM)は事前学習済みの生成型スパース混合専門家モデルです。私たちがテストしたほとんどのベンチマークで、Mistral-8x7B は Llama 2 70B を上回りました。

Llama 3.1 405B は、汎知識、操縦性、数学、ツール使用、多言語翻訳における最先端の能力において、トップ AI モデルと互角に戦える最初の公開モデルです。

Llama3.1 はマルチリンガルで、大幅に長いコンテキスト長(128K)、最先端のツール利用能力、そして全体的な優れた推論能力を持っています。

Mixtral-8x7B 大規模言語モデル(LLM)は事前学習済みの生成型スparseな専門家ミックスモデルです。テストしたほとんどのベンチマークで、Mistral-8x7B は Llama 2 70B よりも優れています。

Llama 4 モデルは、混合専門家(MoE)アーキテクチャを使用した自己回帰言語モデルであり、ネイティブマルチモーダリティを実現するために早期融合を取り入れています。

Llama3.1 はマルチリンガルで、大幅に長いコンテキスト長(128K)、最先端のツール利用能力、そして全体的により強力な推論能力を持っています。

Llama3.1 はマルチリンガルで、大幅に長いコンテキスト長(128K)、最先端のツール利用能力、そして全体的に優れた推論能力を持っています。

Llama 3.2 3B モデルは128Kトークンのコンテキスト長をサポートしており、要約、指示フォローやリライトなどのタスクをエッジでローカルに実行するデバイス向けユースケースにおいてクラス最高の性能を発揮します。

Llama3.1 はマルチリンガルで、大幅に長いコンテキスト長(128K)、最先端のツール利用能力、そして全体的に優れた推論能力を持っています。

個人プロフィール

LLaMAの多言語機能とデータセットのキュレーションに注力

トップに戻ります
OR