Mark Zuckerberg - Leaders et innovateurs IA | Profils, étapes clés & projets - xix.ai
option

Découvrez des outils AI de qualité

Rassemblez les principaux outils d'intelligence artificielle du monde pour aider à améliorer l'efficacité du travail

Rechercher des outils AL…
Maison
Célébrité de l’IA
Mark Zuckerberg
Mark Zuckerberg

Mark Zuckerberg

PDG, Meta
Année de naissance  1984
Nationalité  American

Étape importante

Fondation de Facebook en 2004

A fondé Facebook, précurseur de Meta

Création du laboratoire Meta AI 2013

Division de recherche Meta AI établie

Lancement de LLaMA 2023

Lancé LLaMA à des fins de recherche

Produit IA

Llama 4 모델은 전문가 혼합(MoE) 아키텍처를 사용하고 네이티브 다중 모달성을 위해 초기 융합을 통합한 오토리그레시브 언어 모델입니다.

Llama3.1은 다국어를 지원하며 128K의 훨씬 긴 컨텍스트 길이, 최첨단 도구 사용 능력, 그리고 전체적으로 더 강력한 추론 능력을 가지고 있습니다.

Llama 3.1 405B는 일반 지식, 조종 가능성, 수학, 도구 사용, 다국어 번역 등 최첨단 능력에서 최고의 AI 모델들과 경쟁할 수 있는 최초의 오픈 소스 모델입니다.

Llama 3.2 3B 모델은 128K 토큰의 컨텍스트 길이를 지원하며 요약, 명령 따르기, 재작성 작업 등 엣지에서 로컬로 실행되는 장치 내 사용 사례에서 클래스 최고의 성능을 발휘합니다.

Llama3.1은 다국어를 지원하며 훨씬 더 긴 컨텍스트 길이(128K), 최신 도구 사용 능력, 그리고 전체적으로 더 강력한 추론 능력을 가지고 있습니다.

Llama3은 Meta의 최신 오픈소스 대규모 언어 모델로, 15T의 코퍼스를 기반으로 훈련되었으며, 8K의 컨텍스트 길이를 지원하며 효율성과 안전성을 위해 최적화되었습니다.

Llama 3.1 405B 는 일반 지식, 조종 가능성, 수학, 도구 사용, 다국어 번역 등 최첨단 능력에서 최고의 AI 모델과 견줄 수 있는 첫 번째 공개적으로 이용 가능한 모델입니다.

Llama3.1은 다국어를 지원하며, 훨씬 더 긴 컨텍스트 길이(128K), 최첨단 도구 사용 능력, 그리고 전체적으로 더 강력한 추론 능력을 가지고 있습니다.

Llama3.1은 다국어를 지원하며 128K의 상당히 긴 컨텍스트 길이, 최첨단 도구 사용 능력, 그리고 전체적으로 더 강력한 추론 능력을 가지고 있습니다.

Llama 3.2 3B 모델은 128K 토큰의 컨텍스트 길이를 지원하며, 요약, 명령어 따르기 및 재작성 작업과 같은 엣지 환경에서 로컬로 실행되는 장치 내 사용 사례에서 클래스 최고의 성능을 제공합니다.

Llama 4 모델은 자동 역학 언어 모델로 전문가 혼합(MoE) 아키텍처를 사용하고 원생적 다중 모달성을 위해 초기 융합을 포함합니다.

Llama3 은 Meta 의 최신 오픈 소스 대규모 언어 모델로 15T 의 말뭉치를 기반으로 훈련되었으며 8K 의 컨텍스트 길이를 지원하며 효과적이고 안전하도록 최적화 되었습니다.

Mixtral-8x7B 대형 언어 모델(LLM)은 사전 훈련된 생성형 희소 전문가 혼합 모델입니다. 우리는 대부분의 테스트 벤치마크에서 Mistral-8x7B가 Llama 2 70B보다 우수하다는 것을 발견했습니다.

Llama 3.1 405B 은 일반 지식, 조정 가능성, 수학, 도구 사용, 다국어 번역 등 최신 능력에서 최고의 AI 모델들과 경쟁할 수 있는 첫 번째 공개적으로 이용 가능한 모델입니다.

Llama3.1은 다국어를 지원하며, 상당히 긴 컨텍스트 길이(128K), 최첨단 도구 사용 능력, 그리고 전체적으로 강력한 추론 능력을 가지고 있습니다.

Mixtral-8x7B 대형 언어 모델(LLM)은 사전 훈련된 생성형 희소 전문가 혼합 모델입니다. 우리는 대부분의 테스트 벤치마크에서 Mistral-8x7B가 Llama 2 70B보다 우수하다는 것을 확인했습니다.

Llama 4 모델은 혼합 전문가(MoE) 아키텍처를 사용하는 자기 회귀 언어 모델이며, 기본적인 멀티모달성을 위해 초기 융합을 통합합니다.

Llama3.1은 다국어를 지원하며 128K의 훨씬 긴 컨텍스트 길이, 최첨단 도구 사용 능력, 그리고 전반적으로 더 강력한 추론 능력을 가지고 있습니다.

Llama3.1은 다국어를 지원하며, 상당히 긴 컨텍스트 길이 128K, 최첨단 도구 사용 능력, 그리고 전체적으로 더 강력한 추론 능력을 가지고 있습니다.

Llama 3.2 3B 모델은 최대 128K 토큰의 컨텍스트 길이를 지원하며 요약, 명령어 따르기, 재작업 등의 엣지 환경에서 로컬로 실행되는 장치용 사례에서 해당 클래스에서 최고 수준의 성능을 제공합니다.

Llama3.1은 다국어를 지원하며, 128K의 훨씬 더 긴 컨텍스트 길이, 최첨단 도구 사용 능력, 그리고 전반적으로 더욱 강력한 추론 능력을 가지고 있습니다.

Profil personnel

Dirige l'intégration de l'IA dans les plateformes de Meta, y compris les réseaux sociaux et la réalité virtuelle.

Retour en haut
OR