Mark Zuckerberg - 頂尖 AI 領袖與創新者|個人簡介、里程碑與專案 - xix.ai
選項

發現高質量的人工智能工具

將全球領先的人工智能工具聚集在一起,以幫助提高工作效率

搜索al工具…
首頁
AI 名人
Mark Zuckerberg
Mark Zuckerberg

Mark Zuckerberg

Meta執行長
出生年份  1984
國籍  American

重要里程碑

2004 Facebook 創立

創立了Facebook,Meta的前身

2013 Meta AI實驗室創建

建立Meta AI研究部門

2023 LLaMA發布

為研究目的推出LLaMA

AI 產品

Llama 4 模型是自回归语言模型,采用专家混合(MoE)架构,并融入早期融合技术以实现原生多模态能力。

Llama3.1 是多语言模型,具有显著更长的上下文长度 128K,最先进的工具使用能力以及整体更强的推理能力。

Llama 3.1 405B 是首个在普通知识、可控性、数学、工具使用和多语言翻译等前沿能力方面可与顶级 AI 模型相媲美的开源模型。

Llama 3.2 3B 模型支持长达 128K 个标记的上下文长度,并且在其设备端应用场景(如摘要、指令跟随和重写任务在边缘本地运行)方面处于同类产品的领先地位。

Llama3.1 支持多语言,并且具有显著更长的上下文长度 128K,最先进的工具使用能力以及整体更强的推理能力。

Llama3 是 Meta 的最新开源大型语言模型,基于 15T 的语料库进行训练,支持 8K 的上下文长度,并针对有效性和安全性进行了优化。

Llama 3.1 405B 是第一个在普通知识、可控性、数学、工具使用和多语言翻译等尖端能力方面可与顶级 AI 模型相媲美的公开可用模型。

Llama3.1 支持多语言,并且具有显著更长的上下文长度 128K,最先进的工具使用能力以及整体更强的推理能力。

Llama3.1 是多语言模型,具有显著更长的上下文长度 128K,最先进的工具使用能力以及整体更强的推理能力。

Llama 3.2 3B 模型支持长达 128K 个标记的上下文长度,并且在其设备端应用场景(如摘要、指令跟随和重写任务在边缘本地运行)中处于同类产品的领先地位。

Llama 4 模型是自回归语言模型,采用专家混合(MoE)架构,并结合早期融合实现原生多模态。

Llama3 是 Meta 的最新开源大型语言模型,基于 15T 的语料库训练,支持 8K 的上下文长度,并针对有效性和安全性进行了优化。

Mixtral-8x7B 大型语言模型(LLM)是一个预训练的生成式稀疏专家混合模型。我们在大多数测试的基准上发现 Mistral-8x7B 的表现优于 Llama 2 70B。

Llama 3.1 405B 是首个在普通知识、可控性、数学、工具使用和多语言翻译等前沿能力方面可与顶级 AI 模型相媲美的公开可用模型。

Llama3.1 支持多语言,并且具有显著更长的上下文长度 128K,最先进的工具使用能力以及整体更强的推理能力。

Mixtral-8x7B 大型语言模型(LLM)是一个预训练的生成式稀疏专家混合模型。我们在测试的大多数基准上发现 Mistral-8x7B 的表现优于 Llama 2 70B。

Llama 4 模型是自回归语言模型,采用混合专家(MoE)架构,并结合早期融合实现原生多模态。

Llama3.1 是多语言模型,具有显著更长的上下文长度 128K,最先进的工具使用能力以及整体更强的推理能力。

Llama3.1 是多语言模型,具有显著更长的上下文长度 128K,最先进的工具使用能力以及整体更强的推理能力。

Llama 3.2 3B 模型支持长达 128K 个标记的上下文长度,并且在本地边缘运行的摘要、指令跟随和重写任务等设备端应用场景中处于同类产品的领先地位。

Llama3.1 是多语言的,具有显著更长的上下文长度 128K,最先进的工具使用能力,以及整体更强的推理能力。

個人簡介

推動Meta平台的人工智能整合,包括社交媒體和虛擬實境

回到頂部
OR