Mark Zuckerberg - Principales líderes e innovadores de IA | Perfiles, hitos y proyectos - xix.ai
opción

Descubre herramientas de IA de calidad

Reúna las principales herramientas de inteligencia artificial del mundo para ayudar a mejorar la eficiencia laboral

Buscar herramientas de Al…
Hogar
Celebridad de IA
Mark Zuckerberg
Mark Zuckerberg

Mark Zuckerberg

Director Ejecutivo, Meta
Año de nacimiento  1984
Nacionalidad  American

Hito importante

Fundación de Facebook 2004

Fundó Facebook, precursor de Meta

Creación del Laboratorio de IA de Meta 2013

División de investigación de IA de Meta establecida

Lanzamiento de LLaMA 2023

Lanzado LLaMA para fines de investigación

Producto de IA

Die Llama-4-Modelle sind autoregressive Sprachmodelle, die eine Mixture-of-Experts (MoE)-Architektur verwenden und eine frühe Fusion für native Multimodalität integrieren.

Llama3.1 sind mehrsprachig und haben eine erheblich längere Kontextlänge von 128K, fortschrittliche Werkzeugnutzung und insgesamt stärkere Argumentationsfähigkeiten.

Das Llama 3.1 405B ist das erste öffentlich verfügbare Modell, das bei allgemeinem Wissen, Steuerbarkeit, Mathematik, Werkzeugnutzung und mehrsprachiger Übersetzung den Spitzen-Leistungsfähigkeiten der besten AI-Modelle gleichkommt.

Die Llama 3.2 3B-Modelle unterstützen eine Kontextlänge von 128K Tokens und gehören zu den modernsten ihrer Klasse für On-Device-Anwendungen wie Zusammenfassung, Anweisungsnachvollzug und Rewriting-Aufgaben, die lokal am Edge ausgeführt werden.

Llama3.1 sind mehrsprachig und haben eine deutlich längere Kontextlänge von 128K, avantgardistische Werkzeugnutzung und insgesamt stärkere Schlussfolgerungsvermögen.

Llama3 ist das neueste Open-Source-Großsprachmodell von Meta, das auf einem 15-Terabyte-Korpus trainiert wurde, einen Kontext von 8K unterstützt und für Effizienz und Sicherheit optimiert wurde.

Llama 3.1 405B ist das erste öffentlich verfügbare Modell, das bei allgemeinem Wissen, Steuerbarkeit, Mathematik, Werkzeugnutzung und mehrsprachiger Übersetzung den besten AI-Modellen gleichwertig ist.

Die Llama3.1 sind mehrsprachig und haben eine signifikant längere Kontextlänge von 128K, avantgardistische Werkzeugnutzung und insgesamt stärkere Argumentationsfähigkeiten.

Llama3.1 sind mehrsprachig und haben eine deutlich längere Kontextlänge von 128K, Spitzenfähigkeiten bei der Nutzung von Tools sowie insgesamt stärkere Schlussfolgerungsvermögen.

Die Llama 3.2 3B-Modelle unterstützen eine Kontextlänge von 128K Tokens und gehören zu den fortschrittlichsten ihrer Klasse für On-Device-Anwendungen wie Zusammenfassung, Anweisungsnachfolge und Rewriting-Tasks, die lokal am Edge ausgeführt werden.

Die Llama 4 Modelle sind autoregressive Sprachmodelle, die eine Mixture-of-Experts (MoE) Architektur verwenden und frühe Fusion für native Multimodalität integrieren.

Llama3 ist das neueste Open-Source-Großsprachmodell von Meta, das auf einem 15-Terabyte-Korpus trainiert wurde, einen Kontextlänge von 8K unterstützt und für Effizienz und Sicherheit optimiert wurde.

Das Mixtral-8x7B-Großmodell (LLM) ist ein vortrainiertes generatives Sparse-Mixture-of-Experts-Modell. Das Mistral-8x7B übertrifft bei den meisten Benchmarks, die wir getestet haben, Llama 2 70B.

Llama 3.1 405B ist das erste öffentlich verfügbare Modell, das bei allgemeinem Wissen, Steuerbarkeit, Mathematik, Werkzeugnutzung und mehrsprachiger Übersetzung den Spitzen-KI-Modellen gleichwertig ist.

Die Llama3.1 sind mehrsprachig und haben eine deutlich längere Kontextlänge von 128K, fortschrittliche Werkzeugnutzung und insgesamt stärkere Argumentationsfähigkeiten.

Das Mixtral-8x7B-Großmodell (LLM) ist ein prätrainiertes generatives Sparse-Mixture-of-Experts-Modell. Das Mistral-8x7B übertrifft Llama 2 70B in den meisten Benchmarks, die wir getestet haben.

Die Llama 4 Modelle sind auto-regressive Sprachmodelle, die eine Mischung von Experten (MoE) Architektur verwenden und frühzeitige Fusion für native Multimodalität integrieren.

Llama3.1 sind mehrsprachig und haben eine signifikant längere Kontextlänge von 128K, avantgardistische Werkzeugnutzung und insgesamt stärkere Schlussfolgerungsvermögen.

Llama3.1 sind mehrsprachig und haben eine deutlich längere Kontextlänge von 128K, avantgardistische Werkzeugnutzung und insgesamt stärkere Argumentationsfähigkeiten.

Die Llama 3.2 3B-Modelle unterstützen eine Kontextlänge von 128K Tokens und sind in ihrer Klasse für lokal ausführende Anwendungsfälle wie Zusammenfassungen, Anweisungsnachfolge und Umformulierungsaufgaben am Edge-Leisten.

Llama3.1 sind mehrsprachig und haben eine deutlich längere Kontextlänge von 128K, avantgardistische Werkzeugnutzung und insgesamt stärkere Argumentationsfähigkeiten.

Perfil personal

Impulsa la integración de IA en las plataformas de Meta, incluyendo redes sociales y realidad virtual.

Volver arriba
OR