Ana Rojo Echeburúa - Top-KI-Führungskräfte & Innovatoren | Profile, Meilensteine & Projekte - xix.ai
Option

Entdecken Sie qualitativ hochwertige KI -Werkzeuge

Bringen Sie die weltweit führenden Tools für künstliche Intelligenz zusammen, um die Arbeitseffizienz zu verbessern

Suche nach Al -Tools…
Heim
KI-Prominente
Ana Rojo Echeburúa
Ana Rojo Echeburúa

Ana Rojo Echeburúa

KI- und Datenspezialist, Alibaba Cloud
Geburtsjahr  unbekannt
Nationalität  Spanish

Wichtiger Meilenstein

2015 Doktorat in Angewandter Mathematik

Doktorat erworben, mit Fokus auf datengetriebene KI-Lösungen

2020 Alibaba Cloud beigetreten

Begann an der Entwicklung und Bereitstellung von KI-Modellen zu arbeiten

2024 Qwen-Agent Framework

Beigetragen zum Qwen-Agent Framework für LLM-Anwendungen

KI-Produkt

Qwen3 ist die neueste Generation von großen Sprachmodellen der Qwen-Serie und bietet eine umfassende Sammlung von dichten und Mixture-of-Experts (MoE) Modellen.

Qwen3 ist die neueste Generation von Large Language Models in der Qwen-Serie und bietet eine umfassende Suite aus dichten und Mixture-of-Experts (MoE)-Modellen.

Genau wie Qwen2 unterstützen die Qwen2.5-Sprachmodelle bis zu 128K Tokens und können bis zu 8K Tokens generieren. Sie unterstützen auch die Mehrsprachigkeit für über 29 Sprachen, darunter Chinesisch, Englisch, Französisch, Spanisch, Portugiesisch, Deutsch, Italienisch, Russisch, Japanisch, Koreanisch, Vietnamesisch, Thailändisch, Arabisch und mehr.

Qwen3 ist die neueste Generation großer Sprachmodelle der Qwen-Reihe und bietet eine umfassende Suite aus dichten und Mixture-of-Experts (MoE)-Modellen.

Qwen1.5 ist die Beta-Version von Qwen2 und behält die Architektur eines decoder-only Transformer-Modells mit SwiGLU-Aktivierung, RoPE und mehrköpfigen Aufmerksamkeitsmechanismen bei. Es bietet neun Modellgrößen und hat verbesserte Mehrsprachigkeits- und Chatmodell-Fähigkeiten, wobei eine Kontextlänge von 32.768 Tokens unterstützt wird. Alle Modelle haben System-Prompts für Rollenspiel aktiviert, und der Code unterstützt die native Implementierung in Transformers.

Qwen1.5 ist die Beta-Version von Qwen2 und behält die Architektur eines Decoder-Only-Transformers mit SwiGLU-Aktivierung, RoPE und Multi-Head-Attention-Mechanismen bei. Es bietet neun Modellgrößen und verbesserte Multilinguismus- und Chat-Modell-Fähigkeiten, wobei eine Kontextlänge von 32.768 Tokens unterstützt wird. Alle Modelle haben System-Prompts für Rollenspiele aktiviert, und der Code unterstützt eine native Implementierung in Transformers.

Qwen1.5 ist die Beta-Version von Qwen2 und behält seine Architektur als Decoder-Only Transformer-Modell mit SwiGLU-Aktivierung, RoPE und Multi-Head-Attention-Mechanismen bei. Es bietet neun Modellgrößen und hat verbesserte Mehrsprachigkeits- und Chatmodell-Fähigkeiten, wobei eine Kontextlänge von 32.768 Tokens unterstützt wird. Alle Modelle haben System-Prompts für Rollenspiel aktiviert, und der Code unterstützt die native Implementierung in Transformers.

Qwen-Max ist ein API-Modell, das von Alibaba hergestellt wurde. Dies ist Version 0428.

Qwen3 ist die neueste Generation von großen Sprachmodellen in der Qwen-Reihe und bietet ein umfassendes Paket aus dichten und Mischungsmodellen von Experten (MoE).

Qwen3 ist die neueste Generation großer Sprachmodelle in der Qwen-Reihe und bietet ein umfassendes Angebot an dichten und Mixture-of-Experts-(MoE)-Modellen.

Wie Qwen2 unterstützen die Qwen2.5-Sprachmodelle bis zu 128K Tokens und können bis zu 8K Tokens generieren. Sie unterstützen auch die Mehrsprachigkeit für über 29 Sprachen, darunter Chinesisch, Englisch, Französisch, Spanisch, Portugiesisch, Deutsch, Italienisch, Russisch, Japanisch, Koreanisch, Vietnamesisch, Thailändisch, Arabisch und mehr.

Qwen-Max ist ein API-Modell, das von Alibaba hergestellt wurde. Dies ist Version 0428.

Qwen1.5 ist die Beta-Version von Qwen2 und behält seine Architektur als decoder-only Transformer-Modell mit SwiGLU-Aktivierung, RoPE und Multi-Head-Attention-Mechanismen bei. Es bietet neun Modellgrößen und verbesserte Mehrsprachigkeits- und Chat-Modell-Fähigkeiten, wobei eine Kontextlänge von 32.768 Tokens unterstützt wird. Alle Modelle haben System-Prompts für Rollenspiele aktiviert, und das Code-Support-Native-Implementierung in Transformers.

Qwen2 ist die neue Serie von Qwen-Großsprachmodellen.

Qwen2 ist die neue Serie der großen Sprachmodelle von Qwen.

Qwen 2.5 Max ist ein großflächiges MoE-Modell (Mixture-of-Experts), das mit über 20 Billionen Tokens an Vorab-Trainingsdaten und einem sorgfältig konzipierten Nach-Trainingsschema trainiert wurde.

Genau wie Qwen2 unterstützen die Qwen2.5-Sprachmodelle bis zu 128K Tokens und können bis zu 8K Tokens generieren. Sie unterstützen auch mehrsprachige Unterstützung für über 29 Sprachen, darunter Chinesisch, Englisch, Französisch, Spanisch, Portugiesisch, Deutsch, Italienisch, Russisch, Japanisch, Koreanisch, Vietnamesisch, Thailändisch, Arabisch und mehr.

Genau wie Qwen2 unterstützen die Qwen2.5-Sprachmodelle bis zu 128K Tokens und können bis zu 8K Tokens generieren. Sie unterstützen auch die Mehrsprachigkeit für mehr als 29 Sprachen, darunter Chinesisch, Englisch, Französisch, Spanisch, Portugiesisch, Deutsch, Italienisch, Russisch, Japanisch, Koreanisch, Vietnamesisch, Thailändisch, Arabisch und mehr.

QwQ-32B-Preview ist ein experimentelles Forschungsmodell, das von der Qwen-Team entwickelt wurde und sich auf die Weiterentwicklung der AI-Reasoningfähigkeiten konzentriert.

Genau wie Qwen2 unterstützen die Qwen2.5-Sprachmodelle bis zu 128K Tokens und können bis zu 8K Tokens generieren. Sie unterstützen auch die Mehrsprachigkeit für über 29 Sprachen, darunter Chinesisch, Englisch, Französisch, Spanisch, Portugiesisch, Deutsch, Italienisch, Russisch, Japanisch, Koreanisch, Vietnamesisch, Thailändisch, Arabisch und mehr.

Qwen1.5 ist die Beta-Version von Qwen2 und behält seine Architektur als decoder-only Transformer-Modell mit SwiGLU-Aktivierung, RoPE und Multi-Head-Attention-Mechanismen bei. Es bietet neun Modellgrößen und hat verbesserte Mehrsprachigkeits- und Chat-Modell-Fähigkeiten, wobei eine Kontextlänge von 32.768 Tokens unterstützt wird. Alle Modelle haben system-Prompts für Rollenspiel aktiviert, und das Code-Support-Native-Implementierung in Transformers.

Genau wie Qwen2 unterstützen die Qwen2.5-Sprachmodelle bis zu 128K Tokens und können bis zu 8K Tokens generieren. Sie unterstützen auch mehr als 29 Sprachen, darunter Chinesisch, Englisch, Französisch, Spanisch, Portugiesisch, Deutsch, Italienisch, Russisch, Japanisch, Koreanisch, Vietnamesisch, Thailändisch, Arabisch und mehr.

Qwen1.5 ist die Beta-Version von Qwen2 und behält seine Architektur als Decoder-only Transformer-Modell mit SwiGLU-Aktivierung, RoPE und Multi-Head-Attention-Mechanismen bei. Es bietet neun Modellgrößen und hat verbesserte multilinguale und Chat-Modell-Fähigkeiten, wobei eine Kontextlänge von 32.768 Tokens unterstützt wird. Alle Modelle haben System-Prompts für Rollenspiel aktiviert, und der Code unterstützt eine native Implementierung in Transformers.

Persönliches Profil

Trägt mit Fachwissen in angewandter Mathematik und generativer KI zur Entwicklung von Qwen bei.

Zurück nach oben
OR