Ana Rojo Echeburúa - Top-KI-Führungskräfte & Innovatoren | Profile, Meilensteine & Projekte - xix.ai
Option

Entdecken Sie qualitativ hochwertige KI -Werkzeuge

Bringen Sie die weltweit führenden Tools für künstliche Intelligenz zusammen, um die Arbeitseffizienz zu verbessern

Suche nach Al -Tools…
Heim
KI-Prominente
Ana Rojo Echeburúa
Ana Rojo Echeburúa

Ana Rojo Echeburúa

KI- und Datenspezialist, Alibaba Cloud
Geburtsjahr  unbekannt
Nationalität  Spanish

Wichtiger Meilenstein

2015 Doktorat in Angewandter Mathematik

Doktorat erworben, mit Fokus auf datengetriebene KI-Lösungen

2020 Alibaba Cloud beigetreten

Begann an der Entwicklung und Bereitstellung von KI-Modellen zu arbeiten

2024 Qwen-Agent Framework

Beigetragen zum Qwen-Agent Framework für LLM-Anwendungen

KI-Produkt

Qwen3 是 Qwen 系列的最新一代大型語言模型,提供了一套全面的密集和專家混合(MoE)模型。

Qwen3 是 Qwen 系列的最新一代大型語言模型,提供全面的密集型與專家混合(MoE)模型套件。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還持續支援超過29種語言,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等。

Qwen3 是 Qwen 系列中的最新一代大型語言模型,提供一系列密集型和混合專家(MoE)模型。

Qwen1.5 是 Qwen2 的測試版本,仍然採用解碼器-only 的 Transformer 架構模型,具備 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種不同的模型大小,並增強了多語言和聊天模型的能力,支援高達 32,768 個標記的上下文長度。所有模型都啟用了角色扮演的系統提示,程式碼在 transformers 中原生支援實現。

Qwen1.5 是 Qwen2 的測試版本,保持了解碼器-only 變壓器模型架構,具有 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種模型大小,並增強了多語言和聊天模型能力,支援 32,768 個標記的上下文長度。所有模型均已啟用角色扮演的系統提示,程式碼在 transformers 中支援本地實現。

Qwen1.5 是 Qwen2 的測試版本,保留了解碼器-only 變壓器模型架構,具有 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種模型大小,並增強了多語言和對話模型的功能,支援長達 32,768 個標記的上下文長度。所有模型均已啟用角色扮演的系統提示,代碼在 transformers 中支援原生實現。

Qwen-Max 是阿里巴巴推出的 API 模型。這是 0428 版本。

Qwen3 是 Qwen 系列中最新一代的大語言模型,提供了一系列密集型和專家混合(MoE)模型的綜合套件。

Qwen3 是 Qwen 系列中最新一代的大語言模型,提供了一系列密集型和混合專家模型(MoE)。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還支援超過29種語言的多語言功能,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等。

Qwen-Max 是阿里巴巴推出的 API 模型。這是 0428 版本。

Qwen1.5 是 Qwen2 的測試版本,仍然採用解碼器-only 的 Transformer 架構,包含 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種模型大小,並增強了多語言和聊天模型能力,支持長達 32,768 個標記的上下文長度。所有模型均已啟用角色扮演的系統提示,並且代碼在 transformers 中支援原生實現。

Qwen2 是 Qwen 大型語言模型的新系列。

Qwen2 是 Qwen 系列大語言模型的新一代。

Qwen 2.5 Max 是一個大規模的 MoE(專家混合)模型,經過超過 20 兆個标记的預訓練數據以及精心設計的後訓練方案進行訓練。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還維持對超過29種語言的多語言支援,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還支援超過29種語言的多語言處理,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等。

QwQ-32B-Preview 是由 Qwen 團隊開發的實驗研究模型,專注於提升 AI 推理能力。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還支援超過29種語言,包括中文、英文、法文、西班牙文、葡萄牙文、德文、義大利文、俄文、日文、韓文、越南文、泰文、阿拉伯文等。

Qwen1.5 是 Qwen2 的測試版本,保持了解碼器-only 變換架構模型,具有 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種模型大小,並增強了多語言和聊天模型能力,支援 32,768 個標記的上下文長度。所有模型均已啟用角色扮演系統提示,程式碼在 transformers 中支援本地實現。

與Qwen2一樣,Qwen2.5語言模型支援高達128K個tokens,並且可以生成高達8K個tokens。它們還支援超過29種語言的多語言處理,包括中文、英文、法語、西班牙語、葡萄牙語、德語、義大利語、俄語、日語、韓語、越南語、泰語、阿拉伯語等。

Qwen1.5 是 Qwen2 的測試版本,保持了解碼器-only 的 Transformer 架構,具有 SwiGLU 激活函數、RoPE 和多頭注意力機制。它提供了九種模型大小,並增強了多語言和聊天模型的功能,支持長達 32,768 個標記的上下文長度。所有模型均已啟用角色扮演的系統提示,代碼在 transformers 中支援本地實現。

Persönliches Profil

Trägt mit Fachwissen in angewandter Mathematik und generativer KI zur Entwicklung von Qwen bei.

Zurück nach oben
OR