opción
Hogar Flechas de navegación Lista de modelos AL Flechas de navegación DBRX-Instruct
Cantidad de parámetros del modelo
132B
Cantidad de parámetros del modelo
Organización afiliada
DataBricks
Organización afiliada
Código abierto
Tipo de licencia
Tiempo de lanzamiento
25 de marzo de 2024
Tiempo de lanzamiento
Introducción al modelo
DBRX-Instruct es un modelo MoE entrenado desde cero por DataBricks, utilizando un esquema de selección de 16 expertos eligiendo 4, con un recuento de parámetros activos de 36B. Se preentrenó en 12T tokens, con un contexto de 32K.
Capacidad de comprensión del lenguaje Capacidad de comprensión del lenguaje
Capacidad de comprensión del lenguaje
A menudo hace juicios mal semánticos, lo que lleva a obvias desconexiones lógicas en las respuestas.
3.8
Alcance de cobertura de conocimiento Alcance de cobertura de conocimiento
Alcance de cobertura de conocimiento
Tiene puntos ciegos de conocimiento significativo, a menudo que muestran errores objetivos y repitiendo información obsoleta.
5.9
Capacidad de razonamiento Capacidad de razonamiento
Capacidad de razonamiento
Incapaz de mantener cadenas de razonamiento coherentes, a menudo causando causalidad invertida o errores de cálculo.
2.6
Modelo relacionado
DBRX-Instruct DBRX-Instruct es un modelo MoE entrenado desde cero por DataBricks, utilizando un esquema de selección de 16 expertos eligiendo 4, con una cantidad de parámetros activos de 36B. Se preentrenó en 12T tokens, con soporte para un contexto de 32K.
Qwen2.5-7B-Instruct Así como Qwen2, los modelos de lenguaje Qwen2.5 admiten hasta 128K tokens y pueden generar hasta 8K tokens. También mantienen el soporte multilingüe para más de 29 idiomas, incluidos chino, inglés, francés, español, portugués, alemán, italiano, ruso, japonés, coreano, vietnamita, tailandés, árabe y más.
Doubao-1.5-thinking-pro-250415 El nuevo modelo de pensamiento profundo Doubao-1.5 se destaca en campos profesionales como las matemáticas, la programación, el razonamiento científico y tareas generales como la escritura creativa. Ha alcanzado o está cerca del nivel superior de la industria en varios benchmarks autoritarios como AIME 2024, Codeforces y GPQA.
Step-1-8K Step-1-8K es un modelo de API producido por Step Star, con el número de versión del modelo siendo step-1-8k.
GPT-4o-mini-20240718 GPT-4o-mini es un modelo de API producido por OpenAI, con el número de versión específico siendo gpt-4o-mini-2024-07-18.
Documentos relevantes
Google Gemini Code Assist mejora codificación IA con capacidades agentes Gemini Code Assist, el asistente de programación con IA de Google, está lanzando nuevas funciones "agénticas" en modo de vista previa. En la reciente conferencia Cloud Next, Google
Microsoft libera editor de texto CLI en Build Microsoft apuesta fuerte por el código abierto en Build 2025En la conferencia Build 2025, Microsoft realizó movimientos importantes en el mundo del código abierto, lanzando varias
OpenAI mejora el modelo de IA detrás de su Operator Agent OpenAI lleva a Operator al siguiente nivelOpenAI está dando una gran actualización a su agente de IA autónomo, Operator. Los próximos cambios significan que Operator pronto funcion
El fondo de futuro de IA de Google podría tener que proceder con cautela El nuevo programa de inversiones en IA de Google: un cambio estratégico ante la creciente escrutinización regulatoriaEl reciente anuncio de Google sobre la creación de su fondo de
AI YouTube MiniGnail Generator: aumente sus vistas de video El poder de la IA en la creación de miniatura de YouTube en el panorama digital de hoy, una cautivadora miniatura de YouTube es crucial para captar la atención de los espectadores. Con millones de videos compitiendo por clics, una miniatura llamativa puede marcar la diferencia. Los generadores de miniatura AI de YouTube se han convertido en un gam
Comparación de modelos
Comience la comparación
Volver arriba
OR