opción
Cantidad de parámetros del modelo
N/A
Cantidad de parámetros del modelo
Organización afiliada
Qihoo 360
Organización afiliada
Código cerrado
Tipo de licencia
Tiempo de lanzamiento
9 de abril de 2024
Tiempo de lanzamiento
Introducción al modelo
360GPT es un modelo de API producido por Qihoo 360, con el número de versión siendo 360gpt-pro.
Desliza hacia la izquierda y la derecha para ver más
Capacidad de comprensión del lenguaje Capacidad de comprensión del lenguaje
Capacidad de comprensión del lenguaje
A menudo hace juicios mal semánticos, lo que lleva a obvias desconexiones lógicas en las respuestas.
4.9
Alcance de cobertura de conocimiento Alcance de cobertura de conocimiento
Alcance de cobertura de conocimiento
Tiene puntos ciegos de conocimiento significativo, a menudo que muestran errores objetivos y repitiendo información obsoleta.
6.4
Capacidad de razonamiento Capacidad de razonamiento
Capacidad de razonamiento
Incapaz de mantener cadenas de razonamiento coherentes, a menudo causando causalidad invertida o errores de cálculo.
3.6
Modelo relacionado
Qwen2.5-7B-Instruct Así como Qwen2, los modelos de lenguaje Qwen2.5 admiten hasta 128K tokens y pueden generar hasta 8K tokens. También mantienen el soporte multilingüe para más de 29 idiomas, incluidos chino, inglés, francés, español, portugués, alemán, italiano, ruso, japonés, coreano, vietnamita, tailandés, árabe y más.
GPT-4o-mini-20240718 GPT-4o-mini es un modelo de API producido por OpenAI, con el número de versión específico siendo gpt-4o-mini-2024-07-18.
GPT-4o-mini-20240718 GPT-4o-mini es un modelo de API producido por OpenAI, con el número de versión específico siendo gpt-4o-mini-2024-07-18.
Gemini-2.5-Pro-Preview-05-06 Gemini 2.5 Pro es un modelo lanzado por el equipo de investigación en inteligencia artificial Google DeepMind, utilizando el número de versión Gemini-2.5-Pro-Preview-05-06.
DeepSeek-V2-Chat-0628 DeepSeek-V2 es un modelo de lenguaje de Mixture-of-Experts (MoE) potente, caracterizado por un entrenamiento económico y una inferencia eficiente. Cuenta con 236 mil millones de parámetros en total, de los cuales 21 mil millones están activos para cada token. En comparación con DeepSeek 67B, DeepSeek-V2 ofrece un mejor rendimiento, reduce en un 42,5% los costos de entrenamiento, disminuye el almacenamiento en caché KV en un 93,3% y mejora la capacidad máxima de generación hasta 5,76 veces.
Documentos relevantes
La revolución de la IA en la publicidad: Multiplique por 10 la creatividad en 2025 El panorama de la publicidad digital sigue evolucionando rápidamente, por lo que la innovación es imprescindible para el éxito competitivo. A medida que nos acercamos a 2025, la fusión de la inteligen
Los sistemas de contratación basados en IA revelan los sesgos ocultos que influyen en las decisiones de contratación Los sesgos ocultos en la contratación de IA: Cómo abordar la discriminación sistémica en los algoritmos de contrataciónIntroducciónLas herramientas de contratación impulsadas por IA prometen transform
Los datos de Ramp revelan un estancamiento en la adopción de la IA por parte de las empresas La adopción de la IA por parte de las empresas se estancaAunque al principio las empresas se apresuraron a implantar soluciones de inteligencia artificial, el entusiasmo parece estabilizarse a medida
Pokemon Rojo Fuego Kaizo Desafío IronMon: Reglas esenciales y estrategias ganadoras El desafío Pokemon Rojo Fuego Kaizo IronMon es una de las pruebas de habilidad definitivas de los videojuegos, un brutal guantelete que rompe con las estrategias Pokemon convencionales y obliga a los
Las herramientas de gestión de tareas basadas en IA maximizan la productividad y la eficiencia El futuro de la productividad: Gestión de tareas con IAEn nuestro panorama digital en constante aceleración, la gestión eficaz de las tareas se ha convertido en algo esencial para el éxito profesional
Comparación de modelos
Comience la comparación
Volver arriba
OR