Option
Heim
Liste der Al -Modelle
Mixtral-8x7B-Instruct-v0.1
Modelleinführung
Das Mixtral-8x7B-Großmodell (LLM) ist ein prätrainiertes generatives Sparse-Mixture-of-Experts-Modell. Das Mistral-8x7B übertrifft Llama 2 70B in den meisten Benchmarks, die wir getestet haben.
Nach links und rechts swipen, um mehr anzuzeigen
Sprachverständnisfähigkeit Sprachverständnisfähigkeit
Sprachverständnisfähigkeit
Fehleinschätzt häufig semantische Fehleinschätzungen, was zu offensichtlichen logischen Trennungen in Antworten führt.
3.6
Wissensabdeckung Wissensabdeckung
Wissensabdeckung
Hat bedeutende kenntnisgebende Flecken, die häufig sachliche Fehler zeigt und veraltete Informationen wiederholt.
5.0
Argumentationsfähigkeit Argumentationsfähigkeit
Argumentationsfähigkeit
Es ist nicht möglich, kohärente Argumentationsketten aufrechtzuerhalten und häufig invertierte Kausalität oder Fehlkalkulationen zu verursachen.
2.8
Verwandter Modell
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 ist ein fortschrittliches dichtes großes Sprachmodell (LLM) mit 123 Milliarden Parametern und führenden Fähigkeiten im Schließen von Schlüssen, Wissen und Codierung, das Mistral-Large-Instruct-2407 mit verbesserten Langkontext-Funktionen, Funktionenaufruf und Systemprompt ausbaut.
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 ist ein fortschrittliches dichtes großes Sprachmodell (LLM) mit 123 Milliarden Parametern und bahnbrechenden Fähigkeiten im Schließen von Schlüssen, Wissen und Codierung, das Mistral-Large-Instruct-2407 durch verbesserte Langkontextunterstützung, Funktionenaufruf und Systemprompt erweitert.
Mistral-Small-Instruct-2409 Mit 22 Milliarden Parametern bietet Mistral Small v24.09 Kunden einen praktischen Mittelpunkt zwischen Mistral NeMo 12B und Mistral Large 2 und bietet eine kostengünstige Lösung, die auf verschiedenen Plattformen und in verschiedenen Umgebungen bereitgestellt werden kann.
Mistral-Small-Instruct-2409 Mit 22 Milliarden Parametern bietet der Mistral Small v24.09 den Kunden einen praktischen Mittelpunkt zwischen dem Mistral NeMo 12B und dem Mistral Large 2 und bietet eine kostengünstige Lösung, die auf verschiedenen Plattformen und in verschiedenen Umgebungen bereitgestellt werden kann.
Ministral-8B-Instruct-2410 Das Ministral-8B-Instruct-2410-Sprachmodell ist ein durch Anweisungen stark verbessertes Modell, das bestehende Modelle ähnlicher Größe deutlich übertreffen und unter der Mistral Research-Lizenz veröffentlicht wurde.
Relevante Dokumente
Equals: KI-gesteuertes Tabellentool optimiert Datenanalyse & Automatisierung Kämpfen Sie mit umständlichen Tabellenkalkulationsformeln und manueller Datenverarbeitung? Stellen Sie sich eine intelligente Lösung vor, bei der Datenanalyse durch Automatisierung mühelos wird und mit einfachen Befehlen umsetzbare Erkenntnisse liefe
KI-Agenten ohne Code lassen jeden sofort virale POV-Videos erstellen Das digitale Zeitalter verlangt nach fesselnden Inhalten, die das Publikum in ihren Bann ziehen, insbesondere durch die fesselnde Kraft von Point-of-View-Video-Storytelling. Entdecken Sie, wie die Kom
Microsoft vereint Windows- und Xbox-Funktionen für tragbare PC-Spieleerlebnisse Microsoft hat sich mit Asus zusammengetan, um zwei bahnbrechende ROG Xbox Ally Handheld-Gaminggeräte vorzustellen, die eine innovative Vollbild-Xbox-Oberfläche einführen, die speziell für das portable Spielen optimiert ist. Nach früheren Zusagen, Xbo
AI Charm Show enthüllt Geheimnisse für mehr Schönheit und Selbstvertrauen Willkommen zur AI Charm Show, wo wir die faszinierende Synergie zwischen künstlicher Intelligenz und persönlicher Anziehungskraft erforschen. Unser Fokus liegt nicht nur auf oberflächlicher Schönheit,
Google Gemini fügt eine assistentenähnliche Funktion zur Aufgabenplanung hinzu Google erweitert die Fähigkeiten von Gemini weiter und führt exklusiv für AI Pro- und AI Ultra-Abonnenten eine leistungsstarke Funktion für geplante Aktionen" ein. Diese innovative Funktion verwandelt
Modellvergleich
Starten Sie den Vergleich
Zurück nach oben
OR