Option
Heim
Liste der Al -Modelle
Mistral-Small-Instruct-2409

Mistral-Small-Instruct-2409

Vergleich hinzufügen
Vergleich hinzufügen
Modellparametermenge
22B
Modellparametermenge
Angehörige Organisation
Mistral AI
Angehörige Organisation
Open Source
Lizenztyp
Freigabezeit
17. September 2024
Freigabezeit

Modelleinführung
Mit 22 Milliarden Parametern bietet Mistral Small v24.09 Kunden einen praktischen Mittelpunkt zwischen Mistral NeMo 12B und Mistral Large 2 und bietet eine kostengünstige Lösung, die auf verschiedenen Plattformen und in verschiedenen Umgebungen bereitgestellt werden kann.
Nach links und rechts swipen, um mehr anzuzeigen
Sprachverständnisfähigkeit Sprachverständnisfähigkeit
Sprachverständnisfähigkeit
Fehleinschätzt häufig semantische Fehleinschätzungen, was zu offensichtlichen logischen Trennungen in Antworten führt.
4.2
Wissensabdeckung Wissensabdeckung
Wissensabdeckung
Hat bedeutende kenntnisgebende Flecken, die häufig sachliche Fehler zeigt und veraltete Informationen wiederholt.
6.3
Argumentationsfähigkeit Argumentationsfähigkeit
Argumentationsfähigkeit
Es ist nicht möglich, kohärente Argumentationsketten aufrechtzuerhalten und häufig invertierte Kausalität oder Fehlkalkulationen zu verursachen.
4.2
Modellvergleich
Verwandter Modell
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 ist ein fortschrittliches dichtes großes Sprachmodell (LLM) mit 123 Milliarden Parametern und führenden Fähigkeiten im Schließen von Schlüssen, Wissen und Codierung, das Mistral-Large-Instruct-2407 mit verbesserten Langkontext-Funktionen, Funktionenaufruf und Systemprompt ausbaut.
Mistral-Large-Instruct-2411 Mistral-Large-Instruct-2411 ist ein fortschrittliches dichtes großes Sprachmodell (LLM) mit 123 Milliarden Parametern und bahnbrechenden Fähigkeiten im Schließen von Schlüssen, Wissen und Codierung, das Mistral-Large-Instruct-2407 durch verbesserte Langkontextunterstützung, Funktionenaufruf und Systemprompt erweitert.
Mistral-Small-Instruct-2409 Mit 22 Milliarden Parametern bietet der Mistral Small v24.09 den Kunden einen praktischen Mittelpunkt zwischen dem Mistral NeMo 12B und dem Mistral Large 2 und bietet eine kostengünstige Lösung, die auf verschiedenen Plattformen und in verschiedenen Umgebungen bereitgestellt werden kann.
Ministral-8B-Instruct-2410 Das Ministral-8B-Instruct-2410-Sprachmodell ist ein durch Anweisungen stark verbessertes Modell, das bestehende Modelle ähnlicher Größe deutlich übertreffen und unter der Mistral Research-Lizenz veröffentlicht wurde.
Mixtral-8x22B-Instruct-v0.1 Mixtral 8x22B ist ein spärliches Mixture-of-Experts (SMoE)-Modell, das nur 39 Milliarden aktive Parameter aus einem Gesamtumfang von 141 Milliarden verwendet und damit eine bislang ungeahnte Kostenwirksamkeit für seine Größe bietet.
Relevante Dokumente
Google stellt KI-gestützte Tools für Gmail, Docs und Vids vor Google stellt KI-gestützte Workspace-Updates auf der I/O 2025 vorWährend seiner jährlichen Entwicklerkonferenz hat Google transformative KI-Verbesserungen für seine Workspace-Suite vorgestellt, die di
AWS bringt Bedrock AgentCore auf den Markt: Open-Source-Plattform für die Entwicklung von KI-Agenten für Unternehmen Hier ist der umgeschriebene HTML-Inhalt:AWS führt Bedrock AgentCore für KI-Agenten in Unternehmen ein Amazon Web Services (AWS) setzt voll auf KI-Agenten, die den Geschäftsbetrieb verändern, und stell
Akaluli AI Voice Recorder steigert die Produktivität und den Fokus effizienter In unseren hypervernetzten Arbeitsumgebungen wird es immer schwieriger, sich bei wichtigen Gesprächen zu konzentrieren. Der Akaluli AI Voice Recorder bietet eine innovative Lösung für dieses moderne D
Spotify erhöht Premium-Abonnementkosten in Märkten außerhalb der USA Spotify führt nur wenige Tage nach der Bekanntgabe seiner enttäuschenden Finanzergebnisse Preiserhöhungen für Abonnements in mehreren internationalen Märkten ein. Der Streaming-Riese bestätigte am Mon
Cairn RPG: Leicht zu erlernendes Tabletop-System für neue Spieler Sie wollen einen spannenden Einstieg in Tabletop-Rollenspiele, der Neulinge nicht überfordert? Stellen Sie sich vor, Sie organisieren mit zehn Anfängern in nur fünfzehn Minuten ein komplettes Abenteue
Modellvergleich
Starten Sie den Vergleich
Zurück nach oben
OR