InternLM2-Chat-20B
20B
Quantité de paramètre de modèle
Shanghai AI Laboratory
Organisation affiliée
Source ouverte
Type de licence
10 janvier 2024
Temps de libération
Introduction du modèle
La deuxième génération du modèle InternLM, appelée InternLM2, comprend des modèles à deux échelles : 7B et 20B.
Score complet
Dialogue du langage
Réserve de connaissances
Association de raisonnement
Calcul mathématique
Écriture de code
Commande suivante


Capacité de compréhension du langage
Fait souvent des erreurs de jugement sémantique, conduisant à des déconnexions logiques évidentes dans les réponses.
5.1


Portée de la couverture des connaissances
A des angles morts de connaissances importantes, montrant souvent des erreurs factuelles et répétant des informations obsolètes.
5.9


Capacité de raisonnement
Incapable de maintenir des chaînes de raisonnement cohérentes, provoquant souvent une causalité inversée ou des erreurs de calcul.
2.6
Comparaison du modèle
InternLM2-Chat-20B vs Qwen2.5-7B-Instruct
Comme Qwen2, les modèles de langue Qwen2.5 prennent en charge jusqu'à 128K tokens et peuvent générer jusqu'à 8K tokens. Ils maintiennent également une prise en charge multilingue pour plus de 29 langues, y compris le chinois, l'anglais, le français, l'espagnol, le portugais, l'allemand, l'italien, le russe, le japonais, le coréen, le vietnamien, le thaï, l'arabe et bien d'autres.
InternLM2-Chat-20B vs Doubao-1.5-thinking-pro-250415
Le nouveau modèle de réflexion profonde Doubao-1.5 se distingue dans des domaines professionnels tels que les mathématiques, la programmation, la raisonnement scientifique, ainsi que dans des tâches générales comme l'écriture créative. Il a atteint ou est proche du niveau supérieur de l'industrie sur plusieurs benchmarks autorisés tels que AIME 2024, Codeforces et GPQA.
InternLM2-Chat-20B vs Step-1-8K
Step-1-8K est un modèle API produit par Step Star, le numéro de version du modèle est step-1-8k.
Modèle connexe
InternLM2-Chat-20B
La deuxième génération du modèle InternLM, InternLM2, comprend des modèles de deux tailles : 7B et 20B.
InternLM2.5-Chat-7B
La version 2.5 du modèle InternLM, InternLM2.5, comprend des modèles à trois échelles : 1,8 milliard, 7 milliards et 20 milliards de paramètres.
InternLM3-8B-Instruct
InternLM3-8B-Instruct est un modèle instructif à 8 milliards de paramètres de haute performance et faible coût, conçu pour le raisonnement complexe et une interaction fluide, soutenant des tâches de raisonnement avancé et des applications exigeant des connaissances grâce à un mode de réflexion approfondie et une réponse normale.
InternLM2.5-Chat-7B
La version 2.5 du modèle InternLM, appelée InternLM2.5, comprend des modèles à trois échelles : 1,8 milliard, 7 milliards et 20 milliards.
InternLM2.5-Chat-7B
La version 2.5 du modèle InternLM, InternLM2.5, comprend des modèles à trois échelles : 1,8 milliard, 7 milliards et 20 milliards.
Documents pertinents
Gemini Code Assist améliore le codage IA avec des fonctionnalités agentes
Gemini Code Assist, l'assistant de codage propulsé par l'IA de Google, déploie de nouvelles fonctionnalités "agentiques" en mode prévisualisation. Lors de la récente conférence Clo
Microsoft open-source un éditeur de texte CLI à Build
Microsoft mise tout sur l'open source à Build 2025Lors de la conférence Build 2025, Microsoft a opéré un virage majeur vers l'open source en dévoilant plusieurs outils clés, dont u
OpenAI améliore le modèle d'IA derrière son Operator Agent
OpenAI fait passer Operator au niveau supérieur OpenAI donne un sérieux coup de pouce à son agent autonome Operator. Les prochaines mises à jour permettront à Operator de s'appuye
Le fonds futur de l'IA de Google pourrait devoir avancer prudemment
L’Initiative d’Investissement en IA de Google : Un Changement Stratégique Face à une Surveillance RéglementaireL’annonce récente par Google de son fonds AI Futures marque un mouvem
Générateur de vignettes AI YouTube: Boostez vos vues vidéo
La puissance de l'IA dans la création de vignettes YouTube dans le paysage numérique d'aujourd'hui, une vignette YouTube captivante est cruciale pour attirer l'attention des téléspectateurs. Avec des millions de vidéos en concurrence pour les clics, une miniature frappante peut faire toute la différence. Les générateurs de vignettes AI YouTube ont émergé comme un GAM