InternLM2-Chat-20B
20B
Параметр модели
Shanghai AI Laboratory
Аффилированная организация
Открытый исходный код
Тип лицензии
10 января 2024 г.
Время выпуска
Введение модели
Вторая версия модели InternLM, InternLM2, включает модели двух масштабов: 7B и 20B.
Комплексная оценка
Языковый диалог
Запас знаний
Ассоциация рассуждений
Математический расчет
Написание кода
Команда следующей


Способность к пониманию языка
Часто делает семантические ошибки, что приводит к очевидным логическим отключениям в ответах.
5.1


Объем знаний
Имеет значительные знания слепых пятен, часто показывающих фактические ошибки и повторяющуюся устаревшую информацию.
5.9


Способность рассуждать
Невозможно поддерживать последовательные сети рассуждений, часто вызывая инвертированную причинность или просчеты.
2.6
Сравнение модели
InternLM2-Chat-20B vs Qwen2.5-7B-Instruct
Как и Qwen2, модели языка Qwen2.5 поддерживают до 128K токенов и могут генерировать до 8K токенов. Они также сохраняют мультиязычную поддержку более чем для 29 языков, включая китайский, английский, французский, испанский, португальский, немецкий, итальянский, русский, японский, корейский, вьетнамский, тайский, арабский и другие.
InternLM2-Chat-20B vs Doubao-1.5-thinking-pro-250415
Новый глубокий мыслительный модель Doubao-1.5 показывает отличные результаты в профессиональных областях, таких как математика, программирование, научное reasoning, а также в общей задаче, такой как творческая письменная работа. Она достигла или находится на уровне промышленного лидера на нескольких авторитетных benchmarkах, таких как AIME 2024, Codeforces и GPQA.
InternLM2-Chat-20B vs Step-1-8K
Step-1-8K - это модель API, созданная компанией Step Star, версия модели - step-1-8k.
Связанная модель
InternLM2-Chat-20B
Второе поколение модели InternLM, InternLM2, включает модели двух масштабов: 7B и 20B.
InternLM2.5-Chat-7B
Вторая пятая версия модели InternLM, InternLM2.5, включает модели трех масштабов: 1,8 млрд, 7 млрд и 20 млрд параметров.
InternLM3-8B-Instruct
InternLM3-8B-Instruct — это высокопроизводительная модель с низкой стоимостью, содержащая 8 миллиардов параметров, разработанная для сложногоreasoning и гладкого взаимодействия, поддерживающая продвинутые задачиreasoning и знаниевые приложения через глубокое мышление и нормальный режим ответа.
InternLM2.5-Chat-7B
Вторая пятая версия модели InternLM, InternLM2.5, включает модели трех масштабов: 1,8 млрд, 7 млрд и 20 млрд.
InternLM2.5-Chat-7B
Вторая пятая версия модели InternLM, InternLM2.5, включает модели трех размеров: 1,8 млрд, 7 млрд и 20 млрд параметров.
Соответствующие документы
Google Gemini Code Assist улучшает AI-кодирование с агентскими функциями
Gemini Code Assist — новый "агентный" функционал в режиме превьюGoogle представил обновление своего ИИ-помощника для разработчиков Gemini Code Assist с революционными «агентными» в
Microsoft открывает исходный код CLI-редактора на Build
Microsoft делает ставку на open-source на конференции Build 2025На ежегодной конференции Build 2025 Microsoft совершила серьезные шаги в мире open-source, выпустив несколько ключев
OpenAI улучшает ИИ-модель, лежащую в основе Operator Agent
OpenAI выводит Operator на новый уровеньOpenAI представляет масштабное обновление для своего автономного ИИ-агента Operator. В скором времени Operator перейдет на модель o3 — одну
Фонд будущего ИИ Google, возможно, должен действовать осторожно
Инвестиционная инициатива Google в области ИИ: стратегический поворот на фоне регуляторного вниманияОбъявление Google о создании фонда AI Futures Fund является смелым шагом в стрем
AI YouTube Thumbnail Generator: Увеличьте просмотры видео
Сила ИИ В The YouTube Thumbnail Creationin Today Digital Landscape, очаровательная миниатюра YouTube имеет решающее значение для привлечения внимания зрителей. С миллионами видео, конкурирующих за клики, поразительная миниатюра может иметь все значение. AI YouTube Миниатюрные генераторы появились как GAM