डीप कोगिटो ने पहले ही सबसे ऊपर चार्ट पर खड़े होने वाले खोला स्रोत AI मॉडल जारी किए

डीप कॉगिटो ने क्रांतिकारी AI मॉडलों के साथ निकला है
एक ब्रेकथ्रू गतिविधि में, सैन फ्रांसिस्को में स्थित एक शीर्ष पंजीकृत AI अनुसंधान स्टारटअप, डीप कॉगिटो, ने अपनी पहली सीरीज़ के ओपन-सोर्स लार्ज लैंग्वेज मॉडल्स (LLMs), कोगिटो v1 को आधिकारिक रूप से लॉन्च किया है। ये मॉडल, मेटा के लामा 3.2 से फाइन-ट्यून किए गए हैं, मिश्रित रीजनिंग क्षमताओं को धारण करते हैं जो उन्हें त्वरित जवाब देने या स्व-परीक्षणीय सोच करने में सक्षम बनाते हैं—एक विशेषता जो ओपनAI की "o" श्रृंखला और डीपसीक R1 पर लगी हुई है।
डीप कॉगिटो का दृष्टिकोण है कि AI को सामान्य मानव नियंत्रण सीमाओं के पार पहुंचाने के लिए अपने मॉडलों में इटरेटिव स्व-सुधार को बढ़ावा देना। उनका अंतिम लक्ष्य? सुपरइंटेलिजेंस विकसित करना—मनुष्य की क्षमताओं के सभी क्षेत्रों में उन्नत AI। लेकिन कंपनी ने सुनिश्चित किया है कि सभी मॉडल ओपन-सोर्स रहेंगे।
ड्रिशन अरोरा, डीप कॉगिटो के सीईओ और सह-संस्थापक, गूगल में एक सीनियर सॉफ्टवेयर इंजीनियर थे, जहाँ वे गूगल के जनरेटिव सर्च उत्पाद के लिए LLMs के विकास में नेतृत्व प्रदान करते थे। वह X पर विश्वासपूर्ण रूप से कहते हैं कि ये मॉडल अपनी विशिष्ट आकार के लिए सबसे मजबूत ओपन मॉडल हैं, जो LLaMA, डीपसीक और Qwen जैसे प्रतिद्वंद्वियों से बेहतर प्रदर्शन करते हैं।
मॉडल सेट
प्रारंभिक पेशकश में पांच आधार आकारों—3 बिलियन, 8 बिलियन, 14 बिलियन, 32 बिलियन, और 70 बिलियन पैरामीटर—शामिल हैं और इन्हें पहले ही हगिंग फेस, ओलामा और फायरवर्क्स और टूगेथर AI के प्लेटफॉर्म जैसे प्लेटफॉर्मों पर उपलब्ध किया गया है। ये मॉडल लामा लाइसेंस की शर्तों के तहत कार्य करते हैं, जो अपर्याप्त 700 मिलियन मासिक उपयोगकर्ताओं तक का वाणिज्यिक उपयोग अनुमत करता है, बाद में मेटा से भुगतान लाइसेंस की आवश्यकता होगी।
डीप कॉगिटो ने भविष्य में बड़े मॉडल जारी करने की योजना बनाई है, जो कि शायद 671 बिलियन पैरामीटर तक पहुंच जाएगी।
ट्रेनिंग दृष्टिकोण: इटरेटेड डिस्टिलेशन और एम्प्लिफिकेशन (IDA)
अरोरा ने IDA, एक नवीन विधि पेश की, जो पारंपरिक रियल-टाइम लर्निंग फ्रॉम ह्यूमन फीडबैक (RLHF) या टीचर-मॉडल डिस्टिलेशन से अलग है। IDA का ध्यान अतिरिक्त कम्प्यूटेशनल संसाधनों के आवेदन पर केंद्रित है जो उत्तम समाधान उत्पन्न करने में सक्षम होते हैं, बाद में इस सुधारित रीजनिंग को मॉडल में एम्बेड किया जाता है—यह एक निरंतर प्रतिक्रिया लूप है जो क्षमताओं को बढ़ाने के लिए उद्देश्यपूर्वक है। यह दृष्टिकोण Google AlphaGo के स्व-प्ले रणनीति के साथ
संबंधित लेख
Фонд будущего ИИ Google, возможно, должен действовать осторожно
Инвестиционная инициатива Google в области ИИ: стратегический поворот на фоне регуляторного вниманияОбъявление Google о создании фонда AI Futures Fund является смелым шагом в стрем
Внутри скачка ИИ Google: Gemini 2.5 думает глубже, говорит умнее и кодирует быстрее
Google приближается к своей цели создания универсального ассистента на основе ИИНа мероприятии Google I/O этого года компания представила значительные обновления серии Gemini 2.5,
Oura добавляет трекинг уровня глюкозы и журнал питания на основе ИИ
Oura укрепляет своё обязательство в области метаболического здоровья двумя захватывающими новыми функциями.Oura повышает ставки в мире метаболического здоровья с двумя передовыми,
सूचना (0)
0/200
डीप कॉगिटो ने क्रांतिकारी AI मॉडलों के साथ निकला है
एक ब्रेकथ्रू गतिविधि में, सैन फ्रांसिस्को में स्थित एक शीर्ष पंजीकृत AI अनुसंधान स्टारटअप, डीप कॉगिटो, ने अपनी पहली सीरीज़ के ओपन-सोर्स लार्ज लैंग्वेज मॉडल्स (LLMs), कोगिटो v1 को आधिकारिक रूप से लॉन्च किया है। ये मॉडल, मेटा के लामा 3.2 से फाइन-ट्यून किए गए हैं, मिश्रित रीजनिंग क्षमताओं को धारण करते हैं जो उन्हें त्वरित जवाब देने या स्व-परीक्षणीय सोच करने में सक्षम बनाते हैं—एक विशेषता जो ओपनAI की "o" श्रृंखला और डीपसीक R1 पर लगी हुई है।
डीप कॉगिटो का दृष्टिकोण है कि AI को सामान्य मानव नियंत्रण सीमाओं के पार पहुंचाने के लिए अपने मॉडलों में इटरेटिव स्व-सुधार को बढ़ावा देना। उनका अंतिम लक्ष्य? सुपरइंटेलिजेंस विकसित करना—मनुष्य की क्षमताओं के सभी क्षेत्रों में उन्नत AI। लेकिन कंपनी ने सुनिश्चित किया है कि सभी मॉडल ओपन-सोर्स रहेंगे।
ड्रिशन अरोरा, डीप कॉगिटो के सीईओ और सह-संस्थापक, गूगल में एक सीनियर सॉफ्टवेयर इंजीनियर थे, जहाँ वे गूगल के जनरेटिव सर्च उत्पाद के लिए LLMs के विकास में नेतृत्व प्रदान करते थे। वह X पर विश्वासपूर्ण रूप से कहते हैं कि ये मॉडल अपनी विशिष्ट आकार के लिए सबसे मजबूत ओपन मॉडल हैं, जो LLaMA, डीपसीक और Qwen जैसे प्रतिद्वंद्वियों से बेहतर प्रदर्शन करते हैं।
मॉडल सेट
प्रारंभिक पेशकश में पांच आधार आकारों—3 बिलियन, 8 बिलियन, 14 बिलियन, 32 बिलियन, और 70 बिलियन पैरामीटर—शामिल हैं और इन्हें पहले ही हगिंग फेस, ओलामा और फायरवर्क्स और टूगेथर AI के प्लेटफॉर्म जैसे प्लेटफॉर्मों पर उपलब्ध किया गया है। ये मॉडल लामा लाइसेंस की शर्तों के तहत कार्य करते हैं, जो अपर्याप्त 700 मिलियन मासिक उपयोगकर्ताओं तक का वाणिज्यिक उपयोग अनुमत करता है, बाद में मेटा से भुगतान लाइसेंस की आवश्यकता होगी।
डीप कॉगिटो ने भविष्य में बड़े मॉडल जारी करने की योजना बनाई है, जो कि शायद 671 बिलियन पैरामीटर तक पहुंच जाएगी।
ट्रेनिंग दृष्टिकोण: इटरेटेड डिस्टिलेशन और एम्प्लिफिकेशन (IDA)
अरोरा ने IDA, एक नवीन विधि पेश की, जो पारंपरिक रियल-टाइम लर्निंग फ्रॉम ह्यूमन फीडबैक (RLHF) या टीचर-मॉडल डिस्टिलेशन से अलग है। IDA का ध्यान अतिरिक्त कम्प्यूटेशनल संसाधनों के आवेदन पर केंद्रित है जो उत्तम समाधान उत्पन्न करने में सक्षम होते हैं, बाद में इस सुधारित रीजनिंग को मॉडल में एम्बेड किया जाता है—यह एक निरंतर प्रतिक्रिया लूप है जो क्षमताओं को बढ़ाने के लिए उद्देश्यपूर्वक है। यह दृष्टिकोण Google AlphaGo के स्व-प्ले रणनीति के साथ











