Mark Zuckerberg - शीर्ष एआई नेता और नवप्रवर्तक | प्रोफ़ाइल, उपलब्धियाँ और परियोजनाएँ - xix.ai
विकल्प

गुणवत्ता एआई उपकरण की खोज करें

काम दक्षता में सुधार करने में मदद करने के लिए दुनिया के प्रमुख कृत्रिम खुफिया उपकरणों को एक साथ लाएं

अल उपकरणों की खोज करें…
घर
एआई सेलिब्रिटी
Mark Zuckerberg
Mark Zuckerberg

Mark Zuckerberg

मुख्य कार्यकारी अधिकारी, मेटा
जन्म वर्ष  1984
राष्ट्रीयता  American

महत्वपूर्ण उपलब्धि

2004 फेसबुक की स्थापना

फेसबुक की स्थापना, मेटा का पूर्ववर्ती

2013 Meta AI Lab Creation

मेटा AI अनुसंधान विभाग की स्थापना

2023 LLaMA रिलीज़

शोध उद्देश्यों के लिए LLaMA लॉन्च किया गया

एआई उत्पाद

ल्लामा3.1 बहुभाषी हैं और 128K की बहुत लंबी संदर्भ सीमा, उन्नत टूल उपयोग और सामान्य रूप से मजबूत तर्क क्षमता रखते हैं।

Llama 3.2 3B मॉडल 128K टोकन का कन्टेक्स्ट लेंथ समर्थित करते हैं और उपकरण में उपयोग के लिए राज्य के लिए उत्कृष्ट हैं, जैसे कि सारांश, आदेश अनुसरण और बारंबार कार्यों को एज पर लॉकली चलाया जाता है।

लिमा3, मेटा का सबसे नया 오픈소스 लार्ज लैंग्वेज मॉडल है, जो 15T कोरपस पर प्रशिक्षित हुआ है, 8K कॉन्टेक्स्ट लंबाई का समर्थन करता है, और प्रभावशीलता और सुरक्षा के लिए ऑप्टिमाइज किया गया है।

लिमा 3.1 405B सामान्य ज्ञान, नियंत्रणशीलता, गणित, उपकरण उपयोग और बहुभाषी अनुवाद में सर्वोत्तम क्षमताओं के मामले में सर्वश्रेष्ठ AI मॉडलों के साथ प्रतिस्पर्धा करने वाला पहला सार्वजनिक रूप से उपलब्ध मॉडल है।

ल्लामा3.1 बहुभाषी हैं और 128K की बहुत लंबी संदर्भ लंबाई है, शीर्ष प्रदर्शन टूल उपयोग और सामान्य रूप से मजबूत तर्क क्षमताएं हैं।

लिमा 4 मॉडल्स ऑटो-रिग्रेसिव भाषा मॉडल हैं जो मिक्स्चर-ऑफ-एक्स्पर्ट्स (MoE) आर्किटेक्चर का उपयोग करते हैं और प्रारंभिक फ्यूजन के साथ मौजूदा मल्टीमोडलिटी को शामिल करते हैं।

लिमा3, मेटा का सबसे नया खुला स्रोत बड़ा भाषा मॉडल है, जिसे 15T कोरपस पर प्रशिक्षित किया गया है, 8K कॉन्टेक्स्ट लंबाई का समर्थन करता है और प्रभावशीलता और सुरक्षा के लिए अपडेट किया गया है।

लिमा 3.1 405B सामान्य ज्ञान, नियंत्रणशीलता, गणित, उपकरण उपयोग और बहुभाषी अनुवाद में शीर्ष एआई मॉडलों के साथ लड़ने वाला पहला सार्वजनिक रूप से उपलब्ध मॉडल है।

ल्लामा3.1 मल्टीलिंग्वल हैं और 128K की बहुत लंबी संदर्भ लंबाई है, उत्कृष्ट टूल उपयोग और कुल मिलाकर मजबूत तर्कशक्ति है।

Llama 4 मॉडल ऑटो-रेग्रेसिव भाषा मॉडल हैं जो मिक्स्चर-ऑफ-एक्सपर्ट्स (MoE) आर्किटेक्चर का उपयोग करते हैं और प्रारंभिक फ्यूजन का उपयोग करके मौजूदा बहु-आधारितता (multimodality) शामिल करते हैं।

ललामा 3.2 3B मॉडल 128K टोकन्स की संदर्भ लंबाई का समर्थन करते हैं और सामग्री सारांश, आदेश अनुसरण और सीमा पर ऑफ़-डिवाइस उपयोग के लिए श्रेणी में सबसे अच्छे हैं।

ल्लामा3.1 बहुभाषी हैं और 128K के बड़े संदर्भ लंबाई के साथ हैं, उत्कृष्ट टूल उपयोग और सामान्य रूप से मजबूत तर्क क्षमता है।

व्यक्तिगत प्रोफ़ाइल

मेटा के प्लेटफॉर्म्स में एआई एकीकरण को बढ़ावा देता है, जिसमें सोशल मीडिया और वीआर शामिल हैं।

शीर्ष पर वापस
OR