MIPS से लेकर एक्साफ्लॉप्स तक कुछ ही दशकों में: कंप्यूटिंग शक्ति का विस्फोट हो रहा है, और यह AI को बदल देगा
हाल ही में Nvidia GTC सम्मेलन में, टेक दिग्गज ने एक अभूतपूर्व उपलब्धि का अनावरण किया: सर्वरों की पहली एकल-रैक प्रणाली जो एक एक्साफ्लॉप तक पहुंचने में सक्षम है। यह एक अकल्पनीय एक अरब अरब फ्लोटिंग-पॉइंट ऑपरेशंस (FLOPS) प्रति सेकंड है। यह उपलब्धि Nvidia के नवीनतम GB200 NVL72 सिस्टम द्वारा संचालित है, जिसमें अत्याधुनिक ब्लैकवेल ग्राफिक्स प्रोसेसिंग यूनिट्स (GPUs) शामिल हैं। इसे परिप्रेक्ष्य में रखने के लिए, यह सिस्टम एक मानक कंप्यूटर रैक में फिट होता है जो लगभग 6 फीट ऊंचा, थोड़ा सा 3 फीट गहरा, और 2 फीट से कम चौड़ा है।
एक्साफ्लॉप को छोटा करना: फ्रंटियर से ब्लैकवेल तक
इस घोषणा ने मुझे सोचने पर मजबूर कर दिया कि हम कुछ ही वर्षों में कितना आगे आ गए हैं। दुनिया का पहला एक्साफ्लॉप-सक्षम कंप्यूटर, "Frontier," 2022 में ओक रिज नेशनल लेबोरेटरी में स्थापित किया गया था। HPE द्वारा निर्मित और AMD GPUs और CPUs द्वारा संचालित, यह 74 रैक तक फैला हुआ था। इसके विपरीत, Nvidia का नया सिस्टम एक ही रैक में 73 गुना अधिक प्रदर्शन पैक करता है। यह हर साल तीन साल तक प्रदर्शन को तीन गुना करने जैसा है! यह कंप्यूटिंग घनत्व, ऊर्जा दक्षता, और वास्तुशिल्प डिजाइन में की गई अविश्वसनीय प्रगति का प्रमाण है।
यह भी ध्यान देने योग्य है कि हालांकि दोनों सिस्टम एक्सास्केल मील का पत्थर तक पहुंचते हैं, वे विभिन्न उद्देश्यों के लिए डिज़ाइन किए गए हैं। Nvidia का एक्साफ्लॉप रेटिंग निम्न-परिशुद्धता गणित पर आधारित है—4-बिट और 8-बिट फ्लोटिंग-पॉइंट ऑपरेशंस—जो AI वर्कलोड जैसे बड़े भाषा मॉडल (LLMs) को प्रशिक्षित करने और चलाने के लिए आदर्श हैं। ये गणनाएं सटीकता से अधिक गति को प्राथमिकता देती हैं। दूसरी ओर, फ्रंटियर का एक्साफ्लॉप रेटिंग 64-बिट डबल-प्रिसिजन गणित से आता है, जो वैज्ञानिक सिमुलेशन के लिए स्वर्ण मानक है जहां सटीकता सर्वोपरि है।
हम बहुत तेजी से बहुत आगे आ गए हैं
इस प्रगति की गति लगभग अविश्वसनीय है, खासकर जब मैं अपने कंप्यूटिंग करियर के शुरुआती दिनों को याद करता हूं। मेरा पहला काम DEC KL 1090 पर प्रोग्रामर के रूप में था, जो DEC के PDP-10 सीरीज के टाइमशेयर मेनफ्रेम का हिस्सा था। वह मशीन 1.8 मिलियन निर्देश प्रति सेकंड (MIPS) की मामूली गति से चलती थी। यह कैथोड रे ट्यूब (CRT) डिस्प्ले से हार्डवायर्ड केबल के माध्यम से जुड़ती थी, जिसमें कोई ग्राफिक्स नहीं था—बस स्क्रीन पर टेक्स्ट। और निश्चित रूप से, कोई इंटरनेट नहीं था। दूरस्थ उपयोगकर्ताओं को 1,200 बिट्स प्रति सेकंड की अधिकतम गति वाले मॉडेम के साथ फोन लाइनों पर कनेक्ट करना पड़ता था।

500 अरब गुना अधिक कंप्यूटिंग शक्ति
हालांकि MIPS और FLOPS की तुलना करना सीधे तौर पर सेब की सेब से तुलना नहीं है, यह हमें कंप्यूटिंग शक्ति में हुई अविश्वसनीय छलांग का अंदाजा देता है। MIPS पूर्णांक प्रसंस्करण गति को मापता है, जो सामान्य-उद्देश्यीय कंप्यूटिंग और व्यावसायिक अनुप्रयोगों के लिए बढ़िया है। दूसरी ओर, FLOPS फ्लोटिंग-पॉइंट प्रदर्शन को मापता है, जो वैज्ञानिक वर्कलोड और आधुनिक AI के पीछे भारी काम के लिए महत्वपूर्ण है, जैसे कि मशीन लर्निंग (ML) मॉडल को प्रशिक्षित करने और चलाने के लिए आवश्यक मैट्रिक्स गणित और रैखिक बीजगणित।
इनका उपयोग एक मोटे मार्गदर्शक के रूप में करने पर, नया Nvidia सिस्टम पुरानी DEC मशीन की तुलना में लगभग 500 अरब गुना अधिक शक्तिशाली है। यह एक ही करियर में कंप्यूटिंग शक्ति में घातीय वृद्धि का एक आश्चर्यजनक उदाहरण है। यह आपको सोचने पर मजबूर करता है: अगर हमने 40 वर्षों में इतना कुछ हासिल कर लिया है, तो अगले पांच वर्ष क्या ला सकते हैं?
Nvidia ने हमें कुछ संकेत दिए हैं। GTC में, उन्होंने एक रोडमैप साझा किया जिसमें भविष्यवाणी की गई कि उनकी अगली पीढ़ी का पूर्ण-रैक सिस्टम, "Vera Rubin" Ultra आर्किटेक्चर पर आधारित, वर्तमान ब्लैकवेल Ultra रैक के प्रदर्शन का 14 गुना प्रदान करेगा। हम अगले एक या दो वर्षों में AI-अनुकूलित कार्य में 14 से 15 एक्साफ्लॉप्स के बीच कहीं देख रहे हैं।
यह केवल कच्ची शक्ति के बारे में नहीं है। इस प्रदर्शन को एक ही रैक में समेटने का मतलब है कम भौतिक स्थान, कम सामग्री, और प्रति ऑपरेशन संभावित रूप से कम ऊर्जा उपयोग। हालांकि, यह नहीं भूलना चाहिए कि इन सिस्टमों की पूर्ण ऊर्जा मांग अभी भी बहुत अधिक है।
क्या AI को वाकई इतनी कंप्यूटिंग शक्ति की आवश्यकता है?
हालांकि ये प्रदर्शन लाभ प्रभावशाली हैं, AI उद्योग अब एक बड़े सवाल से जूझ रहा है: हमें वास्तव में कितनी कंप्यूटिंग शक्ति की आवश्यकता है, और इसकी कीमत क्या है? विशाल नए AI डेटा सेंटर बनाने की दौड़ एक्सास्केल कंप्यूटिंग और तेजी से सक्षम AI मॉडल की मांगों से प्रेरित है।
सबसे महत्वाकांक्षी परियोजना है $500 बिलियन की प्रोजेक्ट स्टारगेट, जो अमेरिका में 20 डेटा सेंटर की योजना बना रही है, प्रत्येक आधा मिलियन वर्ग फीट का। दुनिया भर में अन्य हाइपरस्केल परियोजनाओं की लहर चल रही है या योजना में है क्योंकि कंपनियां और देश भविष्य के AI वर्कलोड के लिए बुनियादी ढांचा बनाने की जल्दी में हैं।
कुछ विश्लेषकों को चिंता है कि हम अतिनिर्माण कर रहे हैं। चिंताएं तब बढ़ीं जब चीन के डीपसीक से R1, एक तर्क मॉडल जारी हुआ, जो अपने समकक्षों की तुलना में काफी कम कंप्यूट का उपयोग करता है। माइक्रोसॉफ्ट द्वारा हाल ही में कई डेटा सेंटर प्रदाताओं के साथ लीज रद्द करने से यह अटकलें बढ़ी हैं कि वे अपनी AI बुनियादी ढांचे की जरूरतों पर पुनर्विचार कर रहे हैं।
हालांकि, The Register ने सुझाव दिया कि यह पीछे हटना शायद इसलिए हो सकता है क्योंकि नियोजित डेटा सेंटर अगली पीढ़ी के AI सिस्टमों की बिजली और कूलिंग जरूरतों को संभालने में सक्षम नहीं हैं। AI मॉडल पहले से ही वर्तमान बुनियादी ढांचे की सीमाओं को धक्का दे रहे हैं। MIT टेक्नोलॉजी रिव्यू ने बताया कि चीन में कई डेटा सेंटर पुराने विनिर्देशों के लिए बनाए गए होने के कारण संघर्ष कर रहे हैं और असफल हो रहे हैं।
AI अनुमान को और अधिक FLOPS की आवश्यकता
तर्क मॉडल रनटाइम पर अनुमान प्रक्रिया के माध्यम से अपना अधिकांश भारी काम करते हैं। ये मॉडल कुछ सबसे उन्नत और संसाधन-गहन अनुप्रयोगों को शक्ति प्रदान करते हैं, जैसे गहरे शोध सहायक और उभरती हुई एजेंटिक AI सिस्टम की लहर।
हालांकि डीपसीक-R1 ने शुरू में उद्योग को यह सोचने के लिए प्रेरित किया कि भविष्य के AI को कम कंप्यूटिंग शक्ति की आवश्यकता हो सकती है, Nvidia के CEO जेन्सेन हुआंग ने इसका कड़ा विरोध किया। CNBC को दिए एक साक्षात्कार में, उन्होंने इसके विपरीत तर्क दिया: "यह वह निष्कर्ष था जो सभी के पास था।" उन्होंने कहा कि तर्क AI गैर-तर्क AI की तुलना में 100 गुना अधिक कंप्यूटिंग खपत करता है।
जैसे-जैसे AI तर्क मॉडल से स्वायत्त एजेंट्स और उससे आगे विकसित होता है, कंप्यूटिंग शक्ति की मांग फिर से बढ़ने की संभावना है। अगली सफलताएं AI एजेंट समन्वय, फ्यूजन सिमुलेशन, या बड़े पैमाने पर डिजिटल ट्विन्स जैसे क्षेत्रों में आ सकती हैं—जो सभी हाल ही में देखी गई कंप्यूटिंग छलांग से संभव हुई हैं।
बिल्कुल सही समय पर, OpenAI ने $40 बिलियन के नए फंडिंग की घोषणा की, जो निजी टेक फंडिंग का सबसे बड़ा रिकॉर्ड है। एक ब्लॉग पोस्ट में, उन्होंने कहा कि यह फंडिंग "हमें AI अनुसंधान की सीमाओं को और आगे बढ़ाने, हमारे कंप्यूट बुनियादी ढांचे को स्केल करने और हर हफ्ते चैटGPT का उपयोग करने वाले 500 मिलियन लोगों के लिए तेजी से शक्तिशाली उपकरण प्रदान करने में सक्षम बनाती है।"
इतना पूंजी AI में क्यों बह रही है? कारण प्रतिस्पर्धा से लेकर राष्ट्रीय सुरक्षा तक हैं, लेकिन एक कारक सबसे अलग है: मैकिन्से के अनुसार, AI कॉर्पोरेट मुनाफे को प्रति वर्ष $4.4 ट्रिलियन तक बढ़ा सकता है।
आगे क्या होगा? यह किसी का भी अनुमान है
अपने मूल में, सूचना प्रणालियां जटिलता को सरल बनाने के बारे में हैं, चाहे वह फोरट्रान में लिखा गया एक आपातकालीन वाहन रूटिंग सिस्टम हो, COBOL में निर्मित एक छात्र उपलब्धि रिपोर्टिंग टूल हो, या आधुनिक AI सिस्टम जो दवा खोज को तेज कर रहे हों। लक्ष्य हमेशा एक ही रहा है: दुनिया को समझने में मदद करना।
अब, शक्तिशाली AI के क्षितिज पर होने के साथ, हम एक नई सीमा पार कर रहे हैं। पहली बार, हमारे पास उन समस्याओं से निपटने के लिए कंप्यूटिंग शक्ति और बुद्धिमत्ता हो सकती है जो कभी मानव पहुंच से बाहर थीं।
न्यूयॉर्क टाइम्स के कॉलमिस्ट केविन रूज ने इस क्षण को अच्छी तरह से कैद किया: "हर हफ्ते, मैं AI पर काम करने वाले इंजीनियरों और उद्यमियों से मिलता हूं जो मुझे बताते हैं कि परिवर्तन—बड़ा परिवर्तन, विश्व को हिला देने वाला परिवर्तन, वह परिवर्तन जो हमने पहले कभी नहीं देखा—बस कोने के आसपास है।" और यह उन सफलताओं को नहीं गिन रहा जो हर हफ्ते आ रही हैं।
पिछले कुछ दिनों में ही, हमने देखा है कि OpenAI का GPT-4o टेक्स्ट से लगभग पूर्ण छवियां उत्पन्न करता है, Google ने Gemini 2.5 Pro में शायद अब तक का सबसे उन्नत तर्क मॉडल जारी किया, और Runway ने एक वीडियो मॉडल का अनावरण किया जिसमें शॉट-टू-शॉट कैरेक्टर और सीन कंसिस्टेंसी है, जो वेंचरबीट के अनुसार अब तक अधिकांश AI वीडियो जनरेटरों के लिए असंभव रहा है।
आगे क्या होगा, यह वास्तव में किसी का भी अनुमान है। हमें नहीं पता कि शक्तिशाली AI एक सफलता होगी या टूटन, क्या यह फ्यूजन ऊर्जा को हल करने में मदद करेगा या नए जैविक जोखिमों को जन्म देगा। लेकिन अगले पांच वर्षों में और अधिक FLOPS ऑनलाइन आने के साथ, एक बात निश्चित लगती है: नवाचार तेजी से आएगा—और बल के साथ। जैसे-जैसे FLOPS स्केल करता है, वैसे ही जिम्मेदारी, विनियमन, और संयम के बारे में हमारी बातचीत को भी बढ़ाना होगा।
गैरी ग्रॉसमैन Edelman में प्रौद्योगिकी अभ्यास के EVP और Edelman AI Center of Excellence के वैश्विक प्रमुख हैं।
संबंधित लेख
華為スーパーノード384、NVIDIAのAI市場支配を乱す
HuaweiのAI処理アーキテクチャにおける革新:スーパーノード384人工知能の進化する世界の中で、Huaweiはスーパーノード384アーキテクチャを発表し、プロセッサ設計において大きな飛躍を遂げました。この革新は、米中技術摩擦が高まる中での発表であり、困難に直面してもHuaweiの粘り強さと創造力を示しています。この発表は、先週深センで開催されたKunpe
クラウドを活用したNvidiaのヒューマノイドロボティクス進展
NVIDIAは人型ロボティクスの領域にフルスロットルで突入しており、その動きにはブレがありません。台湾でのComputex 2025展示会では、ロボティクス開発の地平線を再定義する一連の革新が発表されました。その中でも注目すべきは、NVIDIA Isaac GR00T N1.5です。これは、人型ロボットの推論やスキルに関するオープンで完全にカスタマイズ可能な
WindowsのNvidia AIアシスタントにSpotify、Twitchプラグイン追加
Nvidiaは、Windows上でG-Assist AIアシスタントを新たな高みへと引き上げています。ゲームやシステム設定の調整だけでなく、昨月PCゲーム体験を向上させるチャットボットとしてリリースされたG-Assistが、今度はプラグインサポートを導入して進化しています。このアップデートにより、AIはその範囲を拡大し、Spotifyの操作やお気に入りのスト
सूचना (0)
0/200
हाल ही में Nvidia GTC सम्मेलन में, टेक दिग्गज ने एक अभूतपूर्व उपलब्धि का अनावरण किया: सर्वरों की पहली एकल-रैक प्रणाली जो एक एक्साफ्लॉप तक पहुंचने में सक्षम है। यह एक अकल्पनीय एक अरब अरब फ्लोटिंग-पॉइंट ऑपरेशंस (FLOPS) प्रति सेकंड है। यह उपलब्धि Nvidia के नवीनतम GB200 NVL72 सिस्टम द्वारा संचालित है, जिसमें अत्याधुनिक ब्लैकवेल ग्राफिक्स प्रोसेसिंग यूनिट्स (GPUs) शामिल हैं। इसे परिप्रेक्ष्य में रखने के लिए, यह सिस्टम एक मानक कंप्यूटर रैक में फिट होता है जो लगभग 6 फीट ऊंचा, थोड़ा सा 3 फीट गहरा, और 2 फीट से कम चौड़ा है।
एक्साफ्लॉप को छोटा करना: फ्रंटियर से ब्लैकवेल तक
इस घोषणा ने मुझे सोचने पर मजबूर कर दिया कि हम कुछ ही वर्षों में कितना आगे आ गए हैं। दुनिया का पहला एक्साफ्लॉप-सक्षम कंप्यूटर, "Frontier," 2022 में ओक रिज नेशनल लेबोरेटरी में स्थापित किया गया था। HPE द्वारा निर्मित और AMD GPUs और CPUs द्वारा संचालित, यह 74 रैक तक फैला हुआ था। इसके विपरीत, Nvidia का नया सिस्टम एक ही रैक में 73 गुना अधिक प्रदर्शन पैक करता है। यह हर साल तीन साल तक प्रदर्शन को तीन गुना करने जैसा है! यह कंप्यूटिंग घनत्व, ऊर्जा दक्षता, और वास्तुशिल्प डिजाइन में की गई अविश्वसनीय प्रगति का प्रमाण है।
यह भी ध्यान देने योग्य है कि हालांकि दोनों सिस्टम एक्सास्केल मील का पत्थर तक पहुंचते हैं, वे विभिन्न उद्देश्यों के लिए डिज़ाइन किए गए हैं। Nvidia का एक्साफ्लॉप रेटिंग निम्न-परिशुद्धता गणित पर आधारित है—4-बिट और 8-बिट फ्लोटिंग-पॉइंट ऑपरेशंस—जो AI वर्कलोड जैसे बड़े भाषा मॉडल (LLMs) को प्रशिक्षित करने और चलाने के लिए आदर्श हैं। ये गणनाएं सटीकता से अधिक गति को प्राथमिकता देती हैं। दूसरी ओर, फ्रंटियर का एक्साफ्लॉप रेटिंग 64-बिट डबल-प्रिसिजन गणित से आता है, जो वैज्ञानिक सिमुलेशन के लिए स्वर्ण मानक है जहां सटीकता सर्वोपरि है।
हम बहुत तेजी से बहुत आगे आ गए हैं
इस प्रगति की गति लगभग अविश्वसनीय है, खासकर जब मैं अपने कंप्यूटिंग करियर के शुरुआती दिनों को याद करता हूं। मेरा पहला काम DEC KL 1090 पर प्रोग्रामर के रूप में था, जो DEC के PDP-10 सीरीज के टाइमशेयर मेनफ्रेम का हिस्सा था। वह मशीन 1.8 मिलियन निर्देश प्रति सेकंड (MIPS) की मामूली गति से चलती थी। यह कैथोड रे ट्यूब (CRT) डिस्प्ले से हार्डवायर्ड केबल के माध्यम से जुड़ती थी, जिसमें कोई ग्राफिक्स नहीं था—बस स्क्रीन पर टेक्स्ट। और निश्चित रूप से, कोई इंटरनेट नहीं था। दूरस्थ उपयोगकर्ताओं को 1,200 बिट्स प्रति सेकंड की अधिकतम गति वाले मॉडेम के साथ फोन लाइनों पर कनेक्ट करना पड़ता था।
500 अरब गुना अधिक कंप्यूटिंग शक्ति
हालांकि MIPS और FLOPS की तुलना करना सीधे तौर पर सेब की सेब से तुलना नहीं है, यह हमें कंप्यूटिंग शक्ति में हुई अविश्वसनीय छलांग का अंदाजा देता है। MIPS पूर्णांक प्रसंस्करण गति को मापता है, जो सामान्य-उद्देश्यीय कंप्यूटिंग और व्यावसायिक अनुप्रयोगों के लिए बढ़िया है। दूसरी ओर, FLOPS फ्लोटिंग-पॉइंट प्रदर्शन को मापता है, जो वैज्ञानिक वर्कलोड और आधुनिक AI के पीछे भारी काम के लिए महत्वपूर्ण है, जैसे कि मशीन लर्निंग (ML) मॉडल को प्रशिक्षित करने और चलाने के लिए आवश्यक मैट्रिक्स गणित और रैखिक बीजगणित।
इनका उपयोग एक मोटे मार्गदर्शक के रूप में करने पर, नया Nvidia सिस्टम पुरानी DEC मशीन की तुलना में लगभग 500 अरब गुना अधिक शक्तिशाली है। यह एक ही करियर में कंप्यूटिंग शक्ति में घातीय वृद्धि का एक आश्चर्यजनक उदाहरण है। यह आपको सोचने पर मजबूर करता है: अगर हमने 40 वर्षों में इतना कुछ हासिल कर लिया है, तो अगले पांच वर्ष क्या ला सकते हैं?
Nvidia ने हमें कुछ संकेत दिए हैं। GTC में, उन्होंने एक रोडमैप साझा किया जिसमें भविष्यवाणी की गई कि उनकी अगली पीढ़ी का पूर्ण-रैक सिस्टम, "Vera Rubin" Ultra आर्किटेक्चर पर आधारित, वर्तमान ब्लैकवेल Ultra रैक के प्रदर्शन का 14 गुना प्रदान करेगा। हम अगले एक या दो वर्षों में AI-अनुकूलित कार्य में 14 से 15 एक्साफ्लॉप्स के बीच कहीं देख रहे हैं।
यह केवल कच्ची शक्ति के बारे में नहीं है। इस प्रदर्शन को एक ही रैक में समेटने का मतलब है कम भौतिक स्थान, कम सामग्री, और प्रति ऑपरेशन संभावित रूप से कम ऊर्जा उपयोग। हालांकि, यह नहीं भूलना चाहिए कि इन सिस्टमों की पूर्ण ऊर्जा मांग अभी भी बहुत अधिक है।
क्या AI को वाकई इतनी कंप्यूटिंग शक्ति की आवश्यकता है?
हालांकि ये प्रदर्शन लाभ प्रभावशाली हैं, AI उद्योग अब एक बड़े सवाल से जूझ रहा है: हमें वास्तव में कितनी कंप्यूटिंग शक्ति की आवश्यकता है, और इसकी कीमत क्या है? विशाल नए AI डेटा सेंटर बनाने की दौड़ एक्सास्केल कंप्यूटिंग और तेजी से सक्षम AI मॉडल की मांगों से प्रेरित है।
सबसे महत्वाकांक्षी परियोजना है $500 बिलियन की प्रोजेक्ट स्टारगेट, जो अमेरिका में 20 डेटा सेंटर की योजना बना रही है, प्रत्येक आधा मिलियन वर्ग फीट का। दुनिया भर में अन्य हाइपरस्केल परियोजनाओं की लहर चल रही है या योजना में है क्योंकि कंपनियां और देश भविष्य के AI वर्कलोड के लिए बुनियादी ढांचा बनाने की जल्दी में हैं।
कुछ विश्लेषकों को चिंता है कि हम अतिनिर्माण कर रहे हैं। चिंताएं तब बढ़ीं जब चीन के डीपसीक से R1, एक तर्क मॉडल जारी हुआ, जो अपने समकक्षों की तुलना में काफी कम कंप्यूट का उपयोग करता है। माइक्रोसॉफ्ट द्वारा हाल ही में कई डेटा सेंटर प्रदाताओं के साथ लीज रद्द करने से यह अटकलें बढ़ी हैं कि वे अपनी AI बुनियादी ढांचे की जरूरतों पर पुनर्विचार कर रहे हैं।
हालांकि, The Register ने सुझाव दिया कि यह पीछे हटना शायद इसलिए हो सकता है क्योंकि नियोजित डेटा सेंटर अगली पीढ़ी के AI सिस्टमों की बिजली और कूलिंग जरूरतों को संभालने में सक्षम नहीं हैं। AI मॉडल पहले से ही वर्तमान बुनियादी ढांचे की सीमाओं को धक्का दे रहे हैं। MIT टेक्नोलॉजी रिव्यू ने बताया कि चीन में कई डेटा सेंटर पुराने विनिर्देशों के लिए बनाए गए होने के कारण संघर्ष कर रहे हैं और असफल हो रहे हैं।
AI अनुमान को और अधिक FLOPS की आवश्यकता
तर्क मॉडल रनटाइम पर अनुमान प्रक्रिया के माध्यम से अपना अधिकांश भारी काम करते हैं। ये मॉडल कुछ सबसे उन्नत और संसाधन-गहन अनुप्रयोगों को शक्ति प्रदान करते हैं, जैसे गहरे शोध सहायक और उभरती हुई एजेंटिक AI सिस्टम की लहर।
हालांकि डीपसीक-R1 ने शुरू में उद्योग को यह सोचने के लिए प्रेरित किया कि भविष्य के AI को कम कंप्यूटिंग शक्ति की आवश्यकता हो सकती है, Nvidia के CEO जेन्सेन हुआंग ने इसका कड़ा विरोध किया। CNBC को दिए एक साक्षात्कार में, उन्होंने इसके विपरीत तर्क दिया: "यह वह निष्कर्ष था जो सभी के पास था।" उन्होंने कहा कि तर्क AI गैर-तर्क AI की तुलना में 100 गुना अधिक कंप्यूटिंग खपत करता है।
जैसे-जैसे AI तर्क मॉडल से स्वायत्त एजेंट्स और उससे आगे विकसित होता है, कंप्यूटिंग शक्ति की मांग फिर से बढ़ने की संभावना है। अगली सफलताएं AI एजेंट समन्वय, फ्यूजन सिमुलेशन, या बड़े पैमाने पर डिजिटल ट्विन्स जैसे क्षेत्रों में आ सकती हैं—जो सभी हाल ही में देखी गई कंप्यूटिंग छलांग से संभव हुई हैं।
बिल्कुल सही समय पर, OpenAI ने $40 बिलियन के नए फंडिंग की घोषणा की, जो निजी टेक फंडिंग का सबसे बड़ा रिकॉर्ड है। एक ब्लॉग पोस्ट में, उन्होंने कहा कि यह फंडिंग "हमें AI अनुसंधान की सीमाओं को और आगे बढ़ाने, हमारे कंप्यूट बुनियादी ढांचे को स्केल करने और हर हफ्ते चैटGPT का उपयोग करने वाले 500 मिलियन लोगों के लिए तेजी से शक्तिशाली उपकरण प्रदान करने में सक्षम बनाती है।"
इतना पूंजी AI में क्यों बह रही है? कारण प्रतिस्पर्धा से लेकर राष्ट्रीय सुरक्षा तक हैं, लेकिन एक कारक सबसे अलग है: मैकिन्से के अनुसार, AI कॉर्पोरेट मुनाफे को प्रति वर्ष $4.4 ट्रिलियन तक बढ़ा सकता है।
आगे क्या होगा? यह किसी का भी अनुमान है
अपने मूल में, सूचना प्रणालियां जटिलता को सरल बनाने के बारे में हैं, चाहे वह फोरट्रान में लिखा गया एक आपातकालीन वाहन रूटिंग सिस्टम हो, COBOL में निर्मित एक छात्र उपलब्धि रिपोर्टिंग टूल हो, या आधुनिक AI सिस्टम जो दवा खोज को तेज कर रहे हों। लक्ष्य हमेशा एक ही रहा है: दुनिया को समझने में मदद करना।
अब, शक्तिशाली AI के क्षितिज पर होने के साथ, हम एक नई सीमा पार कर रहे हैं। पहली बार, हमारे पास उन समस्याओं से निपटने के लिए कंप्यूटिंग शक्ति और बुद्धिमत्ता हो सकती है जो कभी मानव पहुंच से बाहर थीं।
न्यूयॉर्क टाइम्स के कॉलमिस्ट केविन रूज ने इस क्षण को अच्छी तरह से कैद किया: "हर हफ्ते, मैं AI पर काम करने वाले इंजीनियरों और उद्यमियों से मिलता हूं जो मुझे बताते हैं कि परिवर्तन—बड़ा परिवर्तन, विश्व को हिला देने वाला परिवर्तन, वह परिवर्तन जो हमने पहले कभी नहीं देखा—बस कोने के आसपास है।" और यह उन सफलताओं को नहीं गिन रहा जो हर हफ्ते आ रही हैं।
पिछले कुछ दिनों में ही, हमने देखा है कि OpenAI का GPT-4o टेक्स्ट से लगभग पूर्ण छवियां उत्पन्न करता है, Google ने Gemini 2.5 Pro में शायद अब तक का सबसे उन्नत तर्क मॉडल जारी किया, और Runway ने एक वीडियो मॉडल का अनावरण किया जिसमें शॉट-टू-शॉट कैरेक्टर और सीन कंसिस्टेंसी है, जो वेंचरबीट के अनुसार अब तक अधिकांश AI वीडियो जनरेटरों के लिए असंभव रहा है।
आगे क्या होगा, यह वास्तव में किसी का भी अनुमान है। हमें नहीं पता कि शक्तिशाली AI एक सफलता होगी या टूटन, क्या यह फ्यूजन ऊर्जा को हल करने में मदद करेगा या नए जैविक जोखिमों को जन्म देगा। लेकिन अगले पांच वर्षों में और अधिक FLOPS ऑनलाइन आने के साथ, एक बात निश्चित लगती है: नवाचार तेजी से आएगा—और बल के साथ। जैसे-जैसे FLOPS स्केल करता है, वैसे ही जिम्मेदारी, विनियमन, और संयम के बारे में हमारी बातचीत को भी बढ़ाना होगा।
गैरी ग्रॉसमैन Edelman में प्रौद्योगिकी अभ्यास के EVP और Edelman AI Center of Excellence के वैश्विक प्रमुख हैं।











