Nvlink का सामना?प्रौद्योगिकी दिग्गज जैसे इंटेल, एएमडी, माइक्रोसॉफ्ट और ब्रॉडकॉम फॉर्म यूलिंक
इंटेल, Google, Microsoft और मेटा सहित आठ तकनीकी दिग्गज, डेटा केंद्रों के भीतर AI त्वरक चिप्स को जोड़ने वाले घटकों के विकास का मार्गदर्शन करने के लिए Ualink प्रमोशन ग्रुप नामक एक नया उद्योग समूह स्थापित कर रहे हैं।
Ualink पदोन्नति टीम को गुरुवार को स्थापित करने की घोषणा की गई थी, और इसके सदस्यों में AMD, HP एंटरप्राइज, ब्रॉडकॉम और सिस्को भी शामिल हैं।समूह ने सर्वर में एआई त्वरक चिप्स की बढ़ती संख्या को जोड़ने के लिए एक नए उद्योग मानक का प्रस्ताव दिया है।एक व्यापक अर्थ में, एक एआई एक्सेलेरेटर एक चिप है जिसे जीपीयू से डिज़ाइन किया गया है, जो प्रशिक्षण, फाइन-ट्यूनिंग और एआई मॉडल के संचालन में तेजी लाने के लिए एक अनुकूलित समाधान के लिए है।
"उद्योग को एक खुले मानक की आवश्यकता होती है जिसे जल्दी से आगे बढ़ाया जा सकता है, जिससे कई कंपनियों को एक खुले प्रारूप में पूरे पारिस्थितिकी तंत्र में मूल्य जोड़ने की अनुमति मिलती है।""उद्योग को एक मानक की आवश्यकता है जो नवाचार को किसी भी एकल कंपनी द्वारा विवश किए बिना तेज गति से होने की अनुमति देता है," बुधवार को एक ब्रीफिंग में एएमडी डेटा सेंटर सॉल्यूशंस के महाप्रबंधक फॉरेस्ट नॉरोड ने कहा।
प्रस्तावित मानक का पहला संस्करण, Ualink 1.0 , तक 1024 AI त्वरक तक केवल एक ही कंप्यूटिंग पॉड - GPU में जुड़ा होगा।(समूह एक सर्वर में एक या कई रैक के रूप में पॉड को परिभाषित करता है।) Ualink 1.0 "खुले मानकों" पर आधारित है और इसमें AMD की अनंत वास्तुकला शामिल है।यह एआई एक्सेलेरेटर के बीच अतिरिक्त मेमोरी के प्रत्यक्ष लोडिंग और भंडारण के लिए अनुमति देगा, और समग्र रूप से गति में सुधार करेगा और मौजूदा इंटरकनेक्ट विनिर्देशों की तुलना में डेटा ट्रांसमिशन विलंबता को कम करेगा।
समूह ने कहा कि यह एक गठबंधन बनाएगा, यूलिंक गठबंधन, तीसरी तिमाही में Ualink मानकों के भविष्य के विकास की देखरेख करने के लिए।Ualink 1.0 को उसी अवधि के दौरान गठबंधन में शामिल होने वाली कंपनियों को प्रदान किया जाएगा, जिसमें Ualink 1.1 के लिए एक उच्च बैंडविड्थ अपडेट विनिर्देश है।इसे 2024 की चौथी तिमाही में लॉन्च करने की योजना है।
Ualink उत्पादों के पहले बैच को "आने वाले वर्षों में" लॉन्च किया जाएगा।
80% से 95% की अनुमानित बाजार हिस्सेदारी के साथ आज तक का सबसे बड़ा एआई एक्सेलेरेटर निर्माता एनवीडिया, समूह के सदस्यों की सूची से स्पष्ट रूप से अनुपस्थित है।Nvidia ने इस पर टिप्पणी करने से इनकार कर दिया।लेकिन यह देखना मुश्किल नहीं है कि यह चिप निर्माता प्रतियोगी प्रौद्योगिकी के आधार पर विनिर्देशों का समर्थन करने के लिए उत्सुक क्यों नहीं है।
सबसे पहले, NVIDIA अपने डेटा सेंटर सर्वर के भीतर GPU के लिए अपनी स्वामित्व इंटरकनेक्ट तकनीक प्रदान करता है।कंपनी प्रतियोगी प्रौद्योगिकी के आधार पर मानकों का समर्थन करने के लिए तैयार नहीं हो सकती है।
फिर यह तथ्य आता है कि NVIDIA अपार शक्ति और प्रभाव की स्थिति से संचालित होता है।
NVIDIA की सबसे हालिया वित्तीय तिमाही (Q1 2025) में, इसकी AI चिप की बिक्री सहित डेटा सेंटर की बिक्री में पिछले साल की समान अवधि की तुलना में 400% से अधिक की वृद्धि हुई है।यदि NVIDIA अपने वर्तमान विकास प्रक्षेपवक्र को जारी रखता है, तो यह दुनिया की सबसे मूल्यवान कंपनी बनने के लिए इस वर्ष कुछ बिंदु पर Apple को पार कर जाएगा।
इसलिए, सरल शब्दों में, यदि एनवीडिया भाग नहीं लेना चाहता है, तो उसे भाग लेने की आवश्यकता नहीं है।
अमेज़ॅन वेब सर्विसेज (AWS) के लिए, जो एकमात्र सार्वजनिक क्लाउड दिग्गज है जिसने Ualink में योगदान नहीं दिया है, यह एक प्रतीक्षा-और-देखने के मोड में हो सकता है क्योंकि यह अपने विभिन्न आंतरिक त्वरक हार्डवेयर प्रयासों को कम कर रहा है।यह AWS भी हो सकता है, क्लाउड सर्विस मार्केट पर इसके नियंत्रण पर भरोसा करना और NVIDIA का विरोध करने में कोई रणनीतिक महत्व नहीं देख रहा है, जो अपने ग्राहकों को अपने अधिकांश GPU प्रदान करता है।
AWS ने TechCrunch के टिप्पणी अनुरोध का जवाब नहीं दिया।
वास्तव में, यूलिंक के सबसे बड़े लाभार्थी - एएमडी और इंटेल से अलग - माइक्रोसॉफ्ट, मेटा और गूगल प्रतीत होते हैं, जिन्होंने अपने बादलों को चलाने और अपने बढ़ते एआई मॉडल को प्रशिक्षित करने के लिए एनवीडिया जीपीयू खरीदने के लिए अरबों डॉलर खर्च किए हैं।हर कोई एआई हार्डवेयर पारिस्थितिकी तंत्र में अत्यधिक प्रमुख के रूप में एक आपूर्तिकर्ता से छुटकारा पाना चाहता है।
Google के पास एआई मॉडल को प्रशिक्षण और चलाने के लिए कस्टम चिप्स, टीपीयू और एक्सियन है।अमेज़ॅन में कई एआई चिप परिवार हैं।Microsoft पिछले साल MAIA और COBALT के बीच प्रतियोगिता में शामिल हो गया।मेटा अपनी त्वरक श्रृंखला में सुधार कर रहा है।
इस बीच, Microsoft और उसके करीबी भागीदार Openai ने कथित तौर पर AI मॉडल को प्रशिक्षित करने के लिए एक सुपर कंप्यूटर पर कम से कम $ 100 बिलियन खर्च करने की योजना बनाई है, जो भविष्य के कोबाल्ट और MAIA चिप्स से लैस होगा।इन चिप्स को उन्हें एक साथ जोड़ने के लिए कुछ की आवश्यकता होगी - शायद यह ualink होगा।