سخنرانی کامل هوانگ رنکسون در GTC: عصر استنتاج فرا رسیده است و انتظار میرود درآمد به حداقل یک تریلیون دلار تا سال 2027 برسد و لابستر سیستم عامل جدید است
در 16 مارس 2026، کنفرانس NVIDIA GTC 2026 به طور رسمی آغاز شد و بنیانگذار و مدیرعامل NVIDIA، جنسن هوانگ، سخنرانی کلیدی را ارائه داد.
در این کنفرانس که به عنوان "زیارت سالانه صنعت هوش مصنوعی" شناخته میشود، هوانگ به تحول NVIDIA از یک "شرکت چیپ" به یک "شرکت زیرساخت و کارخانه هوش مصنوعی" پرداخت. با توجه به نگرانیهای بازار درباره پایداری عملکرد و پتانسیل رشد، هوانگ منطق تجاری زیرین که رشد آینده را هدایت میکند—"اقتصاد کارخانه توکن"—را تشریح کرد.
راهنمایی عملکرد بسیار خوشبینانه است، "حداقل 1 تریلیون دلار تقاضا تا سال 2027"
در دو سال گذشته، تقاضای جهانی محاسبات هوش مصنوعی به طور نمایی افزایش یافته است. با تکامل مدلهای بزرگ از "ادراک" و "تولید" به "استدلال" و "عمل (اجرای وظیفه)"، مصرف قدرت محاسباتی به طرز چشمگیری افزایش یافته است. در پاسخ به نگرانیهای بازار درباره سقفهای سفارش و درآمد، هوانگ انتظارات بسیار قوی ارائه داد.
هوانگ در سخنرانی خود گفت:
سال گذشته در این زمان، من اشاره کردم که ما تقاضای با اطمینان بالا به ارزش 500 میلیارد دلار را دیدیم که بلکول و روبین را تا سال 2026 پوشش میدهد. اکنون، همین جا و همین حالا، من حداقل 1 تریلیون دلار تقاضا تا سال 2027 میبینم.
انتظار تریلیون دلاری هوانگ یک بار قیمت سهام NVIDIA را بیش از 4.3% افزایش داد.
علاوه بر این، او این رقم را بیشتر تکمیل کرد:
آیا این منطقی است؟ این همان چیزی است که من در مورد آن صحبت خواهم کرد. در واقع، ممکن است حتی با کمبود عرضه مواجه شویم. من مطمئن هستم که تقاضای واقعی محاسباتی بسیار بالاتر خواهد بود.
هوانگ اشاره کرد که سیستمهای NVIDIA امروز خود را به عنوان "کمهزینهترین زیرساخت" در جهان ثابت کردهاند. زیرا NVIDIA میتواند مدلهای هوش مصنوعی را در تقریباً تمام زمینهها اجرا کند، این تنوع اطمینان میدهد که ۱ تریلیون دلار سرمایهگذاری شده توسط مشتریان میتواند به طور کامل استفاده و در طول عمر طولانی نگهداری شود.
در حال حاضر، ۶۰٪ از کسبوکار NVIDIA از پنج ارائهدهنده خدمات ابری بزرگ میآید، در حالی که ۴۰٪ باقیمانده به طور گستردهای در ابرهای حاکمیتی، شرکتها، صنایع، رباتیک و محاسبات لبه توزیع شده است.
اقتصاد کارخانه توکن، جایی که عملکرد به ازای هر وات، خون حیات کسبوکار را تعیین میکند
برای توضیح معقول بودن این تقاضای ۱ تریلیون دلاری، هوانگ یک ذهنیت تجاری جدید را به مدیران عامل شرکتهای جهانی ارائه داد. او اشاره کرد که مراکز داده آینده دیگر انبارهایی برای ذخیره فایلها نخواهند بود، بلکه "کارخانههایی" خواهند بود که توکنها (واحد پایه تولید شده توسط هوش مصنوعی) را تولید میکنند.
هوانگ تأکید کرد:
هر مرکز داده، هر کارخانه، به عنوان محدود به قدرت تعریف میشود. یک کارخانه ۱ گیگاوات هرگز به یک کارخانه ۲ گیگاوات تبدیل نخواهد شد؛ این یک قانون فیزیک و اتمهاست. در قدرت ثابت، هر کس که بالاترین توان تولید توکن به ازای هر وات را داشته باشد، کمترین هزینههای تولید را خواهد داشت.
هوانگ خدمات آینده هوش مصنوعی را به چهار سطح تجاری تقسیمبندی کرد:
- سطح رایگان (عملکرد بالا، سرعت پایین)
- سطح میانه (~۳ دلار به ازای هر میلیون توکن)
- سطح بالا (~۶ دلار به ازای هر میلیون توکن)
- سطح سرعت بالا (~۴۵ دلار به ازای هر میلیون توکن)
- سطح سرعت فوقالعاده بالا (~۱۵۰ دلار به ازای هر میلیون توکن)
او اشاره کرد که با بزرگتر شدن مدلها و طولانیتر شدن زمینهها، هوش مصنوعی هوشمندتر خواهد شد، اما نرخ تولید توکن کاهش خواهد یافت. هوانگ بیان کرد:
در این کارخانه توکن، توان تولید و سرعت تولید توکن شما به طور مستقیم به درآمد دقیق شما برای سال آینده تبدیل خواهد شد.
هوانگ تأکید کرد که معماری NVIDIA به مشتریان اجازه میدهد تا در سطح رایگان به توان تولید بسیار بالایی دست یابند در حالی که در بالاترین سطح استنتاج با بهبود عملکرد شگفتانگیز ۳۵ برابری مواجه شوند.
ورا روبین در دو سال به ۳۵۰ برابر شتاب دست مییابد، گروک شکاف را برای استنتاج فوقسریع پر میکند
در محدودیتهای فیزیکی، انویدیا پیچیدهترین سیستم محاسباتی هوش مصنوعی خود را معرفی کرد، ورا روبین. هوانگ بیان کرد:
در گذشته، وقتی از هاپر صحبت میکردم، یک تراشه را بالا میبردم که خوب بود. اما وقتی از ورا روبین صحبت میکنم، همه به کل سیستم فکر میکنند. در این سیستم ۱۰۰٪ مایع خنککننده، که بهطور کامل کابلکشی سنتی را حذف میکند، رکهایی که قبلاً دو روز طول میکشید تا نصب شوند، اکنون فقط دو ساعت طول میکشد.
هوانگ اشاره کرد که از طریق طراحی مشترک سختافزار-نرمافزار در انتهای افراطی، ورا روبین یک جهش داده شگفتانگیز در همان مرکز داده ۱GW ایجاد کرد:
در فقط دو سال، نرخ تولید توکن را از ۲۲ میلیون به ۷۰۰ میلیون افزایش دادهایم و به رشد ۳۵۰ برابری دست یافتهایم. قانون مور در همین دوره تنها میتوانست افزایش ۱.۵ برابری را به ارمغان آورد.
برای حل مشکل گلوگاه پهنای باند تحت شرایط استنتاج فوقسریع (مانند ۱۰۰۰ توکن در ثانیه)، انویدیا راهحل نهایی را با ادغام شرکت خریداری شده گروک ارائه داد: استنتاج جداشده نامتقارن. هوانگ توضیح داد:
این دو پردازنده ویژگیهای کاملاً متفاوتی دارند. تراشه گروک دارای ۵۰۰MB SRAM است، در حالی که یک تراشه روبین دارای ۲۸۸GB حافظه است.
هوانگ اشاره کرد که انویدیا، از طریق سیستم نرمافزاری داینامو، مرحله "پیشپر کردن" را که نیاز به محاسبات و حافظه ویدیویی عظیم دارد، به ورا روبین اختصاص میدهد، در حالی که مرحله "کدگشایی" که به شدت به تأخیر حساس است، به گروک اختصاص داده میشود. هوانگ همچنین پیشنهاداتی برای پیکربندی قدرت محاسباتی شرکتها ارائه داد:
اگر بار کاری شما عمدتاً از طریق بالا است، از ۱۰۰٪ ورا روبین استفاده کنید؛ اگر نیاز به تولید توکن در سطح برنامهنویسی با ارزش بالا دارید، ۲۵٪ از ظرفیت مرکز داده خود را به گروک اختصاص دهید.
فاش شد که تراشه گروک LP30، که توسط سامسونگ تولید شده، وارد تولید انبوه شده و انتظار میرود در سهماهه سوم ارسال شود، در حالی که اولین رک ورا روبین در حال حاضر در مایکروسافت آژور عملیاتی است.
علاوه بر این، در مورد فناوری ارتباطات نوری، هوانگ اولین سوئیچ نوری Co-Packaged (CPO) تولید انبوه جهان، Spectrum X را به نمایش گذاشت و نگرانیهای بازار در مورد مسیر "انتقال مس به نوری" را برطرف کرد:
ما به ظرفیت بیشتری از کابل مسی، ظرفیت بیشتری از تراشه نوری و ظرفیت بیشتری از CPO نیاز داریم.
عامل پایان SaaS سنتی، "حقوق + توکن" به استانداردی در سیلیکون ولی تبدیل میشود
علاوه بر موانع سختافزاری، هوانگ بخش قابل توجهی از سخنرانی خود را به انقلاب در نرمافزار و اکوسیستمهای هوش مصنوعی اختصاص داد، بهویژه انفجار عوامل.
او پروژه متنباز OpenClaw را بهعنوان "محبوبترین پروژه متنباز در تاریخ بشر" توصیف کرد و ادعا کرد که این پروژه در عرض چند هفته از دستاوردهای لینوکس در 30 سال گذشته پیشی گرفته است. هوانگ بهصراحت بیان کرد که OpenClaw اساساً "سیستمعامل" برای کامپیوترهای عامل است.
هوانگ تأکید کرد:
هر شرکت SaaS (نرمافزار بهعنوان خدمت) به یک شرکت AaaS (عامل بهعنوان خدمت) تبدیل خواهد شد. شکی نیست که برای استقرار ایمن این عوامل، که توانایی دسترسی به دادههای حساس و اجرای کد را دارند، NVIDIA یک طراحی مرجع NeMo Claw در سطح سازمانی راهاندازی کرده است که یک موتور سیاست و روتر حریم خصوصی را اضافه میکند.
برای حرفهایهای عادی، این تحول نیز در دسترس است. هوانگ یک شکل جدید از محل کار را در آینده تصور کرد:
در آینده، هر مهندس در شرکت ما به یک بودجه سالانه توکن نیاز خواهد داشت. حقوق پایه آنها ممکن است صدها هزار دلار باشد و من حدود نیمی از آن مبلغ را بهعنوان سهمیه توکن به آنها اختصاص میدهم، که به آنها اجازه میدهد تا 10 برابر افزایش کارایی داشته باشند. این بهعنوان یک چپپای جدید در سیلیکون ولی تبدیل شده است: چند توکن با پیشنهاد شما همراه است؟
در پایان سخنرانی، هوانگ همچنین "نسل بعدی معماری محاسباتی، فاینمن" را "فاش" کرد که اولین مقیاسپذیری افقی مشترک سیمهای مسی و CPOها را بهدست خواهد آورد. جالبتر اینکه، NVIDIA در حال توسعه یک کامپیوتر مرکز داده برای فضا بهنام "Vera Rubin Space-1" است که بهطور کامل تخیل قدرت محاسباتی هوش مصنوعی را فراتر از زمین باز میکند.
متن کامل سخنرانی GTC 2026 جنسن هوانگ بهشرح زیر است (با کمک ابزارهای هوش مصنوعی):
مجری: به صحنه خوشآمدید، بنیانگذار و مدیرعامل NVIDIA، جنسن هوانگ.
جنسن هوانگ، بنیانگذار و مدیرعامل:
به GTC خوش آمدید. میخواهم به همه یادآوری کنم که این یک کنفرانس فناوری است. بسیار خوشحالم که میبینم این همه نفر در صبح زود برای ورود صف کشیدهاند و همه شما را اینجا میبینم.
در GTC، ما بر روی سه موضوع اصلی تمرکز خواهیم کرد: فناوری، پلتفرم و اکوسیستم. NVIDIA در حال حاضر سه پلتفرم اصلی دارد: پلتفرم CUDA-X، پلتفرم سیستمها و پلتفرم کارخانه هوش مصنوعی که به تازگی راهاندازی شده است.
قبل از اینکه به طور رسمی شروع کنیم، میخواهم از میزبانان جلسه گرمکردنمان—سارا گو از Conviction، آلفرد لین از Sequoia Capital (اولین سرمایهگذار خطرپذیر NVIDIA) و گاوین بیکر، اولین سرمایهگذار عمده نهادی NVIDIA، تشکر کنم. این سه فرد بینشهای عمیقی در مورد فناوری دارند و تأثیر گستردهای در کل اکوسیستم فناوری دارند. البته، من همچنین میخواهم از تمام مهمانان برجستهای که شخصاً دعوت کردهام تا امروز حضور داشته باشند، تشکر کنم. از این تیم ستارهای متشکرم.
من همچنین میخواهم از تمام شرکتهای حاضر در امروز تشکر کنم. NVIDIA یک شرکت پلتفرمی است و ما فناوری، پلتفرمها و یک اکوسیستم غنی داریم. شرکتهای حاضر در امروز تقریباً تمام شرکتکنندگان در صنعت ۱۰۰ تریلیون دلاری را نمایندگی میکنند، با ۴۵۰ شرکت که این رویداد را حمایت میکنند، که بابت آن عمیقاً سپاسگزارم.
این کنفرانس شامل ۱۰۰۰ فروم فنی و ۲۰۰۰ سخنران است که هر سطحی از معماری "کیک پنج لایه" هوش مصنوعی را پوشش میدهد—از زیرساختهایی مانند زمین، برق و مراکز داده، تا تراشهها، پلتفرمها، مدلها و برنامههای مختلف که در نهایت کل صنعت را به جلو میرانند.
CUDA: دو دهه انباشت فناوری
همه چیز از اینجا شروع میشود. امسال بیستمین سالگرد CUDA است.
در بیست سال گذشته، ما به توسعه این معماری اختصاص دادهایم. CUDA یک اختراع انقلابی است—فناوری SIMT (دستور واحد چند رشتهای) به توسعهدهندگان اجازه میدهد برنامهها را در کد اسکالر بنویسند و آنها را به برنامههای چند رشتهای گسترش دهند، با دشواری برنامهنویسی بسیار کمتر از معماریهای SIMD قبلی. ما به تازگی ویژگی Tiles را اضافه کردهایم تا به توسعهدهندگان کمک کنیم تا هستههای تنسور را راحتتر برنامهنویسی کنند، همچنین ساختارهای مختلف عملیات ریاضی که امروزه هوش مصنوعی به آنها وابسته است. در حال حاضر، CUDA هزاران ابزار، کامپایلر، چارچوب و کتابخانه دارد، با صدها هزار پروژه عمومی در جامعه متن باز، و به طور عمیق در هر اکوسیستم فناوری ادغام شده است.
این نمودار منطق استراتژیک ۱۰۰٪ NVIDIA را نشان میدهد که از ابتدای کار در مورد آن صحبت کردهام. سختترین و هستهایترین عنصر "پایه نصبشده" در پایین نمودار است. در بیست سال گذشته، ما صدها میلیون GPU و سیستمهای محاسباتی که در سطح جهانی CUDA را اجرا میکنند، جمعآوری کردهایم.
GPUهای ما تمام پلتفرمهای ابری را پوشش میدهند و تقریباً به تمام تولیدکنندگان و صنایع کامپیوتر خدمت میکنند. پایه نصب شده بزرگ CUDA دلیل اساسی است که چرا این چرخدنده همچنان به شتاب خود ادامه میدهد. پایه نصب شده توسعهدهندگان را جذب میکند، توسعهدهندگان الگوریتمها و پیشرفتهای جدیدی ایجاد میکنند، پیشرفتها بازارهای جدیدی را به وجود میآورند، بازارهای جدید اکوسیستمهای جدیدی را شکل میدهند و شرکتهای بیشتری را جذب میکنند تا به آن بپیوندند و بدین ترتیب پایه نصب شده را گسترش میدهند - این چرخدنده به طور مداوم در حال شتاب است.
حجم دانلود کتابخانههای NVIDIA با سرعتی شگفتانگیز در حال رشد است، در مقیاس بزرگ و با سرعتی در حال افزایش. این چرخدنده به پلتفرم محاسباتی ما اجازه میدهد تا از برنامههای عظیم و پیشرفتهای جدید مداوم پشتیبانی کند.
مهمتر از همه، این همچنین به این زیرساختها عمر بسیار طولانی میدهد. دلیل آن واضح است: ثروتی از برنامهها وجود دارد که میتوانند بر روی NVIDIA CUDA اجرا شوند، که هر مرحله از چرخه عمر AI، پلتفرمهای مختلف پردازش داده و حلکنندههای اصول علمی مختلف را پوشش میدهد. بنابراین، به محض اینکه GPUهای NVIDIA نصب شوند، ارزش واقعی استفاده از آنها بسیار بالا است. این همچنین دلیل این است که قیمت ابری GPU معماری Ampere که شش سال پیش منتشر کردیم، در واقع در حال افزایش است.
دلیل اساسی همه اینها این است: یک پایه نصب شده بزرگ، یک چرخدنده قوی و یک اکوسیستم توسعهدهنده وسیع. زمانی که این عوامل با هم کار میکنند، همراه با بهروزرسانیهای مداوم نرمافزاری ما، هزینههای محاسباتی به طور مداوم کاهش خواهد یافت. محاسبات شتابدار به طور قابل توجهی عملکرد برنامه را افزایش میدهد و همانطور که ما نرمافزار را در طولانیمدت نگهداری و تکرار میکنیم، کاربران نه تنها در ابتدا جهشهای عملکردی را به دست میآورند بلکه همچنان از کاهش هزینههای محاسباتی لذت میبرند. ما مایل به ارائه پشتیبانی بلندمدت برای هر GPU در سطح جهانی هستیم زیرا آنها در سطح معماری کاملاً سازگار هستند.
ما مایل به انجام این کار هستیم زیرا پایه نصب شده بسیار بزرگ است - هر بار که یک بهینهسازی جدید منتشر میشود، میلیونها کاربر از آن بهرهمند میشوند. این ترکیب پویا به معماری NVIDIA اجازه میدهد تا به طور مداوم پوشش خود را گسترش دهد، رشد خود را تسریع کند و به طور مداوم هزینههای محاسباتی را کاهش دهد و در نهایت رشد جدیدی را تحریک کند. CUDA در هسته همه اینها قرار دارد.
از GeForce تا CUDA: تکامل ۲۵ ساله
سفر ما با CUDA در واقع ۲۵ سال پیش آغاز شد.
جیفورس—بسیاری از شما با جیفورس بزرگ شدهاید. جیفورس موفقترین پروژه بازاریابی انویدیا است. ما شروع به پرورش مشتریان آینده کردیم زمانی که شما نمیتوانستید محصولات ما را خریداری کنید—والدین شما اولین کاربران انویدیا شدند و سال به سال محصولات ما را خریدند تا روزی شما بزرگ شدید و به دانشمندان کامپیوتر عالی تبدیل شدید و به مشتریان و توسعهدهندگان واقعی تبدیل شدید.
این پایهای است که جیفورس ۲۵ سال پیش گذاشت. بیست و پنج سال پیش، ما شیدرهای برنامهپذیر را اختراع کردیم—یک اختراع واضح اما به شدت مهم که شتابدهندهها را برنامهپذیر کرد و اولین شتابدهنده برنامهپذیر جهان، یعنی شیدرهای پیکسل را به وجود آورد. پنج سال بعد، ما CUDA را ایجاد کردیم—یکی از مهمترین سرمایهگذاریهای ما در تاریخ. در آن زمان، شرکت منابع مالی محدودی داشت، اما ما بیشتر سود خود را روی این سرمایهگذاری کردیم و متعهد به گسترش CUDA از جیفورس به هر کامپیوتر بودیم. ما بسیار مصمم بودیم زیرا به پتانسیل آن ایمان داشتیم. با وجود مواجهه با سختیها در مراحل اولیه، شرکت این باور را برای ۱۳ نسل، به مدت بیست سال کامل، حفظ کرد و امروز CUDA در همه جا وجود دارد.
این شیدر پیکسل بود که انقلاب جیفورس را به راه انداخت. حدود هشت سال پیش، ما RTX را راهاندازی کردیم—یک بازنگری جامع از معماری برای عصر گرافیک کامپیوتری مدرن. جیفورس CUDA را به جهان آورد و به همین دلیل، بسیاری از دانشمندان مانند الکس کریژفسکی، ایلیا سوتسکِور، جفری هینتون و اندرو نگ کشف کردند که GPUها میتوانند ابزارهای قدرتمندی برای تسریع یادگیری عمیق شوند و انفجار هوش مصنوعی را یک دهه پیش آغاز کردند.
یک دهه پیش، ما تصمیم گرفتیم که شیدینگ برنامهپذیر را با دو مفهوم جدید ترکیب کنیم: یکی ردیابی پرتو سختافزاری بود که از نظر فنی چالشبرانگیز است؛ دیگری یک ایده آیندهنگر بود—حدود ده سال پیش، ما پیشبینی کردیم که هوش مصنوعی به طور بنیادی گرافیک کامپیوتری را متحول خواهد کرد. همانطور که جیفورس هوش مصنوعی را به جهان آورد، هوش مصنوعی اکنون در حال تغییر نحوه پیادهسازی گرافیک کامپیوتری است.
امروز، میخواهم آینده را به شما نشان دهم. این فناوری گرافیکی نسل بعدی ماست که ما آن را رندرینگ عصبی مینامیم—ادغام عمیق گرافیک ۳ بعدی و هوش مصنوعی. این DLSS 5 است، لطفاً نگاهی بیندازید.
رندرینگ عصبی: ترکیب دادههای ساختاریافته و هوش مصنوعی تولیدی
آیا این شگفتانگیز نیست؟ گرافیک کامپیوتری به این ترتیب احیا میشود.
ما چه کار کردیم؟ ما گرافیک سهبعدی قابل کنترل (پایه واقعی دنیای مجازی) را با دادههای ساختاریافته آن ترکیب کردیم و سپس آن را با هوش مصنوعی تولیدی و محاسبات احتمالی ترکیب کردیم. یکی کاملاً قطعی است، در حالی که دیگری احتمالی اما بسیار واقعگرایانه است—ما این دو مفهوم را به یکدیگر ادغام کردیم و از طریق دادههای ساختاریافته کنترل دقیقی را در حین تولید در زمان واقعی به دست آوردیم. در نهایت، محتوا هم بصری خیرهکننده و هم کاملاً قابل کنترل است.
ایده ادغام اطلاعات ساختاریافته با هوش مصنوعی تولیدی در صنایع مختلف ادامه خواهد یافت. دادههای ساختاریافته سنگ بنای هوش مصنوعی قابل اعتماد هستند.
پلتفرم شتابدهنده برای دادههای ساختاریافته و غیرساختاریافته
حالا میخواهم یک نمودار معماری فنی به شما نشان دهم.
دادههای ساختاریافته—SQL آشنا، Spark، Pandas، Velox و پلتفرمهای مهمی مانند Snowflake، Databricks، Amazon EMR، Azure Fabric، Google BigQuery، همه دادهفریمها را مدیریت میکنند. این دادهفریمها مانند صفحهگستردههای بزرگ هستند که تمام اطلاعات دنیای کسبوکار را حمل میکنند و به عنوان حقایق اساسی (Ground Truth) محاسبات شرکتی عمل میکنند.
در عصر هوش مصنوعی، ما باید اجازه دهیم هوش مصنوعی از دادههای ساختاریافته استفاده کند و شتاب فوقالعادهای به دست آورد. در گذشته، شتابدهی به پردازش دادههای ساختاریافته به منظور کارآمدتر کردن عملکرد شرکتها بود. در آینده، هوش مصنوعی از این ساختارهای داده با سرعتهایی بسیار فراتر از قابلیتهای انسانی استفاده خواهد کرد و عوامل هوش مصنوعی به شدت به پایگاههای داده ساختاریافته وابسته خواهند بود.
در مورد دادههای غیرساختاریافته، پایگاههای داده وکتور، PDFها، ویدیوها، صدا و غیره، اکثریت قریب به اتفاق اشکال داده در جهان را تشکیل میدهند—حدود 90٪ از دادههای تولید شده در هر سال غیرساختاریافته است. در گذشته، این داده تقریباً به طور کامل غیرقابل استفاده بود: ما آن را میخواندیم، در سیستمهای فایل ذخیره میکردیم و همین. ما نمیتوانستیم آن را پرسوجو کنیم و نمیتوانستیم آن را بازیابی کنیم، زیرا دادههای غیرساختاریافته فاقد روشهای ساده نمایهسازی هستند و باید از نظر معنا و زمینه درک شوند. حالا، هوش مصنوعی میتواند این کار را انجام دهد—به لطف فناوریهای درک و ادراک چندمدلی، هوش مصنوعی میتواند اسناد PDF را بخواند، معانی آنها را درک کند و آنها را در ساختارهای بزرگتر برای پرسوجو جاسازی کند.
NVIDIA دو کتابخانه بنیادی برای این منظور ایجاد کرده است:
cuDF: برای پردازش شتابدهنده دادهفریمها و دادههای ساختاریافته
cuVS: برای ذخیرهسازی وکتور، دادههای معنایی و پردازش دادههای هوش مصنوعی غیرساختاری
این دو پلتفرم به یکی از مهمترین پلتفرمهای بنیادی در آینده تبدیل خواهند شد.
امروز، ما از همکاری با چندین شرکت خبر میدهیم. IBM—مخترع SQL—از cuDF برای تسریع پلتفرم دادههای WatsonX خود استفاده خواهد کرد. دل با ما همکاری کرده است تا پلتفرم دادههای هوش مصنوعی دل را ایجاد کند، که cuDF و cuVS را ادغام کرده و به بهبودهای قابل توجهی در پروژههای واقعی با NTT Data دست یافته است. در جبهه Google Cloud، ما اکنون نه تنها Vertex AI را تسریع میکنیم بلکه BigQuery را نیز تسریع میکنیم و با Snapchat همکاری کردهایم تا هزینههای محاسباتی آن را تقریباً 80٪ کاهش دهیم.
مزایای محاسبات تسریعشده سهگانه است: سرعت، مقیاس و هزینه. این با منطق قانون مور همخوانی دارد—دستیابی به جهشهای عملکردی از طریق محاسبات تسریعشده در حالی که به طور مداوم الگوریتمها را بهینهسازی میکنیم، به همه اجازه میدهد از کاهش مداوم هزینههای محاسباتی بهرهمند شوند.
NVIDIA یک پلتفرم محاسبات تسریعشده ساخته است که کتابخانههای متعددی را گرد هم میآورد: RTX، cuDF، cuVS و بیشتر. این کتابخانهها در خدمات ابری جهانی و سیستمهای OEM ادغام شدهاند و به کاربران در سرتاسر جهان دسترسی دارند.
همکاری عمیق با ارائهدهندگان خدمات ابری
همکاری با ارائهدهندگان بزرگ خدمات ابری
Google Cloud: ما Vertex AI و BigQuery را تسریع میکنیم و به طور عمیق با JAX/XLA ادغام میشویم، در حالی که در PyTorch عملکرد عالی داریم—NVIDIA تنها شتابدهندهای در جهان است که در هر دو PyTorch و JAX/XLA عملکرد خوبی دارد. ما مشتریانی مانند Base10، CrowdStrike، Puma و Salesforce را به اکوسیستم Google Cloud آوردهایم.
AWS: ما EMR، SageMaker و Bedrock را تسریع میکنیم و با AWS ادغام عمیقی داریم. امسال، من بهویژه هیجانزده هستم که OpenAI را به AWS خواهیم آورد، که بهطور قابل توجهی رشد مصرف ابری AWS را افزایش میدهد و به OpenAI کمک میکند تا استقرارهای منطقهای و مقیاس محاسباتی را گسترش دهد.
Microsoft Azure: سوپرکامپیوتر ۱۰۰ PFLOPS انویدیا اولین سوپرکامپیوتر ما است که ساخته شده و اولین سوپرکامپیوتر مستقر در Azure است و پایهای مهم برای همکاری با OpenAI فراهم میکند. ما خدمات ابری Azure و AI Foundry را تسریع میکنیم و برای ترویج گسترش منطقهای Azure همکاری میکنیم و بهطور عمیق در جستجوی Bing همکاری میکنیم. بهویژه، قابلیت محاسبات محرمانه ما—که اطمینان میدهد حتی اپراتورها نیز نمیتوانند دادهها و مدلهای کاربر را مشاهده کنند—انویدیا را به یکی از اولین شرکتهای جهان تبدیل کرده است که از محاسبات محرمانه پشتیبانی میکند و استقرارهای محرمانه مدلهای OpenAI و Anthropic را در محیطهای ابری در سراسر جهان امکانپذیر میسازد. به عنوان مثال، ما تمام جریانهای کاری EDA و CAD را برای Synopsys تسریع میکنیم و آنها را در Microsoft Azure مستقر میکنیم.
اوراکل: ما اولین مشتری AI اوراکل هستیم و افتخار میکنم که اولین کسی بودم که مفهوم ابری AI را به اوراکل توضیح دادم. از آن زمان، آنها به سرعت توسعه یافتهاند و ما بسیاری از شرکای جدید مانند Cohere، Fireworks و OpenAI را معرفی کردهایم.
CoreWeave: اولین ابر بومی AI در جهان، متولد شده برای میزبانی GPU و خدمات ابری AI، با پایگاه مشتری عالی و شتاب رشد قوی.
Palantir + Dell: این سه طرف بهطور مشترک یک پلتفرم جدید AI را بر اساس پلتفرم هستیشناسی Palantir و پلتفرم AI ایجاد کردند که قادر به استقرار کامل محلی AI در هر کشور و هر محیط ایزوله است—از پردازش دادهها (وکتوریزه کردن یا ساختاردهی) تا یک پشته محاسباتی تسریعشده کامل برای AI.
انویدیا این رابطه همکاری ویژه را با ارائهدهندگان خدمات ابری جهانی برقرار کرده است—ما مشتریان را به ابر میآوریم و یک اکوسیستم متقابل سودمند ایجاد میکنیم.
ادغام عمودی، باز بودن افقی: استراتژی اصلی انویدیا
انویدیا اولین شرکت در جهان است که بهطور عمودی ادغام شده و بهطور افقی باز است.
ضرورت این مدل بسیار ساده است: محاسبات تسریعشده فقط یک مسئله چیپ یا یک مسئله سیستم نیست؛ بیان کامل آن باید تسریع برنامهها باشد. CPUها میتوانند کامپیوترها را بهطور کلی سریعتر کنند، اما این مسیر به یک گلوگاه رسیده است. در آینده، تنها از طریق تسریع خاص برنامه یا حوزه میتوانیم به پیشرفتهای عملکردی و کاهش هزینهها ادامه دهیم.
این دقیقاً دلیلی است که انویدیا باید بهطور عمیق یک کتابخانه پس از دیگری، یک حوزه پس از دیگری و یک صنعت عمودی پس از دیگری را پرورش دهد. ما یک شرکت محاسباتی بهطور عمودی ادغام شده هستیم و هیچ مسیر دیگری برای انتخاب وجود ندارد. ما باید برنامهها را درک کنیم، حوزهها را درک کنیم، الگوریتمها را بهطور عمیق درک کنیم و قادر باشیم آنها را در هر سناریویی مستقر کنیم - مراکز داده، ابر، محلی، لبه و حتی سیستمهای رباتیک.
در عین حال، انویدیا بهطور افقی باز باقی میماند و آماده است تا فناوری را در هر پلتفرم شریک ادغام کند و به کل جهان اجازه دهد از منافع محاسبات شتابزده بهرهمند شود.
ساختار شرکتکنندگان در این GTC بهطور کامل این را منعکس میکند. نسبت شرکتکنندگان از صنعت خدمات مالی بالاترین است - امیدوار به جذب توسعهدهندگان، نه معاملهگران. اکوسیستم ما کل زنجیره تأمین بالا و پایین را پوشش میدهد. چه شرکتی 50، 70 یا 150 سال تأسیس شده باشد، سال گذشته بهترین سال تاریخ آن بود. ما در نقطه شروع چیزی بسیار، بسیار مهم هستیم.
CUDA-X: موتور محاسبات شتابزده برای صنایع مختلف
در زمینههای عمودی مختلف، انویدیا بهطور عمیق برنامهریزی کرده است:
رانندگی خودران: پوشش وسیع و تأثیر عمیق
خدمات مالی: سرمایهگذاری کمی از مهندسی ویژگیهای دستی به یادگیری عمیق مبتنی بر ابررایانهها منتقل میشود و به "لحظه ترنسفورمر" خود وارد میشود.
بهداشت و درمان: این در حال تجربه "لحظه چتجیپیتی" خود است و شامل کشف دارو با کمک هوش مصنوعی، تشخیصهای پشتیبانیشده توسط عاملهای هوش مصنوعی، خدمات مشتری پزشکی و بیشتر میشود.
صنعت: بزرگترین موج ساختوساز در سطح جهانی در حال شکلگیری است و کارخانههای هوش مصنوعی، کارخانههای تراشه و کارخانههای مراکز داده در حال تأسیس هستند.
سرگرمی و بازی: پلتفرمهای هوش مصنوعی در زمان واقعی از ترجمه، پخش زنده، تعامل بازی و عوامل خرید هوشمند پشتیبانی میکنند.
رباتیک: با بیش از یک دهه کشت عمیق، سه معماری اصلی محاسباتی (کامپیوترهای آموزشی، کامپیوترهای شبیهسازی، کامپیوترهای روی برد) در حال حاضر وجود دارد و ۱۱۰ ربات در این نمایشگاه به نمایش گذاشته شدهاند.
ت telecommunications: صنعتی به ارزش حدود ۲ تریلیون دلار، ایستگاههای پایه از عملکردهای ارتباطی تک به پلتفرمهای زیرساخت هوش مصنوعی تکامل خواهند یافت، با پلتفرم مرتبطی به نام Aerial که به طور عمیق با شرکتهایی مانند نوکیا و تیموبایل همکاری میکند.
هسته تمام این زمینهها کتابخانه CUDA-X ماست—این جوهره بنیادی NVIDIA به عنوان یک شرکت الگوریتمی است. این کتابخانهها داراییهای اصلی شرکت هستند که به پلتفرم محاسباتی اجازه میدهند ارزش واقعی را در صنایع مختلف ارائه دهند.
یکی از مهمترین کتابخانهها cuDNN (کتابخانه شبکه عصبی عمیق CUDA) است که به طور کامل هوش مصنوعی را متحول کرده و انفجار هوش مصنوعی مدرن را به راه انداخته است.
(ویدئوی نمایش CUDA-X را پخش کنید)
هر چیزی که تازه دیدید شبیهسازی بود—شامل حلکنندههای مبتنی بر فیزیک، مدلهای فیزیکی عامل هوش مصنوعی و مدلهای ربات فیزیکی هوش مصنوعی. همه چیز شبیهسازی شده بود، بدون انیمیشن دستی یا اتصال مفاصل. این دقیقاً جایی است که قابلیت اصلی NVIDIA قرار دارد: باز کردن این فرصتها از طریق درک عمیق الگوریتمها و ادغام ارگانیک با پلتفرم محاسباتی.
شرکتهای بومی هوش مصنوعی و عصر جدید محاسبات
شما فقط غولهای صنعتی را دیدید که جامعه امروز را تعریف میکنند، مانند والمارت، لورئال، جیپیمورگان چیس، روش و تویوتا، و همچنین تعداد زیادی از شرکتهایی که ممکن است هرگز نام آنها را نشنیده باشید—ما اینها را شرکتهای بومی هوش مصنوعی مینامیم. این لیست گسترده است و شامل OpenAI، Anthropic و بسیاری از شرکتهای نوظهور است که به بخشهای مختلف خدمت میکنند.
در دو سال گذشته، این صنعت رشد شگفتانگیزی را تجربه کرده است. مقیاس سرمایهگذاری خطرپذیر که به استارتاپها سرازیر شده به ۱۵۰ میلیارد دلار رسید که بالاترین رکورد در تاریخ بشر است. مهمتر از همه، اندازه سرمایهگذاریهای فردی از میلیونها دلار به صدها میلیون و حتی میلیاردها دلار جهش کرده است. دلیل آن ساده است: برای اولین بار در تاریخ، هر یک از این شرکتها به منابع محاسباتی عظیم و تعداد زیادی توکن نیاز دارند. این صنعت در حال ایجاد و تولید توکنها یا افزودن ارزش به توکنها از سازمانهایی مانند Anthropic و OpenAI است.
دقیقاً همانطور که انقلاب رایانه، انقلاب اینترنت و انقلاب ابر موبایل هر کدام یک دسته از شرکتهای تاریخساز را به وجود آوردند، این نسل از تحول پلتفرم محاسباتی نیز منجر به ظهور یک دسته از شرکتهای بسیار تأثیرگذار خواهد شد و به نیروی مهمی در دنیای آینده تبدیل خواهد شد.
سه پیشرفت تاریخی که همه اینها را به جلو میبرد
در دو سال گذشته دقیقاً چه اتفاقی افتاده است؟ سه رویداد بزرگ.
اول: چتجیپیتی، آغازگر عصر هوش مصنوعی تولیدی (اواخر ۲۰۲۲ تا ۲۰۲۳)
این نه تنها میتواند درک کند و بفهمد بلکه میتواند محتوای منحصر به فردی نیز تولید کند. من ادغام هوش مصنوعی تولیدی با گرافیک کامپیوتری را نشان دادم. هوش مصنوعی تولیدی به طور بنیادی نحوه کارکرد محاسبات را تغییر میدهد—محاسبات از نوع بازیابی به نوع تولید تغییر کرده و تأثیر عمیقی بر معماری کامپیوتر، روشهای استقرار و اهمیت کلی دارد.
دوم: هوش مصنوعی استدلالی، که توسط o1 نمایندگی میشود
قابلیتهای استدلالی به هوش مصنوعی این امکان را میدهد که خود را بازتاب دهد، برنامهریزی کند و مشکلات را تجزیه و تحلیل کند—شکستن مشکلاتی که نمیتواند به طور مستقیم درک کند به مراحل قابل مدیریت. o1 هوش مصنوعی تولیدی را قابل اعتماد میکند و قادر به استدلال بر اساس اطلاعات واقعی است. برای دستیابی به این، مقدار توکنهای زمینه ورودی و توکنهای خروجی برای تفکر به طور قابل توجهی افزایش یافته است که منجر به افزایش قابل توجهی در تقاضای محاسباتی شده است.
سوم: کد کلاود، اولین مدل عامل
این میتواند فایلها را بخواند، کد بنویسد، کامپایل کند، آزمایش کند، ارزیابی کند و تکرار کند. کد کلاود به طور کامل مهندسی نرمافزار را متحول کرده است—۱۰۰٪ مهندسان NVIDIA از یکی یا چند مورد از کد کلاود، کدکس و کرسر استفاده میکنند؛ هیچ مهندس نرمافزاری وجود ندارد که از کمک هوش مصنوعی بهرهمند نشود.
این یک نقطه عطف جدید است—شما دیگر از هوش مصنوعی نمیپرسید "این چیست، کجاست، چگونه انجامش دهم"، بلکه اجازه میدهید "خلق کند، اجرا کند، بسازد" و به آن اجازه میدهید به طور فعال از ابزارها استفاده کند، فایلها را بخواند، مشکلات را تجزیه و تحلیل کند و اقدام کند. هوش مصنوعی از درک به تولید، به استدلال و اکنون واقعاً قادر به انجام وظایف تکامل یافته است.
در دو سال گذشته، تقاضای محاسباتی برای استدلال حدود ۱۰,۰۰۰ برابر افزایش یافته و استفاده حدود ۱۰۰ برابر رشد کرده است. من همیشه معتقد بودهام که تقاضای محاسباتی در دو سال گذشته حدود یک میلیون برابر افزایش یافته است—این احساس مشترک بین همه، از جمله OpenAI و Anthropic است. اگر بتوانیم قدرت محاسباتی بیشتری به دست آوریم، میتوانیم توکنهای بیشتری تولید کنیم، درآمدها افزایش مییابد و هوش مصنوعی هوشمندتر خواهد شد. نقطه عطف استدلال واقعاً فرا رسیده است.
عصر یک تریلیون دلاری زیرساخت هوش مصنوعی
سال گذشته در این زمان، من اینجا اعلام کردم که ما به تقاضا و سفارشات خرید برای بلکول و روبین تا سال ۲۰۲۶ با اطمینان بالا نگاه میکنیم که به حدود ۵۰۰ میلیارد دلار میرسد. امروز، یک سال پس از GTC، من اینجا ایستادهام تا به شما بگویم: با نگاه به سال ۲۰۲۷، من عددی حداقل یک تریلیون دلار میبینم. و من مطمئن هستم که تقاضای واقعی محاسباتی بسیار فراتر از این خواهد بود.
۲۰۲۵: سال استنتاج برای انویدیا
۲۰۲۵ سال استنتاج انویدیا است. ما میخواهیم اطمینان حاصل کنیم که فراتر از آموزش و پس از آموزش، در هر مرحله از چرخه عمر هوش مصنوعی، برتری را حفظ کنیم و اجازه دهیم زیرساخت سرمایهگذاری شده به طور کارآمد و مؤثر برای مدت طولانیتری با هزینههای واحد کمتر عمل کند.
در عین حال، آنتروپیک و متا به طور رسمی به پلتفرم انویدیا پیوستهاند و به طور مشترک یکسوم از تقاضای محاسباتی هوش مصنوعی جهانی را نمایندگی میکنند. مدلهای متنباز به مرزهای پیشرفته نزدیک میشوند و در همه جا وجود دارند.
انویدیا در حال حاضر تنها پلتفرم در جهان است که قادر به اجرای تمام زمینههای هوش مصنوعی—زبان، زیستشناسی، گرافیک کامپیوتری، بینایی کامپیوتری، گفتار، پروتئین و شیمی، رباتیک و غیره—همه مدلهای هوش مصنوعی، چه در لبه و چه در ابر، بدون توجه به زبان است. معماری انویدیا در تمام این سناریوها جهانی است و ما را به پلتفرم با کمترین هزینه و بالاترین اطمینان تبدیل میکند.
در حال حاضر، ۶۰٪ از کسبوکار انویدیا از پنج ارائهدهنده خدمات ابری هایپر مقیاس برتر میآید، در حالی که ۴۰٪ باقیمانده در ابرهای منطقهای، ابرهای حاکمیتی، شرکتها، صنایع، رباتیک و محاسبات لبه توزیع شده است. گستره پوشش هوش مصنوعی خود نشانهای از تابآوری آن است—این بدون شک یک تحول جدید در پلتفرم محاسباتی است.
گریس بلکول و NVLink 72: نوآوری معماری جسورانه
در حالی که معماری هاپر هنوز در اوج خود بود، ما تصمیم گرفتیم که سیستم را به طور کامل بازطراحی کنیم و NVLink را از ۸ خط به NVLink 72 گسترش دهیم و سیستم محاسباتی را به طور کامل تجزیه و بازسازی کنیم. گریس بلکول NVLink 72 یک شرط فناوری قابل توجه است، که برای همه شرکا آسان نیست و من صمیمانه از همه برای این موضوع تشکر میکنم.
در عین حال، ما NVFP4 را راهاندازی کردیم - نه فقط یک FP4 معمولی، بلکه نوع جدیدی از هسته تنسور و واحد محاسباتی. ما نشان دادهایم که NVFP4 میتواند استنتاج را بدون هیچ گونه از دست دادن دقت انجام دهد در حالی که بهبودهای قابل توجهی در عملکرد و کارایی انرژی ارائه میدهد و همچنین برای آموزش مناسب است. علاوه بر این، مجموعهای از الگوریتمهای جدید مانند دینامو و TensorRT-LLM ظهور کردهاند و ما حتی میلیاردها دلار سرمایهگذاری کردیم تا یک ابررایانه بهطور خاص برای بهینهسازی هستهها بسازیم که DGX Cloud نام دارد.
نتایج نشان میدهد که عملکرد استنتاج ما قابل توجه است. دادههای تحلیل نیمه - جامعترین ارزیابی عملکرد استنتاج AI تا به امروز - نشان میدهد که NVIDIA بهطور قابل توجهی در هر دو معیار توکن در وات و هزینه به ازای توکن پیشتاز است. در اصل، قانون مور ممکن است یک افزایش عملکرد ۱.۵ برابری برای H200 فراهم کرده باشد، اما ما ۳۵ برابر به دست آوردیم. دیلان پاتل از تحلیل نیمه حتی گفت: "جنسن دروغ گفت؛ در واقع ۵۰ برابر است." او درست میگوید.
من او را نقل قول میکنم: "جنسن دروغ گفت."
هزینه NVIDIA به ازای هر توکن در جهان پایینترین است و در حال حاضر بینظیر است. دلیل این امر در طراحی مشترک افراطی نهفته است.
به عنوان مثال، قبل از اینکه NVIDIA کل مجموعه نرمافزار و الگوریتمها را بهروزرسانی کند، Fireworks دارای سرعت متوسط توکن حدود ۷۰۰ در ثانیه بود؛ پس از بهروزرسانی، به حدود ۵۰۰۰ در ثانیه نزدیک شد که افزایش حدود ۷ برابری داشت. این قدرت طراحی مشترک افراطی است.
کارخانه AI: از مراکز داده تا کارخانههای توکن
مراکز داده قبلاً مکانهایی برای ذخیره فایلها بودند؛ اکنون آنها کارخانههایی برای تولید توکن هستند. هر ارائهدهنده خدمات ابری و هر شرکت AI در آینده از "کارایی کارخانه توکن" به عنوان یک معیار عملیاتی اصلی استفاده خواهد کرد.
این است استدلال اصلی من:
محور عمودی: تولید—تعداد توکنهای تولید شده در هر ثانیه با قدرت ثابت
محور افقی: سرعت تعامل—سرعت پاسخ برای هر استنتاج؛ هر چه سرعت بیشتر باشد، مدل قابل استفاده بزرگتر، زمینه طولانیتر و هوش مصنوعی هوشمندتر است
توکنها کالای جدید هستند و هنگامی که به بلوغ برسند، در سطوح مختلف قیمتگذاری خواهند شد:
سطح رایگان (عملکرد بالا، سرعت پایین)
سطح میانه (~۳ دلار به ازای هر میلیون توکن)
سطح بالا (~۶ دلار به ازای هر میلیون توکن)
سطح سرعت بالا (~۴۵ دلار به ازای هر میلیون توکن)
سطح سرعت فوقالعاده بالا (~۱۵۰ دلار به ازای هر میلیون توکن)
در مقایسه با هاپر، گریس بلکول از طریق بالاترین سطح ارزش، تولید را ۳۵ برابر بهبود بخشیده و یک سطح جدید معرفی کرده است. با سادهسازی برآوردهای مدل، اگر ۲۵٪ از قدرت به هر یک از چهار سطح اختصاص یابد، گریس بلکول میتواند ۵ برابر بیشتر از هاپر درآمد تولید کند.
ورا روبین: سیستم محاسباتی AI نسل بعدی
(پخش ویدیو معرفی سیستم ورا روبین)
ورا روبین یک سیستم کامل و بهینهسازی شده از ابتدا تا انتها است که برای بارهای کاری عاملی طراحی شده است:
هسته محاسباتی مدل زبان بزرگ: خوشه GPU NVLink 72، مدیریت پیشپر کردن و کش KV
سیپییو جدید ورا: طراحی شده برای عملکرد بسیار بالا در تکنخ، با استفاده از حافظه LPDDR5، با کارایی انرژی عالی، تنها سیپییو مرکز داده در جهان که از LPDDR5 استفاده میکند، مناسب برای تماسهای ابزار عامل AI
سیستم ذخیرهسازی: BlueField 4 + CX 9، یک پلتفرم ذخیرهسازی جدید برای عصر AI، با ۱۰۰٪ مشارکت از صنعت ذخیرهسازی جهانی
سوئیچ CPO Spectrum X: اولین سوئیچ اترنت نوری همپک شده در جهان، اکنون در تولید انبوه کامل
کیبر رک: یک سیستم رک جدید که از ۱۴۴ GPU پشتیبانی میکند تا یک دامنه NVLink واحد تشکیل دهد، با محاسبات جلویی و سوئیچینگ NVLink پشتی، یک کامپیوتر غولپیکر را تشکیل میدهد.
روبین اولترا: گره ابررایانه نسل بعدی، طراحی عمودی، همراه با رک کیبر، که از اتصالات NVLink در مقیاس بزرگتر پشتیبانی میکند
ورا روبین ۱۰۰٪ با مایع خنک میشود و زمان نصب را از دو روز به دو ساعت کاهش میدهد، با استفاده از خنکسازی آب داغ ۴۵ درجه سانتیگراد، که فشار خنکسازی در مراکز داده را به طور قابل توجهی کاهش میدهد. این بار، ساتیا (نادلا) تأیید کرده است که اولین رک ورا روبین اکنون در مایکروسافت آژور عملیاتی است، که من آن را بسیار هیجانانگیز میدانم.
ادغام گروک: گسترش شدید عملکرد استنتاج
ما تیم گروک را به دست آوردیم و مجوز فناوری آن را دریافت کردیم. گروک یک پردازنده جریان داده قطعی است که از کامپایل استاتیک و زمانبندی کامپایلر استفاده میکند، با مقدار زیادی SRAM، بهینهسازی شده برای استنتاج بار کاری واحد، با تأخیر بسیار کم و سرعت تولید توکن بالا.
با این حال، ظرفیت حافظه گروک محدود است (۵۰۰ مگابایت SRAM روی چیپ)، که حمل مستقل پارامترها و کش KV مدلهای بزرگ را دشوار میکند و کاربرد آن در مقیاس بزرگ را محدود میکند.
راهحل دینامو است - مجموعهای از نرمافزارهای زمانبندی استنتاج. ما خط لوله استنتاج را از طریق دینامو تفکیک کردیم:
پیشپر کردن و رمزگشایی مکانیزم توجه بر روی ورا روبین انجام میشود (که به قدرت محاسباتی و ذخیرهسازی کش KV زیادی نیاز دارد)
رمزگشایی شبکه پیشخور، یعنی بخش تولید توکن، بر روی گروک انجام میشود (که به پهنای باند بسیار بالا و تأخیر کم نیاز دارد)
این دو از طریق اترنت به طور محکم به هم متصل هستند و تأخیر را از طریق حالتهای خاص تقریباً به نصف کاهش میدهند. تحت زمانبندی یکپارچه دینامو، "سیستم عامل کارخانه هوش مصنوعی،" عملکرد کلی ۳۵ برابر بهبود مییابد و سطوح جدیدی از عملکرد استنتاج که قبلاً توسط NVLink 72 غیرقابل دسترسی بود، باز میشود.
توصیههایی برای ترکیب گروک و ورا روبین:
اگر بار کاری عمدتاً دارای توان خروجی بالا است، از ۱۰۰٪ ورا روبین استفاده کنید
اگر تعداد زیادی از بارهای کاری شامل تولید توکن با ارزش بالا مانند تولید کد است، گروک را معرفی کنید، با نسبت پیشنهادی حدود ۲۵٪ گروک + ۷۵٪ ورا روبین
گروک LP30، که توسط سامسونگ تولید شده، وارد تولید انبوه شده و انتظار میرود در سهماهه سوم ارسال شود. از سامسونگ به خاطر همکاری کاملشان تشکر میکنم.
پرش تاریخی در عملکرد استنتاج
کمیتسازی پیشرفتهای فناوری قبلی: در عرض دو سال، نرخ تولید توکن یک کارخانه هوش مصنوعی 1GW از 22 میلیون توکن در ثانیه به 700 میلیون توکن در ثانیه افزایش خواهد یافت، که افزایش 350 برابری است. این قدرت طراحی مشترک افراطی است.
نقشه راه فناوری
بلکول: در حال حاضر در تولید، سیستم رک استاندارد اوبرون، کابل مسی گسترش یافته به NVLink 72، گسترش اختیاری نوری به NVLink 576
ورا روبین (فعلی): رک کیبر، NVLink 144 (کابل مسی)؛ رک اوبرون، NVLink 72 + نوری، گسترش یافته به NVLink 576؛ اسپکتروم 6، اولین سوئیچ CPO در جهان
ورا روبین اولترا (به زودی): GPU نسل بعدی روبین اولترا، چیپ LP35 (اولین ادغام NVFP4)، که عملکرد را چندین برابر افزایش میدهد
فاینمن (نسل بعدی): GPU جدید، چیپ LP40 (به طور مشترک توسط NVIDIA و تیم Groq توسعه یافته، ادغام NVFP4)؛ CPU جدید—رزا (روزالین)؛ بلوفیلد 5؛ CX 10؛ رک کیبر که از هر دو روش گسترش مسی و CPO پشتیبانی میکند
نقشه راه واضح است: گسترش مسی، گسترش نوری (Scale-Up) و گسترش نوری (Scale-Out) به طور موازی در حال پیشرفت هستند و ما به همه شرکا نیاز داریم تا به گسترش تولید در کابلهای مسی، فیبرهای نوری و CPO ادامه دهند.
NVIDIA DSX: پلتفرم دوقلوی دیجیتال برای کارخانههای هوش مصنوعی
کارخانههای هوش مصنوعی به طور فزایندهای پیچیده میشوند، اما تأمینکنندگان مختلف فناوری که آنها را تشکیل میدهند هرگز در مرحله طراحی همکاری نکردهاند و فقط در مرکز داده "ملاقات" کردهاند—این به وضوح ناکافی است.
برای حل این مشکل، ما Omniverse و پلتفرم NVIDIA DSX را بر اساس آن ایجاد کردیم—پلتفرمی برای همه شرکا تا به طور مشترک کارخانههای هوش مصنوعی در سطح گیگاوات را در دنیای مجازی طراحی و اداره کنند. DSX ارائه میدهد:
سیستمهای شبیهسازی مکانیکی، حرارتی، الکتریکی و شبکهای در سطح رک
اتصال به شبکه برق برای برنامهریزی صرفهجویی در انرژی به صورت مشترک
بهینهسازی مصرف انرژی و خنککنندگی دینامیک بر اساس Max-Q در مرکز داده
به طور محافظهکارانه تخمین زده میشود که این سیستم میتواند کارایی استفاده از انرژی را حدود ۲ برابر بهبود بخشد که این یک مزیت قابل توجه در مقیاسی است که ما در حال بحث درباره آن هستیم. Omniverse از زمین دیجیتال آغاز میشود و دوقلوهای دیجیتال در مقیاسهای مختلف را حمل خواهد کرد؛ ما در حال ساخت بزرگترین کامپیوتر در تاریخ بشر به همکاری با شرکای جهانی هستیم.
علاوه بر این، NVIDIA به فضا وارد میشود. چیپ Thor گواهی تابش را گذرانده و در ماهوارهها در حال کار است. ما در حال توسعه Vera Rubin Space-1 با شرکای خود برای ساخت کامپیوترهای مرکز داده فضایی هستیم. در فضا، ما تنها میتوانیم به تابش برای دفع حرارت تکیه کنیم و مدیریت حرارتی یک چالش اصلی است؛ ما در حال جمعآوری بهترین مهندسان برای مقابله با این چالش هستیم.
OpenClaw: سیستمعامل برای عصر عاملها
پیتر اشتاینبرگر نرمافزاری به نام OpenClaw توسعه داده است. این محبوبترین پروژه متنباز در تاریخ بشر است که در عرض چند هفته از دستاوردهای لینوکس پیشی گرفته است.
OpenClaw اساساً یک سیستم عاملدار است که قادر به:
مدیریت منابع، دسترسی به ابزارها، سیستمهای فایل و مدلهای زبانی بزرگ
اجرای زمانبندی و وظایف زماندار
به تدریج تجزیه مشکلات و فراخوانی زیرعاملها
پشتیبانی از انواع ورودی و خروجی دلخواه (صدا، ویدئو، متن، ایمیل و غیره)
توصیف آن در نحو یک سیستمعامل، واقعاً یک سیستمعامل است—سیستمعامل برای کامپیوترهای عامل. ویندوز رایانه شخصی را ممکن ساخت؛ OpenClaw عاملهای شخصی را ممکن میسازد.
هر شرکت نیاز دارد استراتژی OpenClaw خود را تدوین کند، درست همانطور که همه ما به استراتژیهای لینوکس، استراتژیهای HTML و استراتژیهای Kubernetes نیاز داریم.
بازسازی جامع IT سازمانی
قبل از OpenClaw، IT سازمانی شامل ورود دادهها و فایلها به سیستمها، جریان از طریق ابزارها و جریانهای کاری و در نهایت تبدیل به ابزارهایی برای استفاده انسان بود. شرکتهای نرمافزاری ابزارهایی ایجاد کردند و یکپارچهسازان سیستم (GSI) و شرکتهای مشاوره به شرکتها در استفاده از این ابزارها کمک کردند.
پس از OpenClaw، هر شرکت SaaS به یک شرکت AaaS (Agentic as a Service) تبدیل خواهد شد - نه تنها ابزارها را ارائه میدهد، بلکه عوامل هوش مصنوعی متخصص در زمینههای خاص را نیز ارائه میدهد.
اما یک چالش کلیدی وجود دارد: عوامل داخلی میتوانند به دادههای حساس دسترسی پیدا کنند، کد را اجرا کنند و با طرفهای خارجی ارتباط برقرار کنند. این باید به شدت در محیطهای شرکتی کنترل شود.
برای حل این مشکل، ما با پیتر همکاری کردیم تا امنیت را در نسخه شرکتی ادغام کنیم و راهاندازی کنیم:
NeMo Claw (طراحی مرجع): یک چارچوب مرجع در سطح شرکتی مبتنی بر OpenClaw که مجموعه کامل ابزارهای هوش مصنوعی عامل NVIDIA را ادغام میکند.
Open Shield (لایه امنیتی): ادغام شده در OpenClaw، ارائهدهنده موتورهای سیاست، موانع شبکه و روترهای حریم خصوصی برای اطمینان از امنیت دادههای شرکتی.
NeMo Cloud: برای دانلود در دسترس است و با موتورهای سیاست تمام شرکتهای SaaS ادغام شده است.
این یک رنسانس برای IT شرکتی است، صنعتی به ارزش ۲ تریلیون دلار که آماده است به مقیاس چند تریلیون دلاری رشد کند و از ارائه ابزارها به ارائه خدمات عامل هوش مصنوعی تخصصی تغییر کند.
من به طور کامل پیشبینی میکنم که در آینده، هر مهندس در یک شرکت یک بودجه سالانه توکن خواهد داشت. حقوق آنها ممکن است صدها هزار دلار باشد و من به علاوه یک سهمیه توکن معادل نیمی از حقوق آنها را ارائه میدهم که اجازه میدهد خروجی آنها ۱۰ برابر شود. "چند توکن با پیشنهاد شغلی شما همراه است؟" به یک موضوع جدید استخدام در سیلیکون ولی تبدیل شده است.
هر شرکت در آینده هم کاربر توکن (برای مهندسان) و هم تولیدکننده توکن (ارائهدهنده خدمات به مشتریان خود) خواهد بود. اهمیت OpenClaw را نمیتوان نادیده گرفت؛ این به اندازه HTML و لینوکس مهم است.
ابتکار مدل باز NVIDIA
در زمینه عوامل سفارشی (Custom Claw)، ما مدلهای پیشرفته خود توسعه یافته NVIDIA را ارائه میدهیم:
مدل دامنه Nemotron مدل زبان بزرگ Cosmos مدل بنیاد GROOT مدل ربات انساننما Alpamayo رانندگی خودکار BioNeMo زیستشناسی دیجیتال Phys-AIAI فیزیک
ما در خط مقدم فناوری در هر زمینه هستیم و به تکرار مداوم متعهد هستیم - نموتران ۳ با نموتران ۴ دنبال خواهد شد، کاسموس ۱ با کاسموس ۲ دنبال خواهد شد و گروک نیز به نسل دوم خود خواهد رفت.
نموتران ۳ در بین سه مدل برتر جهانی در OpenClaw قرار دارد و در لبه فناوری است. نموتران ۳ اولترا به قویترین مدل بنیادی تبدیل خواهد شد که از کشورها در ساخت هوش مصنوعی مستقل حمایت میکند.
امروز، ما از تأسیس اتحاد نموتران خبر میدهیم و میلیاردها دلار سرمایهگذاری میکنیم تا توسعه مدلهای بنیادی هوش مصنوعی را پیش ببریم. اعضای اتحاد شامل: بلکفارست لبز، کُرسور، لنگچین، میسترال، پرپلکسیتی، رفلکشن، ساروام (هند)، ماشینهای تفکر (آزمایشگاه میرا مورات) و بیشتر. شرکتهای نرمافزار شرکتی یکی پس از دیگری به ما ملحق میشوند و طراحی مرجع NeMo Claw و ابزار هوش مصنوعی NVIDIA را در محصولات خود ادغام میکنند.
هوش مصنوعی فیزیکی و رباتیک
نمایندگان دیجیتال در دنیای دیجیتال عمل میکنند - کد مینویسند، دادهها را تحلیل میکنند؛ در حالی که هوش مصنوعی فیزیکی به نمایندگان تجسمیافته، یعنی رباتها اشاره دارد.
در این GTC، ۱۱۰ ربات به نمایش درآمدند که تقریباً تمام شرکتهای توسعه ربات در سطح جهانی را در بر میگیرد. NVIDIA سه کامپیوتر (کامپیوترهای آموزشی، کامپیوترهای شبیهسازی، کامپیوترهای روی برد) و یک پشته نرمافزاری کامل و مدلهای هوش مصنوعی ارائه میدهد.
از نظر رانندگی خودران، "لحظه ChatGPT" برای رانندگی خودران فرا رسیده است. امروز، ما از چهار شریک جدید که به پلتفرم RoboTaxi Ready NVIDIA ملحق میشوند، خبر میدهیم: BYD، هیوندای، نیسان و جیلی، با تولید سالانه مجموع ۱۸ میلیون خودرو. به همراه شرکای قبلی مانند مرسدس بنز، تویوتا و جنرال موتورز، این خط تولید بیشتر گسترش یافته است. ما همچنین از یک همکاری مهم با اوبر برای استقرار و ادغام خودروهای RoboTaxi Ready در چندین شهر خبر دادیم.
در زمینه رباتهای صنعتی، شرکتهای متعددی مانند ABB، Universal Robotics و KUKA با ما همکاری میکنند تا مدلهای هوش مصنوعی فیزیکی را با سیستمهای شبیهسازی ترکیب کنند و استقرار رباتها را در خطوط تولید جهانی ترویج دهند.
در ارتباطات، کاترپیلار و T-Mobile نیز در بین آنها هستند. در آینده، ایستگاههای پایه بیسیم دیگر فقط گرههای ارتباطی نخواهند بود بلکه به NVIDIA Aerial AI RAN تبدیل خواهند شد - یک پلتفرم محاسباتی هوشمند لبه که قادر به درک ترافیک در زمان واقعی و تنظیمات beamforming برای دستیابی به قابلیتهای صرفهجویی در انرژی و افزایش کارایی است.
بخش ویژه: ظاهر ربات اولاف
(ویدیو نمایش ربات اولاف دیزنی را پخش کنید)
جنسن هوانگ: مرد برفی اینجاست! نیوتون به خوبی کار میکند! اومنیورس هم به خوبی کار میکند! اولاف، حال شما چطور است؟
اولاف: من واقعاً خوشحالم که تو را میبینم.
جنسن هوانگ: بله، چون من به تو یک کامپیوتر دادم—جتسون!
اولاف: این چیست؟
جنسن هوانگ: این درست درون شکم توست.
اولاف: این شگفتانگیز است.
جنسن هوانگ: تو در اومنیورس راه رفتن را یاد گرفتی.
اولاف: من عاشق راه رفتن هستم. این خیلی بهتر از سوار شدن بر روی گوزن شمالی و نگاه کردن به آسمان زیباست.
جنسن هوانگ: این به خاطر شبیهسازی فیزیکی است—حلکننده نیوتون که بر روی NVIDIA Warp اجرا میشود، که در همکاری با دیزنی و دیپمایند توسعه یافته و به تو اجازه میدهد تا به دنیای فیزیکی واقعی سازگار شوی.
اولاف: من تازه میخواستم این را بگویم.
جنسن هوانگ: این هوش توست. من یک مرد برفی هستم، نه یک توپ برفی.
جنسن هوانگ: آیا میتوانی تصور کنی؟ دیزنیلند آینده—تمام این شخصیتهای رباتی که بهطور آزاد در پارک راه میروند. اما راستش را بخواهی، فکر میکردم قدت بیشتر است. هرگز چنین آدم برفی کوتاهی ندیدهام.
اولاف: (بیتوجه)
جنسن هوانگ: میتوانی به من کمک کنی تا سخنرانی امروز را جمعبندی کنم؟
اولاف: این فوقالعاده خواهد بود!
خلاصه کلیدی
جنسن هوانگ: امروز، ما به بررسی موضوعات اصلی زیر پرداختیم:
ورود نقطه عطف استدلال: استدلال به بار اصلی کار AI تبدیل شده است، توکنها کالای جدید هستند و عملکرد استنتاج بهطور مستقیم درآمد را تعیین میکند.
عصر کارخانههای AI: مراکز داده از تأسیسات ذخیرهسازی فایل به کارخانههای تولید توکن تبدیل شدهاند و در آینده، هر شرکتی رقابتپذیری خود را با "کارایی کارخانه AI" اندازهگیری خواهد کرد.
انقلاب عامل OpenClaw: OpenClaw عصر محاسبات عامل را آغاز کرده است و IT شرکتی در حال انتقال از عصر ابزار به عصر عامل است؛ هر شرکت نیاز دارد استراتژی OpenClaw خود را تدوین کند.
AI فیزیکی و رباتیک: هوش تجسمیافته در حال گسترش است، با رانندگی خودکار، رباتهای صنعتی و رباتهای انساننما که بهطور جمعی فرصت مهم بعدی برای AI فیزیکی را تشکیل میدهند.
از همه شما متشکرم و از GTC لذت ببرید!
ممکن است شما نیز علاقهمند باشید

سه نمودار قابل توجه در کنفرانس GTC انویدیا: محاسبات ارزانتر، هزینهی بیشتر

گزارش صبح | استراتژی هفته گذشته ۱.۵۷ میلیارد دلار سرمایهگذاری کرد تا داراییهای خود را به میزان ۲۲۳۳۷ بیتکوین افزایش دهد؛ Abra قصد دارد از طریق ادغام SPAC سهام خود را به عموم عرضه کند؛ Metaplanet قصد دارد تقریباً ۷۶۵ میلیون دلار برای افزایش داراییهای ب

BTC: هشت شمع سبز به ۷۶ هزار دلار رسیدند، منطق برتری بر طلا در میانه نبرد چیست؟

سیبی اینسایتس: نه پیشبینی برای بخش فینتک در سال ۲۰۲۶، در حالی که توکنسازی داراییها در حال تبدیل شدن به یک روند است.

تحقیقات دِیون استِبلکوین: عرضه و تقاضای یک بازار ۳۰۰ میلیارد دلاری

نامه سالانه Stripe: تراکم شناختی جدید بسیار بالاست، به خصوص مدل ۵ سطحی «هوش مصنوعی + پرداختها»
در WEEX طلا، نقره و نفت معامله کنید: ۳۰۰٬۰۰۰ دلار پاداش و کارمزد ۰٪
WEEX یک کمپین معاملاتی بزرگمقیاس طلا، نقره و نفت را راهاندازی کرده است که شامل کارمزد ۰٪، استخر جوایز ۳۰۰ هزار دلاری و فرصتهای «معامله کن و کسب کن» است و به معاملهگران این امکان را میدهد که در WEEX سپرده بگذارند، کالاهای توکنشدهای مانند PAXG و XAUT را معامله کنند و در جدولهای ردهبندی با یکدیگر رقابت نمایند.

افزایش قیمت Ethereum و سهام BitMine پس از خرید جدید خزانه
افزایش قیمت Ethereum و سهام BitMine ناشی از خرید جدید خزانه خرید جدید BitMine با هدف کنترل 5%…

پیشبینی قیمت Bitcoin: مدیر دارایی میلیارد دلاری فرصت انفجاری را پس از افت بازار اعلام کرد
نکات کلیدی نزول قابل توجه بازار ارزهای دیجیتال، فرصتی استراتژیک برای سرمایهگذاران حرفهای ممکن است ارائه دهد. پلتفرم…

بانک مرکزی ژاپن به آزمایش سیستم تسویه ذخایر مبتنی بر blockchain میپردازد
بانک مرکزی ژاپن به پروژه آزمایش سیستم تسویه ذخایر با استفاده از فناوری blockchain وارد شده است. استفاده…

پیشبینی قیمت Ethereum: نهنگها هفتمین ماه قرمز را ایجاد میکنند در حالی که بخش RWA به رکورد ۱۵ میلیارد دلاری میرسد
نکات کلیدی Ethereum در حال تجربه هفتمین ماه قرمز خود است و این امر باعث انتظار کاهش قیمت…

Untitled
I’m sorry, I can’t assist with that request.

رشد چشمگیر معاملات رمزارز در کره جنوبی: دامینیت XRP در حالی که ۱۴ آلتکوین صعود میکنند
نکات کلیدی: صرافیهای کرهجنوبی مانند آپביט و بیتهمب شاهد افزایش شدید حجم معاملات در ۲۴ ساعت گذشته هستند…

شرکت Alto Neuroscience مبلغ ۱۲۰ میلیون دلار برای آزمایش داروهای ضد افسردگی دریافت کرد.
نکات کلیدی: شرکت Alto Neuroscience مبلغ ۱۲۰ میلیون دلار برای پیشبرد توسعه ALTO-207 که افسردگی مقاوم به درمان را هدف قرار میدهد، جمعآوری کرده است. آلتو-۲۰۷…

تغییرات استانداردهای قیمتگذاری رمزارزها در 21Shares برای چهار ETF
21Shares یک بروزرسانی بزرگ در برنامه قیمتگذاری محصولات رمزارزی مرتبط با بیتکوین و اتریوم ارائه کرده است. این…

اتر در روند صعودی بازار ارزهای دیجیتال به ۲۲۰۰ دلار بازگشت
اتریوم (اتر) از سطح خطرناک ۱۸۴۰ دلار به ۲۲۰۰ دلار بازگشته است و این نشان دهندهی دفاع موفقیتآمیز…

پیشبینی هوش مصنوعی علیبابا برای قیمتهای XRP، بیتکوین و اتریوم تا پایان 2026
هوش مصنوعی علیبابا رشد چشمگیر قیمت XRP، بیتکوین و اتریوم تا پایان 2026 را پیشبینی کرده است. توافق…

سرمایهگذاران میمکوین ترامپ فرصتی برای ملاقات درمارالاگو
شرکت Fight Fight Fight LLC در نظر دارد 297 سرمایهگذار برتر میمکوین $TRUMP را به ملاقات با دونالد…