logo

سخنرانی کامل هوانگ رنکسون در GTC: عصر استنتاج فرا رسیده است و انتظار می‌رود درآمد به حداقل یک تریلیون دلار تا سال 2027 برسد و لابستر سیستم عامل جدید است

By: rootdata|2026/03/17 12:48:22
0
اشتراک‌گذاری
copy

در 16 مارس 2026، کنفرانس NVIDIA GTC 2026 به طور رسمی آغاز شد و بنیان‌گذار و مدیرعامل NVIDIA، جنسن هوانگ، سخنرانی کلیدی را ارائه داد.

در این کنفرانس که به عنوان "زیارت سالانه صنعت هوش مصنوعی" شناخته می‌شود، هوانگ به تحول NVIDIA از یک "شرکت چیپ" به یک "شرکت زیرساخت و کارخانه هوش مصنوعی" پرداخت. با توجه به نگرانی‌های بازار درباره پایداری عملکرد و پتانسیل رشد، هوانگ منطق تجاری زیرین که رشد آینده را هدایت می‌کند—"اقتصاد کارخانه توکن"—را تشریح کرد.

راهنمایی عملکرد بسیار خوشبینانه است، "حداقل 1 تریلیون دلار تقاضا تا سال 2027"

در دو سال گذشته، تقاضای جهانی محاسبات هوش مصنوعی به طور نمایی افزایش یافته است. با تکامل مدل‌های بزرگ از "ادراک" و "تولید" به "استدلال" و "عمل (اجرای وظیفه)"، مصرف قدرت محاسباتی به طرز چشمگیری افزایش یافته است. در پاسخ به نگرانی‌های بازار درباره سقف‌های سفارش و درآمد، هوانگ انتظارات بسیار قوی ارائه داد.

هوانگ در سخنرانی خود گفت:

سال گذشته در این زمان، من اشاره کردم که ما تقاضای با اطمینان بالا به ارزش 500 میلیارد دلار را دیدیم که بلک‌ول و روبین را تا سال 2026 پوشش می‌دهد. اکنون، همین جا و همین حالا، من حداقل 1 تریلیون دلار تقاضا تا سال 2027 می‌بینم.

انتظار تریلیون دلاری هوانگ یک بار قیمت سهام NVIDIA را بیش از 4.3% افزایش داد.

علاوه بر این، او این رقم را بیشتر تکمیل کرد:

آیا این منطقی است؟ این همان چیزی است که من در مورد آن صحبت خواهم کرد. در واقع، ممکن است حتی با کمبود عرضه مواجه شویم. من مطمئن هستم که تقاضای واقعی محاسباتی بسیار بالاتر خواهد بود.

هوانگ اشاره کرد که سیستم‌های NVIDIA امروز خود را به عنوان "کم‌هزینه‌ترین زیرساخت" در جهان ثابت کرده‌اند. زیرا NVIDIA می‌تواند مدل‌های هوش مصنوعی را در تقریباً تمام زمینه‌ها اجرا کند، این تنوع اطمینان می‌دهد که ۱ تریلیون دلار سرمایه‌گذاری شده توسط مشتریان می‌تواند به طور کامل استفاده و در طول عمر طولانی نگهداری شود.

در حال حاضر، ۶۰٪ از کسب‌وکار NVIDIA از پنج ارائه‌دهنده خدمات ابری بزرگ می‌آید، در حالی که ۴۰٪ باقی‌مانده به طور گسترده‌ای در ابرهای حاکمیتی، شرکت‌ها، صنایع، رباتیک و محاسبات لبه توزیع شده است.

اقتصاد کارخانه توکن، جایی که عملکرد به ازای هر وات، خون حیات کسب‌وکار را تعیین می‌کند

برای توضیح معقول بودن این تقاضای ۱ تریلیون دلاری، هوانگ یک ذهنیت تجاری جدید را به مدیران عامل شرکت‌های جهانی ارائه داد. او اشاره کرد که مراکز داده آینده دیگر انبارهایی برای ذخیره فایل‌ها نخواهند بود، بلکه "کارخانه‌هایی" خواهند بود که توکن‌ها (واحد پایه تولید شده توسط هوش مصنوعی) را تولید می‌کنند.

هوانگ تأکید کرد:

هر مرکز داده، هر کارخانه، به عنوان محدود به قدرت تعریف می‌شود. یک کارخانه ۱ گیگاوات هرگز به یک کارخانه ۲ گیگاوات تبدیل نخواهد شد؛ این یک قانون فیزیک و اتم‌هاست. در قدرت ثابت، هر کس که بالاترین توان تولید توکن به ازای هر وات را داشته باشد، کمترین هزینه‌های تولید را خواهد داشت.

هوانگ خدمات آینده هوش مصنوعی را به چهار سطح تجاری تقسیم‌بندی کرد:

  • سطح رایگان (عملکرد بالا، سرعت پایین)
  • سطح میانه (~۳ دلار به ازای هر میلیون توکن)
  • سطح بالا (~۶ دلار به ازای هر میلیون توکن)
  • سطح سرعت بالا (~۴۵ دلار به ازای هر میلیون توکن)
  • سطح سرعت فوق‌العاده بالا (~۱۵۰ دلار به ازای هر میلیون توکن)

او اشاره کرد که با بزرگ‌تر شدن مدل‌ها و طولانی‌تر شدن زمینه‌ها، هوش مصنوعی هوشمندتر خواهد شد، اما نرخ تولید توکن کاهش خواهد یافت. هوانگ بیان کرد:

در این کارخانه توکن، توان تولید و سرعت تولید توکن شما به طور مستقیم به درآمد دقیق شما برای سال آینده تبدیل خواهد شد.

هوانگ تأکید کرد که معماری NVIDIA به مشتریان اجازه می‌دهد تا در سطح رایگان به توان تولید بسیار بالایی دست یابند در حالی که در بالاترین سطح استنتاج با بهبود عملکرد شگفت‌انگیز ۳۵ برابری مواجه شوند.

ورا روبین در دو سال به ۳۵۰ برابر شتاب دست می‌یابد، گروک شکاف را برای استنتاج فوق‌سریع پر می‌کند

در محدودیت‌های فیزیکی، انویدیا پیچیده‌ترین سیستم محاسباتی هوش مصنوعی خود را معرفی کرد، ورا روبین. هوانگ بیان کرد:

در گذشته، وقتی از هاپر صحبت می‌کردم، یک تراشه را بالا می‌بردم که خوب بود. اما وقتی از ورا روبین صحبت می‌کنم، همه به کل سیستم فکر می‌کنند. در این سیستم ۱۰۰٪ مایع خنک‌کننده، که به‌طور کامل کابل‌کشی سنتی را حذف می‌کند، رک‌هایی که قبلاً دو روز طول می‌کشید تا نصب شوند، اکنون فقط دو ساعت طول می‌کشد.

هوانگ اشاره کرد که از طریق طراحی مشترک سخت‌افزار-نرم‌افزار در انتهای افراطی، ورا روبین یک جهش داده شگفت‌انگیز در همان مرکز داده ۱GW ایجاد کرد:

در فقط دو سال، نرخ تولید توکن را از ۲۲ میلیون به ۷۰۰ میلیون افزایش داده‌ایم و به رشد ۳۵۰ برابری دست یافته‌ایم. قانون مور در همین دوره تنها می‌توانست افزایش ۱.۵ برابری را به ارمغان آورد.

برای حل مشکل گلوگاه پهنای باند تحت شرایط استنتاج فوق‌سریع (مانند ۱۰۰۰ توکن در ثانیه)، انویدیا راه‌حل نهایی را با ادغام شرکت خریداری شده گروک ارائه داد: استنتاج جداشده نامتقارن. هوانگ توضیح داد:

این دو پردازنده ویژگی‌های کاملاً متفاوتی دارند. تراشه گروک دارای ۵۰۰MB SRAM است، در حالی که یک تراشه روبین دارای ۲۸۸GB حافظه است.

هوانگ اشاره کرد که انویدیا، از طریق سیستم نرم‌افزاری داینامو، مرحله "پیش‌پر کردن" را که نیاز به محاسبات و حافظه ویدیویی عظیم دارد، به ورا روبین اختصاص می‌دهد، در حالی که مرحله "کدگشایی" که به شدت به تأخیر حساس است، به گروک اختصاص داده می‌شود. هوانگ همچنین پیشنهاداتی برای پیکربندی قدرت محاسباتی شرکت‌ها ارائه داد:

اگر بار کاری شما عمدتاً از طریق بالا است، از ۱۰۰٪ ورا روبین استفاده کنید؛ اگر نیاز به تولید توکن در سطح برنامه‌نویسی با ارزش بالا دارید، ۲۵٪ از ظرفیت مرکز داده خود را به گروک اختصاص دهید.

فاش شد که تراشه گروک LP30، که توسط سامسونگ تولید شده، وارد تولید انبوه شده و انتظار می‌رود در سه‌ماهه سوم ارسال شود، در حالی که اولین رک ورا روبین در حال حاضر در مایکروسافت آژور عملیاتی است.

علاوه بر این، در مورد فناوری ارتباطات نوری، هوانگ اولین سوئیچ نوری Co-Packaged (CPO) تولید انبوه جهان، Spectrum X را به نمایش گذاشت و نگرانی‌های بازار در مورد مسیر "انتقال مس به نوری" را برطرف کرد:

ما به ظرفیت بیشتری از کابل مسی، ظرفیت بیشتری از تراشه نوری و ظرفیت بیشتری از CPO نیاز داریم.

قیمت --

--

عامل پایان SaaS سنتی، "حقوق + توکن" به استانداردی در سیلیکون ولی تبدیل می‌شود

علاوه بر موانع سخت‌افزاری، هوانگ بخش قابل توجهی از سخنرانی خود را به انقلاب در نرم‌افزار و اکوسیستم‌های هوش مصنوعی اختصاص داد، به‌ویژه انفجار عوامل.

او پروژه متن‌باز OpenClaw را به‌عنوان "محبوب‌ترین پروژه متن‌باز در تاریخ بشر" توصیف کرد و ادعا کرد که این پروژه در عرض چند هفته از دستاوردهای لینوکس در 30 سال گذشته پیشی گرفته است. هوانگ به‌صراحت بیان کرد که OpenClaw اساساً "سیستم‌عامل" برای کامپیوترهای عامل است.

هوانگ تأکید کرد:

هر شرکت SaaS (نرم‌افزار به‌عنوان خدمت) به یک شرکت AaaS (عامل به‌عنوان خدمت) تبدیل خواهد شد. شکی نیست که برای استقرار ایمن این عوامل، که توانایی دسترسی به داده‌های حساس و اجرای کد را دارند، NVIDIA یک طراحی مرجع NeMo Claw در سطح سازمانی راه‌اندازی کرده است که یک موتور سیاست و روتر حریم خصوصی را اضافه می‌کند.

برای حرفه‌ای‌های عادی، این تحول نیز در دسترس است. هوانگ یک شکل جدید از محل کار را در آینده تصور کرد:

در آینده، هر مهندس در شرکت ما به یک بودجه سالانه توکن نیاز خواهد داشت. حقوق پایه آن‌ها ممکن است صدها هزار دلار باشد و من حدود نیمی از آن مبلغ را به‌عنوان سهمیه توکن به آن‌ها اختصاص می‌دهم، که به آن‌ها اجازه می‌دهد تا 10 برابر افزایش کارایی داشته باشند. این به‌عنوان یک چپ‌پای جدید در سیلیکون ولی تبدیل شده است: چند توکن با پیشنهاد شما همراه است؟

در پایان سخنرانی، هوانگ همچنین "نسل بعدی معماری محاسباتی، فاینمن" را "فاش" کرد که اولین مقیاس‌پذیری افقی مشترک سیم‌های مسی و CPOها را به‌دست خواهد آورد. جالب‌تر اینکه، NVIDIA در حال توسعه یک کامپیوتر مرکز داده برای فضا به‌نام "Vera Rubin Space-1" است که به‌طور کامل تخیل قدرت محاسباتی هوش مصنوعی را فراتر از زمین باز می‌کند.

متن کامل سخنرانی GTC 2026 جنسن هوانگ به‌شرح زیر است (با کمک ابزارهای هوش مصنوعی):

مجری: به صحنه خوش‌آمدید، بنیان‌گذار و مدیرعامل NVIDIA، جنسن هوانگ.

جنسن هوانگ، بنیان‌گذار و مدیرعامل:

به GTC خوش آمدید. می‌خواهم به همه یادآوری کنم که این یک کنفرانس فناوری است. بسیار خوشحالم که می‌بینم این همه نفر در صبح زود برای ورود صف کشیده‌اند و همه شما را اینجا می‌بینم.

در GTC، ما بر روی سه موضوع اصلی تمرکز خواهیم کرد: فناوری، پلتفرم و اکوسیستم. NVIDIA در حال حاضر سه پلتفرم اصلی دارد: پلتفرم CUDA-X، پلتفرم سیستم‌ها و پلتفرم کارخانه هوش مصنوعی که به تازگی راه‌اندازی شده است.

قبل از اینکه به طور رسمی شروع کنیم، می‌خواهم از میزبانان جلسه گرم‌کردن‌مان—سارا گو از Conviction، آلفرد لین از Sequoia Capital (اولین سرمایه‌گذار خطرپذیر NVIDIA) و گاوین بیکر، اولین سرمایه‌گذار عمده نهادی NVIDIA، تشکر کنم. این سه فرد بینش‌های عمیقی در مورد فناوری دارند و تأثیر گسترده‌ای در کل اکوسیستم فناوری دارند. البته، من همچنین می‌خواهم از تمام مهمانان برجسته‌ای که شخصاً دعوت کرده‌ام تا امروز حضور داشته باشند، تشکر کنم. از این تیم ستاره‌ای متشکرم.

من همچنین می‌خواهم از تمام شرکت‌های حاضر در امروز تشکر کنم. NVIDIA یک شرکت پلتفرمی است و ما فناوری، پلتفرم‌ها و یک اکوسیستم غنی داریم. شرکت‌های حاضر در امروز تقریباً تمام شرکت‌کنندگان در صنعت ۱۰۰ تریلیون دلاری را نمایندگی می‌کنند، با ۴۵۰ شرکت که این رویداد را حمایت می‌کنند، که بابت آن عمیقاً سپاسگزارم.

این کنفرانس شامل ۱۰۰۰ فروم فنی و ۲۰۰۰ سخنران است که هر سطحی از معماری "کیک پنج لایه" هوش مصنوعی را پوشش می‌دهد—از زیرساخت‌هایی مانند زمین، برق و مراکز داده، تا تراشه‌ها، پلتفرم‌ها، مدل‌ها و برنامه‌های مختلف که در نهایت کل صنعت را به جلو می‌رانند.

CUDA: دو دهه انباشت فناوری

همه چیز از اینجا شروع می‌شود. امسال بیستمین سالگرد CUDA است.

در بیست سال گذشته، ما به توسعه این معماری اختصاص داده‌ایم. CUDA یک اختراع انقلابی است—فناوری SIMT (دستور واحد چند رشته‌ای) به توسعه‌دهندگان اجازه می‌دهد برنامه‌ها را در کد اسکالر بنویسند و آن‌ها را به برنامه‌های چند رشته‌ای گسترش دهند، با دشواری برنامه‌نویسی بسیار کمتر از معماری‌های SIMD قبلی. ما به تازگی ویژگی Tiles را اضافه کرده‌ایم تا به توسعه‌دهندگان کمک کنیم تا هسته‌های تنسور را راحت‌تر برنامه‌نویسی کنند، همچنین ساختارهای مختلف عملیات ریاضی که امروزه هوش مصنوعی به آن‌ها وابسته است. در حال حاضر، CUDA هزاران ابزار، کامپایلر، چارچوب و کتابخانه دارد، با صدها هزار پروژه عمومی در جامعه متن باز، و به طور عمیق در هر اکوسیستم فناوری ادغام شده است.

این نمودار منطق استراتژیک ۱۰۰٪ NVIDIA را نشان می‌دهد که از ابتدای کار در مورد آن صحبت کرده‌ام. سخت‌ترین و هسته‌ای‌ترین عنصر "پایه نصب‌شده" در پایین نمودار است. در بیست سال گذشته، ما صدها میلیون GPU و سیستم‌های محاسباتی که در سطح جهانی CUDA را اجرا می‌کنند، جمع‌آوری کرده‌ایم.

GPUهای ما تمام پلتفرم‌های ابری را پوشش می‌دهند و تقریباً به تمام تولیدکنندگان و صنایع کامپیوتر خدمت می‌کنند. پایه نصب شده بزرگ CUDA دلیل اساسی است که چرا این چرخ‌دنده همچنان به شتاب خود ادامه می‌دهد. پایه نصب شده توسعه‌دهندگان را جذب می‌کند، توسعه‌دهندگان الگوریتم‌ها و پیشرفت‌های جدیدی ایجاد می‌کنند، پیشرفت‌ها بازارهای جدیدی را به وجود می‌آورند، بازارهای جدید اکوسیستم‌های جدیدی را شکل می‌دهند و شرکت‌های بیشتری را جذب می‌کنند تا به آن بپیوندند و بدین ترتیب پایه نصب شده را گسترش می‌دهند - این چرخ‌دنده به طور مداوم در حال شتاب است.

حجم دانلود کتابخانه‌های NVIDIA با سرعتی شگفت‌انگیز در حال رشد است، در مقیاس بزرگ و با سرعتی در حال افزایش. این چرخ‌دنده به پلتفرم محاسباتی ما اجازه می‌دهد تا از برنامه‌های عظیم و پیشرفت‌های جدید مداوم پشتیبانی کند.

مهم‌تر از همه، این همچنین به این زیرساخت‌ها عمر بسیار طولانی می‌دهد. دلیل آن واضح است: ثروتی از برنامه‌ها وجود دارد که می‌توانند بر روی NVIDIA CUDA اجرا شوند، که هر مرحله از چرخه عمر AI، پلتفرم‌های مختلف پردازش داده و حل‌کننده‌های اصول علمی مختلف را پوشش می‌دهد. بنابراین، به محض اینکه GPUهای NVIDIA نصب شوند، ارزش واقعی استفاده از آن‌ها بسیار بالا است. این همچنین دلیل این است که قیمت ابری GPU معماری Ampere که شش سال پیش منتشر کردیم، در واقع در حال افزایش است.

دلیل اساسی همه این‌ها این است: یک پایه نصب شده بزرگ، یک چرخ‌دنده قوی و یک اکوسیستم توسعه‌دهنده وسیع. زمانی که این عوامل با هم کار می‌کنند، همراه با به‌روزرسانی‌های مداوم نرم‌افزاری ما، هزینه‌های محاسباتی به طور مداوم کاهش خواهد یافت. محاسبات شتاب‌دار به طور قابل توجهی عملکرد برنامه را افزایش می‌دهد و همانطور که ما نرم‌افزار را در طولانی‌مدت نگهداری و تکرار می‌کنیم، کاربران نه تنها در ابتدا جهش‌های عملکردی را به دست می‌آورند بلکه همچنان از کاهش هزینه‌های محاسباتی لذت می‌برند. ما مایل به ارائه پشتیبانی بلندمدت برای هر GPU در سطح جهانی هستیم زیرا آن‌ها در سطح معماری کاملاً سازگار هستند.

ما مایل به انجام این کار هستیم زیرا پایه نصب شده بسیار بزرگ است - هر بار که یک بهینه‌سازی جدید منتشر می‌شود، میلیون‌ها کاربر از آن بهره‌مند می‌شوند. این ترکیب پویا به معماری NVIDIA اجازه می‌دهد تا به طور مداوم پوشش خود را گسترش دهد، رشد خود را تسریع کند و به طور مداوم هزینه‌های محاسباتی را کاهش دهد و در نهایت رشد جدیدی را تحریک کند. CUDA در هسته همه این‌ها قرار دارد.

از GeForce تا CUDA: تکامل ۲۵ ساله

سفر ما با CUDA در واقع ۲۵ سال پیش آغاز شد.

جی‌فورس—بسیاری از شما با جی‌فورس بزرگ شده‌اید. جی‌فورس موفق‌ترین پروژه بازاریابی انویدیا است. ما شروع به پرورش مشتریان آینده کردیم زمانی که شما نمی‌توانستید محصولات ما را خریداری کنید—والدین شما اولین کاربران انویدیا شدند و سال به سال محصولات ما را خریدند تا روزی شما بزرگ شدید و به دانشمندان کامپیوتر عالی تبدیل شدید و به مشتریان و توسعه‌دهندگان واقعی تبدیل شدید.

این پایه‌ای است که جی‌فورس ۲۵ سال پیش گذاشت. بیست و پنج سال پیش، ما شیدرهای برنامه‌پذیر را اختراع کردیم—یک اختراع واضح اما به شدت مهم که شتاب‌دهنده‌ها را برنامه‌پذیر کرد و اولین شتاب‌دهنده برنامه‌پذیر جهان، یعنی شیدرهای پیکسل را به وجود آورد. پنج سال بعد، ما CUDA را ایجاد کردیم—یکی از مهم‌ترین سرمایه‌گذاری‌های ما در تاریخ. در آن زمان، شرکت منابع مالی محدودی داشت، اما ما بیشتر سود خود را روی این سرمایه‌گذاری کردیم و متعهد به گسترش CUDA از جی‌فورس به هر کامپیوتر بودیم. ما بسیار مصمم بودیم زیرا به پتانسیل آن ایمان داشتیم. با وجود مواجهه با سختی‌ها در مراحل اولیه، شرکت این باور را برای ۱۳ نسل، به مدت بیست سال کامل، حفظ کرد و امروز CUDA در همه جا وجود دارد.

این شیدر پیکسل بود که انقلاب جی‌فورس را به راه انداخت. حدود هشت سال پیش، ما RTX را راه‌اندازی کردیم—یک بازنگری جامع از معماری برای عصر گرافیک کامپیوتری مدرن. جی‌فورس CUDA را به جهان آورد و به همین دلیل، بسیاری از دانشمندان مانند الکس کریژفسکی، ایلیا سوتسکِور، جفری هینتون و اندرو نگ کشف کردند که GPUها می‌توانند ابزارهای قدرتمندی برای تسریع یادگیری عمیق شوند و انفجار هوش مصنوعی را یک دهه پیش آغاز کردند.

یک دهه پیش، ما تصمیم گرفتیم که شیدینگ برنامه‌پذیر را با دو مفهوم جدید ترکیب کنیم: یکی ردیابی پرتو سخت‌افزاری بود که از نظر فنی چالش‌برانگیز است؛ دیگری یک ایده آینده‌نگر بود—حدود ده سال پیش، ما پیش‌بینی کردیم که هوش مصنوعی به طور بنیادی گرافیک کامپیوتری را متحول خواهد کرد. همان‌طور که جی‌فورس هوش مصنوعی را به جهان آورد، هوش مصنوعی اکنون در حال تغییر نحوه پیاده‌سازی گرافیک کامپیوتری است.

امروز، می‌خواهم آینده را به شما نشان دهم. این فناوری گرافیکی نسل بعدی ماست که ما آن را رندرینگ عصبی می‌نامیم—ادغام عمیق گرافیک ۳ بعدی و هوش مصنوعی. این DLSS 5 است، لطفاً نگاهی بیندازید.

رندرینگ عصبی: ترکیب داده‌های ساختاریافته و هوش مصنوعی تولیدی

آیا این شگفت‌انگیز نیست؟ گرافیک کامپیوتری به این ترتیب احیا می‌شود.

ما چه کار کردیم؟ ما گرافیک سه‌بعدی قابل کنترل (پایه واقعی دنیای مجازی) را با داده‌های ساختاریافته آن ترکیب کردیم و سپس آن را با هوش مصنوعی تولیدی و محاسبات احتمالی ترکیب کردیم. یکی کاملاً قطعی است، در حالی که دیگری احتمالی اما بسیار واقع‌گرایانه است—ما این دو مفهوم را به یکدیگر ادغام کردیم و از طریق داده‌های ساختاریافته کنترل دقیقی را در حین تولید در زمان واقعی به دست آوردیم. در نهایت، محتوا هم بصری خیره‌کننده و هم کاملاً قابل کنترل است.

ایده ادغام اطلاعات ساختاریافته با هوش مصنوعی تولیدی در صنایع مختلف ادامه خواهد یافت. داده‌های ساختاریافته سنگ بنای هوش مصنوعی قابل اعتماد هستند.

پلتفرم شتاب‌دهنده برای داده‌های ساختاریافته و غیرساختاریافته

حالا می‌خواهم یک نمودار معماری فنی به شما نشان دهم.

داده‌های ساختاریافته—SQL آشنا، Spark، Pandas، Velox و پلتفرم‌های مهمی مانند Snowflake، Databricks، Amazon EMR، Azure Fabric، Google BigQuery، همه داده‌فریم‌ها را مدیریت می‌کنند. این داده‌فریم‌ها مانند صفحه‌گسترده‌های بزرگ هستند که تمام اطلاعات دنیای کسب‌وکار را حمل می‌کنند و به عنوان حقایق اساسی (Ground Truth) محاسبات شرکتی عمل می‌کنند.

در عصر هوش مصنوعی، ما باید اجازه دهیم هوش مصنوعی از داده‌های ساختاریافته استفاده کند و شتاب فوق‌العاده‌ای به دست آورد. در گذشته، شتاب‌دهی به پردازش داده‌های ساختاریافته به منظور کارآمدتر کردن عملکرد شرکت‌ها بود. در آینده، هوش مصنوعی از این ساختارهای داده با سرعت‌هایی بسیار فراتر از قابلیت‌های انسانی استفاده خواهد کرد و عوامل هوش مصنوعی به شدت به پایگاه‌های داده ساختاریافته وابسته خواهند بود.

در مورد داده‌های غیرساختاریافته، پایگاه‌های داده وکتور، PDFها، ویدیوها، صدا و غیره، اکثریت قریب به اتفاق اشکال داده در جهان را تشکیل می‌دهند—حدود 90٪ از داده‌های تولید شده در هر سال غیرساختاریافته است. در گذشته، این داده تقریباً به طور کامل غیرقابل استفاده بود: ما آن را می‌خواندیم، در سیستم‌های فایل ذخیره می‌کردیم و همین. ما نمی‌توانستیم آن را پرس‌وجو کنیم و نمی‌توانستیم آن را بازیابی کنیم، زیرا داده‌های غیرساختاریافته فاقد روش‌های ساده نمایه‌سازی هستند و باید از نظر معنا و زمینه درک شوند. حالا، هوش مصنوعی می‌تواند این کار را انجام دهد—به لطف فناوری‌های درک و ادراک چندمدلی، هوش مصنوعی می‌تواند اسناد PDF را بخواند، معانی آن‌ها را درک کند و آن‌ها را در ساختارهای بزرگتر برای پرس‌وجو جاسازی کند.

NVIDIA دو کتابخانه بنیادی برای این منظور ایجاد کرده است:

  • cuDF: برای پردازش شتاب‌دهنده داده‌فریم‌ها و داده‌های ساختاریافته

  • cuVS: برای ذخیره‌سازی وکتور، داده‌های معنایی و پردازش داده‌های هوش مصنوعی غیرساختاری

این دو پلتفرم به یکی از مهم‌ترین پلتفرم‌های بنیادی در آینده تبدیل خواهند شد.

امروز، ما از همکاری با چندین شرکت خبر می‌دهیم. IBM—مخترع SQL—از cuDF برای تسریع پلتفرم داده‌های WatsonX خود استفاده خواهد کرد. دل با ما همکاری کرده است تا پلتفرم داده‌های هوش مصنوعی دل را ایجاد کند، که cuDF و cuVS را ادغام کرده و به بهبودهای قابل توجهی در پروژه‌های واقعی با NTT Data دست یافته است. در جبهه Google Cloud، ما اکنون نه تنها Vertex AI را تسریع می‌کنیم بلکه BigQuery را نیز تسریع می‌کنیم و با Snapchat همکاری کرده‌ایم تا هزینه‌های محاسباتی آن را تقریباً 80٪ کاهش دهیم.

مزایای محاسبات تسریع‌شده سه‌گانه است: سرعت، مقیاس و هزینه. این با منطق قانون مور همخوانی دارد—دستیابی به جهش‌های عملکردی از طریق محاسبات تسریع‌شده در حالی که به طور مداوم الگوریتم‌ها را بهینه‌سازی می‌کنیم، به همه اجازه می‌دهد از کاهش مداوم هزینه‌های محاسباتی بهره‌مند شوند.

NVIDIA یک پلتفرم محاسبات تسریع‌شده ساخته است که کتابخانه‌های متعددی را گرد هم می‌آورد: RTX، cuDF، cuVS و بیشتر. این کتابخانه‌ها در خدمات ابری جهانی و سیستم‌های OEM ادغام شده‌اند و به کاربران در سرتاسر جهان دسترسی دارند.

همکاری عمیق با ارائه‌دهندگان خدمات ابری

همکاری با ارائه‌دهندگان بزرگ خدمات ابری

Google Cloud: ما Vertex AI و BigQuery را تسریع می‌کنیم و به طور عمیق با JAX/XLA ادغام می‌شویم، در حالی که در PyTorch عملکرد عالی داریم—NVIDIA تنها شتاب‌دهنده‌ای در جهان است که در هر دو PyTorch و JAX/XLA عملکرد خوبی دارد. ما مشتریانی مانند Base10، CrowdStrike، Puma و Salesforce را به اکوسیستم Google Cloud آورده‌ایم.

AWS: ما EMR، SageMaker و Bedrock را تسریع می‌کنیم و با AWS ادغام عمیقی داریم. امسال، من به‌ویژه هیجان‌زده هستم که OpenAI را به AWS خواهیم آورد، که به‌طور قابل توجهی رشد مصرف ابری AWS را افزایش می‌دهد و به OpenAI کمک می‌کند تا استقرارهای منطقه‌ای و مقیاس محاسباتی را گسترش دهد.

Microsoft Azure: سوپرکامپیوتر ۱۰۰ PFLOPS انویدیا اولین سوپرکامپیوتر ما است که ساخته شده و اولین سوپرکامپیوتر مستقر در Azure است و پایه‌ای مهم برای همکاری با OpenAI فراهم می‌کند. ما خدمات ابری Azure و AI Foundry را تسریع می‌کنیم و برای ترویج گسترش منطقه‌ای Azure همکاری می‌کنیم و به‌طور عمیق در جستجوی Bing همکاری می‌کنیم. به‌ویژه، قابلیت محاسبات محرمانه ما—که اطمینان می‌دهد حتی اپراتورها نیز نمی‌توانند داده‌ها و مدل‌های کاربر را مشاهده کنند—انویدیا را به یکی از اولین شرکت‌های جهان تبدیل کرده است که از محاسبات محرمانه پشتیبانی می‌کند و استقرارهای محرمانه مدل‌های OpenAI و Anthropic را در محیط‌های ابری در سراسر جهان امکان‌پذیر می‌سازد. به عنوان مثال، ما تمام جریان‌های کاری EDA و CAD را برای Synopsys تسریع می‌کنیم و آن‌ها را در Microsoft Azure مستقر می‌کنیم.

اوراکل: ما اولین مشتری AI اوراکل هستیم و افتخار می‌کنم که اولین کسی بودم که مفهوم ابری AI را به اوراکل توضیح دادم. از آن زمان، آن‌ها به سرعت توسعه یافته‌اند و ما بسیاری از شرکای جدید مانند Cohere، Fireworks و OpenAI را معرفی کرده‌ایم.

CoreWeave: اولین ابر بومی AI در جهان، متولد شده برای میزبانی GPU و خدمات ابری AI، با پایگاه مشتری عالی و شتاب رشد قوی.

Palantir + Dell: این سه طرف به‌طور مشترک یک پلتفرم جدید AI را بر اساس پلتفرم هستی‌شناسی Palantir و پلتفرم AI ایجاد کردند که قادر به استقرار کامل محلی AI در هر کشور و هر محیط ایزوله است—از پردازش داده‌ها (وکتوریزه کردن یا ساختاردهی) تا یک پشته محاسباتی تسریع‌شده کامل برای AI.

انویدیا این رابطه همکاری ویژه را با ارائه‌دهندگان خدمات ابری جهانی برقرار کرده است—ما مشتریان را به ابر می‌آوریم و یک اکوسیستم متقابل سودمند ایجاد می‌کنیم.

ادغام عمودی، باز بودن افقی: استراتژی اصلی انویدیا

انویدیا اولین شرکت در جهان است که به‌طور عمودی ادغام شده و به‌طور افقی باز است.

ضرورت این مدل بسیار ساده است: محاسبات تسریع‌شده فقط یک مسئله چیپ یا یک مسئله سیستم نیست؛ بیان کامل آن باید تسریع برنامه‌ها باشد. CPUها می‌توانند کامپیوترها را به‌طور کلی سریع‌تر کنند، اما این مسیر به یک گلوگاه رسیده است. در آینده، تنها از طریق تسریع خاص برنامه یا حوزه می‌توانیم به پیشرفت‌های عملکردی و کاهش هزینه‌ها ادامه دهیم.

این دقیقاً دلیلی است که انویدیا باید به‌طور عمیق یک کتابخانه پس از دیگری، یک حوزه پس از دیگری و یک صنعت عمودی پس از دیگری را پرورش دهد. ما یک شرکت محاسباتی به‌طور عمودی ادغام شده هستیم و هیچ مسیر دیگری برای انتخاب وجود ندارد. ما باید برنامه‌ها را درک کنیم، حوزه‌ها را درک کنیم، الگوریتم‌ها را به‌طور عمیق درک کنیم و قادر باشیم آن‌ها را در هر سناریویی مستقر کنیم - مراکز داده، ابر، محلی، لبه و حتی سیستم‌های رباتیک.

در عین حال، انویدیا به‌طور افقی باز باقی می‌ماند و آماده است تا فناوری را در هر پلتفرم شریک ادغام کند و به کل جهان اجازه دهد از منافع محاسبات شتاب‌زده بهره‌مند شود.

ساختار شرکت‌کنندگان در این GTC به‌طور کامل این را منعکس می‌کند. نسبت شرکت‌کنندگان از صنعت خدمات مالی بالاترین است - امیدوار به جذب توسعه‌دهندگان، نه معامله‌گران. اکوسیستم ما کل زنجیره تأمین بالا و پایین را پوشش می‌دهد. چه شرکتی 50، 70 یا 150 سال تأسیس شده باشد، سال گذشته بهترین سال تاریخ آن بود. ما در نقطه شروع چیزی بسیار، بسیار مهم هستیم.

CUDA-X: موتور محاسبات شتاب‌زده برای صنایع مختلف

در زمینه‌های عمودی مختلف، انویدیا به‌طور عمیق برنامه‌ریزی کرده است:

  • رانندگی خودران: پوشش وسیع و تأثیر عمیق

  • خدمات مالی: سرمایه‌گذاری کمی از مهندسی ویژگی‌های دستی به یادگیری عمیق مبتنی بر ابررایانه‌ها منتقل می‌شود و به "لحظه ترنسفورمر" خود وارد می‌شود.

  • بهداشت و درمان: این در حال تجربه "لحظه چت‌جی‌پی‌تی" خود است و شامل کشف دارو با کمک هوش مصنوعی، تشخیص‌های پشتیبانی‌شده توسط عامل‌های هوش مصنوعی، خدمات مشتری پزشکی و بیشتر می‌شود.

  • صنعت: بزرگ‌ترین موج ساخت‌وساز در سطح جهانی در حال شکل‌گیری است و کارخانه‌های هوش مصنوعی، کارخانه‌های تراشه و کارخانه‌های مراکز داده در حال تأسیس هستند.

  • سرگرمی و بازی: پلتفرم‌های هوش مصنوعی در زمان واقعی از ترجمه، پخش زنده، تعامل بازی و عوامل خرید هوشمند پشتیبانی می‌کنند.

  • رباتیک: با بیش از یک دهه کشت عمیق، سه معماری اصلی محاسباتی (کامپیوترهای آموزشی، کامپیوترهای شبیه‌سازی، کامپیوترهای روی برد) در حال حاضر وجود دارد و ۱۱۰ ربات در این نمایشگاه به نمایش گذاشته شده‌اند.

  • ت telecommunications: صنعتی به ارزش حدود ۲ تریلیون دلار، ایستگاه‌های پایه از عملکردهای ارتباطی تک به پلتفرم‌های زیرساخت هوش مصنوعی تکامل خواهند یافت، با پلتفرم مرتبطی به نام Aerial که به طور عمیق با شرکت‌هایی مانند نوکیا و تی‌موبایل همکاری می‌کند.

هسته تمام این زمینه‌ها کتابخانه CUDA-X ماست—این جوهره بنیادی NVIDIA به عنوان یک شرکت الگوریتمی است. این کتابخانه‌ها دارایی‌های اصلی شرکت هستند که به پلتفرم محاسباتی اجازه می‌دهند ارزش واقعی را در صنایع مختلف ارائه دهند.

یکی از مهم‌ترین کتابخانه‌ها cuDNN (کتابخانه شبکه عصبی عمیق CUDA) است که به طور کامل هوش مصنوعی را متحول کرده و انفجار هوش مصنوعی مدرن را به راه انداخته است.

(ویدئوی نمایش CUDA-X را پخش کنید)

هر چیزی که تازه دیدید شبیه‌سازی بود—شامل حل‌کننده‌های مبتنی بر فیزیک، مدل‌های فیزیکی عامل هوش مصنوعی و مدل‌های ربات فیزیکی هوش مصنوعی. همه چیز شبیه‌سازی شده بود، بدون انیمیشن دستی یا اتصال مفاصل. این دقیقاً جایی است که قابلیت اصلی NVIDIA قرار دارد: باز کردن این فرصت‌ها از طریق درک عمیق الگوریتم‌ها و ادغام ارگانیک با پلتفرم محاسباتی.

شرکت‌های بومی هوش مصنوعی و عصر جدید محاسبات

شما فقط غول‌های صنعتی را دیدید که جامعه امروز را تعریف می‌کنند، مانند والمارت، لورئال، جی‌پی‌مورگان چیس، روش و تویوتا، و همچنین تعداد زیادی از شرکت‌هایی که ممکن است هرگز نام آن‌ها را نشنیده باشید—ما این‌ها را شرکت‌های بومی هوش مصنوعی می‌نامیم. این لیست گسترده است و شامل OpenAI، Anthropic و بسیاری از شرکت‌های نوظهور است که به بخش‌های مختلف خدمت می‌کنند.

در دو سال گذشته، این صنعت رشد شگفت‌انگیزی را تجربه کرده است. مقیاس سرمایه‌گذاری خطرپذیر که به استارتاپ‌ها سرازیر شده به ۱۵۰ میلیارد دلار رسید که بالاترین رکورد در تاریخ بشر است. مهم‌تر از همه، اندازه سرمایه‌گذاری‌های فردی از میلیون‌ها دلار به صدها میلیون و حتی میلیاردها دلار جهش کرده است. دلیل آن ساده است: برای اولین بار در تاریخ، هر یک از این شرکت‌ها به منابع محاسباتی عظیم و تعداد زیادی توکن نیاز دارند. این صنعت در حال ایجاد و تولید توکن‌ها یا افزودن ارزش به توکن‌ها از سازمان‌هایی مانند Anthropic و OpenAI است.

دقیقاً همان‌طور که انقلاب رایانه، انقلاب اینترنت و انقلاب ابر موبایل هر کدام یک دسته از شرکت‌های تاریخ‌ساز را به وجود آوردند، این نسل از تحول پلتفرم محاسباتی نیز منجر به ظهور یک دسته از شرکت‌های بسیار تأثیرگذار خواهد شد و به نیروی مهمی در دنیای آینده تبدیل خواهد شد.

سه پیشرفت تاریخی که همه اینها را به جلو می‌برد

در دو سال گذشته دقیقاً چه اتفاقی افتاده است؟ سه رویداد بزرگ.

اول: چت‌جی‌پی‌تی، آغازگر عصر هوش مصنوعی تولیدی (اواخر ۲۰۲۲ تا ۲۰۲۳)

این نه تنها می‌تواند درک کند و بفهمد بلکه می‌تواند محتوای منحصر به فردی نیز تولید کند. من ادغام هوش مصنوعی تولیدی با گرافیک کامپیوتری را نشان دادم. هوش مصنوعی تولیدی به طور بنیادی نحوه کارکرد محاسبات را تغییر می‌دهد—محاسبات از نوع بازیابی به نوع تولید تغییر کرده و تأثیر عمیقی بر معماری کامپیوتر، روش‌های استقرار و اهمیت کلی دارد.

دوم: هوش مصنوعی استدلالی، که توسط o1 نمایندگی می‌شود

قابلیت‌های استدلالی به هوش مصنوعی این امکان را می‌دهد که خود را بازتاب دهد، برنامه‌ریزی کند و مشکلات را تجزیه و تحلیل کند—شکستن مشکلاتی که نمی‌تواند به طور مستقیم درک کند به مراحل قابل مدیریت. o1 هوش مصنوعی تولیدی را قابل اعتماد می‌کند و قادر به استدلال بر اساس اطلاعات واقعی است. برای دستیابی به این، مقدار توکن‌های زمینه ورودی و توکن‌های خروجی برای تفکر به طور قابل توجهی افزایش یافته است که منجر به افزایش قابل توجهی در تقاضای محاسباتی شده است.

سوم: کد کلاود، اولین مدل عامل

این می‌تواند فایل‌ها را بخواند، کد بنویسد، کامپایل کند، آزمایش کند، ارزیابی کند و تکرار کند. کد کلاود به طور کامل مهندسی نرم‌افزار را متحول کرده است—۱۰۰٪ مهندسان NVIDIA از یکی یا چند مورد از کد کلاود، کدکس و کرسر استفاده می‌کنند؛ هیچ مهندس نرم‌افزاری وجود ندارد که از کمک هوش مصنوعی بهره‌مند نشود.

این یک نقطه عطف جدید است—شما دیگر از هوش مصنوعی نمی‌پرسید "این چیست، کجاست، چگونه انجامش دهم"، بلکه اجازه می‌دهید "خلق کند، اجرا کند، بسازد" و به آن اجازه می‌دهید به طور فعال از ابزارها استفاده کند، فایل‌ها را بخواند، مشکلات را تجزیه و تحلیل کند و اقدام کند. هوش مصنوعی از درک به تولید، به استدلال و اکنون واقعاً قادر به انجام وظایف تکامل یافته است.

در دو سال گذشته، تقاضای محاسباتی برای استدلال حدود ۱۰,۰۰۰ برابر افزایش یافته و استفاده حدود ۱۰۰ برابر رشد کرده است. من همیشه معتقد بوده‌ام که تقاضای محاسباتی در دو سال گذشته حدود یک میلیون برابر افزایش یافته است—این احساس مشترک بین همه، از جمله OpenAI و Anthropic است. اگر بتوانیم قدرت محاسباتی بیشتری به دست آوریم، می‌توانیم توکن‌های بیشتری تولید کنیم، درآمدها افزایش می‌یابد و هوش مصنوعی هوشمندتر خواهد شد. نقطه عطف استدلال واقعاً فرا رسیده است.

عصر یک تریلیون دلاری زیرساخت هوش مصنوعی

سال گذشته در این زمان، من اینجا اعلام کردم که ما به تقاضا و سفارشات خرید برای بلک‌ول و روبین تا سال ۲۰۲۶ با اطمینان بالا نگاه می‌کنیم که به حدود ۵۰۰ میلیارد دلار می‌رسد. امروز، یک سال پس از GTC، من اینجا ایستاده‌ام تا به شما بگویم: با نگاه به سال ۲۰۲۷، من عددی حداقل یک تریلیون دلار می‌بینم. و من مطمئن هستم که تقاضای واقعی محاسباتی بسیار فراتر از این خواهد بود.

۲۰۲۵: سال استنتاج برای انویدیا

۲۰۲۵ سال استنتاج انویدیا است. ما می‌خواهیم اطمینان حاصل کنیم که فراتر از آموزش و پس از آموزش، در هر مرحله از چرخه عمر هوش مصنوعی، برتری را حفظ کنیم و اجازه دهیم زیرساخت سرمایه‌گذاری شده به طور کارآمد و مؤثر برای مدت طولانی‌تری با هزینه‌های واحد کمتر عمل کند.

در عین حال، آنتروپیک و متا به طور رسمی به پلتفرم انویدیا پیوسته‌اند و به طور مشترک یک‌سوم از تقاضای محاسباتی هوش مصنوعی جهانی را نمایندگی می‌کنند. مدل‌های متن‌باز به مرزهای پیشرفته نزدیک می‌شوند و در همه جا وجود دارند.

انویدیا در حال حاضر تنها پلتفرم در جهان است که قادر به اجرای تمام زمینه‌های هوش مصنوعی—زبان، زیست‌شناسی، گرافیک کامپیوتری، بینایی کامپیوتری، گفتار، پروتئین و شیمی، رباتیک و غیره—همه مدل‌های هوش مصنوعی، چه در لبه و چه در ابر، بدون توجه به زبان است. معماری انویدیا در تمام این سناریوها جهانی است و ما را به پلتفرم با کمترین هزینه و بالاترین اطمینان تبدیل می‌کند.

در حال حاضر، ۶۰٪ از کسب‌وکار انویدیا از پنج ارائه‌دهنده خدمات ابری هایپر مقیاس برتر می‌آید، در حالی که ۴۰٪ باقی‌مانده در ابرهای منطقه‌ای، ابرهای حاکمیتی، شرکت‌ها، صنایع، رباتیک و محاسبات لبه توزیع شده است. گستره پوشش هوش مصنوعی خود نشانه‌ای از تاب‌آوری آن است—این بدون شک یک تحول جدید در پلتفرم محاسباتی است.

گریس بلک‌ول و NVLink 72: نوآوری معماری جسورانه

در حالی که معماری هاپر هنوز در اوج خود بود، ما تصمیم گرفتیم که سیستم را به طور کامل بازطراحی کنیم و NVLink را از ۸ خط به NVLink 72 گسترش دهیم و سیستم محاسباتی را به طور کامل تجزیه و بازسازی کنیم. گریس بلک‌ول NVLink 72 یک شرط فناوری قابل توجه است، که برای همه شرکا آسان نیست و من صمیمانه از همه برای این موضوع تشکر می‌کنم.

در عین حال، ما NVFP4 را راه‌اندازی کردیم - نه فقط یک FP4 معمولی، بلکه نوع جدیدی از هسته تنسور و واحد محاسباتی. ما نشان داده‌ایم که NVFP4 می‌تواند استنتاج را بدون هیچ گونه از دست دادن دقت انجام دهد در حالی که بهبودهای قابل توجهی در عملکرد و کارایی انرژی ارائه می‌دهد و همچنین برای آموزش مناسب است. علاوه بر این، مجموعه‌ای از الگوریتم‌های جدید مانند دینامو و TensorRT-LLM ظهور کرده‌اند و ما حتی میلیاردها دلار سرمایه‌گذاری کردیم تا یک ابررایانه به‌طور خاص برای بهینه‌سازی هسته‌ها بسازیم که DGX Cloud نام دارد.

نتایج نشان می‌دهد که عملکرد استنتاج ما قابل توجه است. داده‌های تحلیل نیمه - جامع‌ترین ارزیابی عملکرد استنتاج AI تا به امروز - نشان می‌دهد که NVIDIA به‌طور قابل توجهی در هر دو معیار توکن در وات و هزینه به ازای توکن پیشتاز است. در اصل، قانون مور ممکن است یک افزایش عملکرد ۱.۵ برابری برای H200 فراهم کرده باشد، اما ما ۳۵ برابر به دست آوردیم. دیلان پاتل از تحلیل نیمه حتی گفت: "جنسن دروغ گفت؛ در واقع ۵۰ برابر است." او درست می‌گوید.

من او را نقل قول می‌کنم: "جنسن دروغ گفت."

هزینه NVIDIA به ازای هر توکن در جهان پایین‌ترین است و در حال حاضر بی‌نظیر است. دلیل این امر در طراحی مشترک افراطی نهفته است.

به عنوان مثال، قبل از اینکه NVIDIA کل مجموعه نرم‌افزار و الگوریتم‌ها را به‌روزرسانی کند، Fireworks دارای سرعت متوسط توکن حدود ۷۰۰ در ثانیه بود؛ پس از به‌روزرسانی، به حدود ۵۰۰۰ در ثانیه نزدیک شد که افزایش حدود ۷ برابری داشت. این قدرت طراحی مشترک افراطی است.

کارخانه AI: از مراکز داده تا کارخانه‌های توکن

مراکز داده قبلاً مکان‌هایی برای ذخیره فایل‌ها بودند؛ اکنون آنها کارخانه‌هایی برای تولید توکن هستند. هر ارائه‌دهنده خدمات ابری و هر شرکت AI در آینده از "کارایی کارخانه توکن" به عنوان یک معیار عملیاتی اصلی استفاده خواهد کرد.

این است استدلال اصلی من:

  • محور عمودی: تولید—تعداد توکن‌های تولید شده در هر ثانیه با قدرت ثابت

  • محور افقی: سرعت تعامل—سرعت پاسخ برای هر استنتاج؛ هر چه سرعت بیشتر باشد، مدل قابل استفاده بزرگتر، زمینه طولانی‌تر و هوش مصنوعی هوشمندتر است

توکن‌ها کالای جدید هستند و هنگامی که به بلوغ برسند، در سطوح مختلف قیمت‌گذاری خواهند شد:

  • سطح رایگان (عملکرد بالا، سرعت پایین)

  • سطح میانه (~۳ دلار به ازای هر میلیون توکن)

  • سطح بالا (~۶ دلار به ازای هر میلیون توکن)

  • سطح سرعت بالا (~۴۵ دلار به ازای هر میلیون توکن)

  • سطح سرعت فوق‌العاده بالا (~۱۵۰ دلار به ازای هر میلیون توکن)

در مقایسه با هاپر، گریس بلک‌ول از طریق بالاترین سطح ارزش، تولید را ۳۵ برابر بهبود بخشیده و یک سطح جدید معرفی کرده است. با ساده‌سازی برآوردهای مدل، اگر ۲۵٪ از قدرت به هر یک از چهار سطح اختصاص یابد، گریس بلک‌ول می‌تواند ۵ برابر بیشتر از هاپر درآمد تولید کند.

ورا روبین: سیستم محاسباتی AI نسل بعدی

(پخش ویدیو معرفی سیستم ورا روبین)

ورا روبین یک سیستم کامل و بهینه‌سازی شده از ابتدا تا انتها است که برای بارهای کاری عاملی طراحی شده است:

  • هسته محاسباتی مدل زبان بزرگ: خوشه GPU NVLink 72، مدیریت پیش‌پر کردن و کش KV

  • سی‌پی‌یو جدید ورا: طراحی شده برای عملکرد بسیار بالا در تک‌نخ، با استفاده از حافظه LPDDR5، با کارایی انرژی عالی، تنها سی‌پی‌یو مرکز داده در جهان که از LPDDR5 استفاده می‌کند، مناسب برای تماس‌های ابزار عامل AI

  • سیستم ذخیره‌سازی: BlueField 4 + CX 9، یک پلتفرم ذخیره‌سازی جدید برای عصر AI، با ۱۰۰٪ مشارکت از صنعت ذخیره‌سازی جهانی

  • سوئیچ CPO Spectrum X: اولین سوئیچ اترنت نوری هم‌پک شده در جهان، اکنون در تولید انبوه کامل

  • کیبر رک: یک سیستم رک جدید که از ۱۴۴ GPU پشتیبانی می‌کند تا یک دامنه NVLink واحد تشکیل دهد، با محاسبات جلویی و سوئیچینگ NVLink پشتی، یک کامپیوتر غول‌پیکر را تشکیل می‌دهد.

  • روبین اولترا: گره ابررایانه نسل بعدی، طراحی عمودی، همراه با رک کیبر، که از اتصالات NVLink در مقیاس بزرگتر پشتیبانی می‌کند

ورا روبین ۱۰۰٪ با مایع خنک می‌شود و زمان نصب را از دو روز به دو ساعت کاهش می‌دهد، با استفاده از خنک‌سازی آب داغ ۴۵ درجه سانتی‌گراد، که فشار خنک‌سازی در مراکز داده را به طور قابل توجهی کاهش می‌دهد. این بار، ساتیا (نادلا) تأیید کرده است که اولین رک ورا روبین اکنون در مایکروسافت آژور عملیاتی است، که من آن را بسیار هیجان‌انگیز می‌دانم.

ادغام گروک: گسترش شدید عملکرد استنتاج

ما تیم گروک را به دست آوردیم و مجوز فناوری آن را دریافت کردیم. گروک یک پردازنده جریان داده قطعی است که از کامپایل استاتیک و زمان‌بندی کامپایلر استفاده می‌کند، با مقدار زیادی SRAM، بهینه‌سازی شده برای استنتاج بار کاری واحد، با تأخیر بسیار کم و سرعت تولید توکن بالا.

با این حال، ظرفیت حافظه گروک محدود است (۵۰۰ مگابایت SRAM روی چیپ)، که حمل مستقل پارامترها و کش KV مدل‌های بزرگ را دشوار می‌کند و کاربرد آن در مقیاس بزرگ را محدود می‌کند.

راه‌حل دینامو است - مجموعه‌ای از نرم‌افزارهای زمان‌بندی استنتاج. ما خط لوله استنتاج را از طریق دینامو تفکیک کردیم:

  • پیش‌پر کردن و رمزگشایی مکانیزم توجه بر روی ورا روبین انجام می‌شود (که به قدرت محاسباتی و ذخیره‌سازی کش KV زیادی نیاز دارد)

  • رمزگشایی شبکه پیش‌خور، یعنی بخش تولید توکن، بر روی گروک انجام می‌شود (که به پهنای باند بسیار بالا و تأخیر کم نیاز دارد)

این دو از طریق اترنت به طور محکم به هم متصل هستند و تأخیر را از طریق حالت‌های خاص تقریباً به نصف کاهش می‌دهند. تحت زمان‌بندی یکپارچه دینامو، "سیستم عامل کارخانه هوش مصنوعی،" عملکرد کلی ۳۵ برابر بهبود می‌یابد و سطوح جدیدی از عملکرد استنتاج که قبلاً توسط NVLink 72 غیرقابل دسترسی بود، باز می‌شود.

توصیه‌هایی برای ترکیب گروک و ورا روبین:

  • اگر بار کاری عمدتاً دارای توان خروجی بالا است، از ۱۰۰٪ ورا روبین استفاده کنید

  • اگر تعداد زیادی از بارهای کاری شامل تولید توکن با ارزش بالا مانند تولید کد است، گروک را معرفی کنید، با نسبت پیشنهادی حدود ۲۵٪ گروک + ۷۵٪ ورا روبین

گروک LP30، که توسط سامسونگ تولید شده، وارد تولید انبوه شده و انتظار می‌رود در سه‌ماهه سوم ارسال شود. از سامسونگ به خاطر همکاری کاملشان تشکر می‌کنم.

پرش تاریخی در عملکرد استنتاج

کمیت‌سازی پیشرفت‌های فناوری قبلی: در عرض دو سال، نرخ تولید توکن یک کارخانه هوش مصنوعی 1GW از 22 میلیون توکن در ثانیه به 700 میلیون توکن در ثانیه افزایش خواهد یافت، که افزایش 350 برابری است. این قدرت طراحی مشترک افراطی است.

نقشه راه فناوری

  • بلک‌ول: در حال حاضر در تولید، سیستم رک استاندارد اوبرون، کابل مسی گسترش یافته به NVLink 72، گسترش اختیاری نوری به NVLink 576

  • ورا روبین (فعلی): رک کیبر، NVLink 144 (کابل مسی)؛ رک اوبرون، NVLink 72 + نوری، گسترش یافته به NVLink 576؛ اسپکتروم 6، اولین سوئیچ CPO در جهان

  • ورا روبین اولترا (به زودی): GPU نسل بعدی روبین اولترا، چیپ LP35 (اولین ادغام NVFP4)، که عملکرد را چندین برابر افزایش می‌دهد

  • فاینمن (نسل بعدی): GPU جدید، چیپ LP40 (به طور مشترک توسط NVIDIA و تیم Groq توسعه یافته، ادغام NVFP4)؛ CPU جدید—رزا (روزالین)؛ بلوفیلد 5؛ CX 10؛ رک کیبر که از هر دو روش گسترش مسی و CPO پشتیبانی می‌کند

نقشه راه واضح است: گسترش مسی، گسترش نوری (Scale-Up) و گسترش نوری (Scale-Out) به طور موازی در حال پیشرفت هستند و ما به همه شرکا نیاز داریم تا به گسترش تولید در کابل‌های مسی، فیبرهای نوری و CPO ادامه دهند.

NVIDIA DSX: پلتفرم دوقلوی دیجیتال برای کارخانه‌های هوش مصنوعی

کارخانه‌های هوش مصنوعی به طور فزاینده‌ای پیچیده می‌شوند، اما تأمین‌کنندگان مختلف فناوری که آنها را تشکیل می‌دهند هرگز در مرحله طراحی همکاری نکرده‌اند و فقط در مرکز داده "ملاقات" کرده‌اند—این به وضوح ناکافی است.

برای حل این مشکل، ما Omniverse و پلتفرم NVIDIA DSX را بر اساس آن ایجاد کردیم—پلتفرمی برای همه شرکا تا به طور مشترک کارخانه‌های هوش مصنوعی در سطح گیگاوات را در دنیای مجازی طراحی و اداره کنند. DSX ارائه می‌دهد:

  • سیستم‌های شبیه‌سازی مکانیکی، حرارتی، الکتریکی و شبکه‌ای در سطح رک

  • اتصال به شبکه برق برای برنامه‌ریزی صرفه‌جویی در انرژی به صورت مشترک

  • بهینه‌سازی مصرف انرژی و خنک‌کنندگی دینامیک بر اساس Max-Q در مرکز داده

به طور محافظه‌کارانه تخمین زده می‌شود که این سیستم می‌تواند کارایی استفاده از انرژی را حدود ۲ برابر بهبود بخشد که این یک مزیت قابل توجه در مقیاسی است که ما در حال بحث درباره آن هستیم. Omniverse از زمین دیجیتال آغاز می‌شود و دوقلوهای دیجیتال در مقیاس‌های مختلف را حمل خواهد کرد؛ ما در حال ساخت بزرگترین کامپیوتر در تاریخ بشر به همکاری با شرکای جهانی هستیم.

علاوه بر این، NVIDIA به فضا وارد می‌شود. چیپ Thor گواهی تابش را گذرانده و در ماهواره‌ها در حال کار است. ما در حال توسعه Vera Rubin Space-1 با شرکای خود برای ساخت کامپیوترهای مرکز داده فضایی هستیم. در فضا، ما تنها می‌توانیم به تابش برای دفع حرارت تکیه کنیم و مدیریت حرارتی یک چالش اصلی است؛ ما در حال جمع‌آوری بهترین مهندسان برای مقابله با این چالش هستیم.

OpenClaw: سیستم‌عامل برای عصر عامل‌ها

پیتر اشتاینبرگر نرم‌افزاری به نام OpenClaw توسعه داده است. این محبوب‌ترین پروژه متن‌باز در تاریخ بشر است که در عرض چند هفته از دستاوردهای لینوکس پیشی گرفته است.

OpenClaw اساساً یک سیستم عامل‌دار است که قادر به:

  • مدیریت منابع، دسترسی به ابزارها، سیستم‌های فایل و مدل‌های زبانی بزرگ

  • اجرای زمان‌بندی و وظایف زمان‌دار

  • به تدریج تجزیه مشکلات و فراخوانی زیرعامل‌ها

  • پشتیبانی از انواع ورودی و خروجی دلخواه (صدا، ویدئو، متن، ایمیل و غیره)

توصیف آن در نحو یک سیستم‌عامل، واقعاً یک سیستم‌عامل است—سیستم‌عامل برای کامپیوترهای عامل. ویندوز رایانه شخصی را ممکن ساخت؛ OpenClaw عامل‌های شخصی را ممکن می‌سازد.

هر شرکت نیاز دارد استراتژی OpenClaw خود را تدوین کند، درست همانطور که همه ما به استراتژی‌های لینوکس، استراتژی‌های HTML و استراتژی‌های Kubernetes نیاز داریم.

بازسازی جامع IT سازمانی

قبل از OpenClaw، IT سازمانی شامل ورود داده‌ها و فایل‌ها به سیستم‌ها، جریان از طریق ابزارها و جریان‌های کاری و در نهایت تبدیل به ابزارهایی برای استفاده انسان بود. شرکت‌های نرم‌افزاری ابزارهایی ایجاد کردند و یکپارچه‌سازان سیستم (GSI) و شرکت‌های مشاوره به شرکت‌ها در استفاده از این ابزارها کمک کردند.

پس از OpenClaw، هر شرکت SaaS به یک شرکت AaaS (Agentic as a Service) تبدیل خواهد شد - نه تنها ابزارها را ارائه می‌دهد، بلکه عوامل هوش مصنوعی متخصص در زمینه‌های خاص را نیز ارائه می‌دهد.

اما یک چالش کلیدی وجود دارد: عوامل داخلی می‌توانند به داده‌های حساس دسترسی پیدا کنند، کد را اجرا کنند و با طرف‌های خارجی ارتباط برقرار کنند. این باید به شدت در محیط‌های شرکتی کنترل شود.

برای حل این مشکل، ما با پیتر همکاری کردیم تا امنیت را در نسخه شرکتی ادغام کنیم و راه‌اندازی کنیم:

  • NeMo Claw (طراحی مرجع): یک چارچوب مرجع در سطح شرکتی مبتنی بر OpenClaw که مجموعه کامل ابزارهای هوش مصنوعی عامل NVIDIA را ادغام می‌کند.

  • Open Shield (لایه امنیتی): ادغام شده در OpenClaw، ارائه‌دهنده موتورهای سیاست، موانع شبکه و روترهای حریم خصوصی برای اطمینان از امنیت داده‌های شرکتی.

  • NeMo Cloud: برای دانلود در دسترس است و با موتورهای سیاست تمام شرکت‌های SaaS ادغام شده است.

این یک رنسانس برای IT شرکتی است، صنعتی به ارزش ۲ تریلیون دلار که آماده است به مقیاس چند تریلیون دلاری رشد کند و از ارائه ابزارها به ارائه خدمات عامل هوش مصنوعی تخصصی تغییر کند.

من به طور کامل پیش‌بینی می‌کنم که در آینده، هر مهندس در یک شرکت یک بودجه سالانه توکن خواهد داشت. حقوق آن‌ها ممکن است صدها هزار دلار باشد و من به علاوه یک سهمیه توکن معادل نیمی از حقوق آن‌ها را ارائه می‌دهم که اجازه می‌دهد خروجی آن‌ها ۱۰ برابر شود. "چند توکن با پیشنهاد شغلی شما همراه است؟" به یک موضوع جدید استخدام در سیلیکون ولی تبدیل شده است.

هر شرکت در آینده هم کاربر توکن (برای مهندسان) و هم تولیدکننده توکن (ارائه‌دهنده خدمات به مشتریان خود) خواهد بود. اهمیت OpenClaw را نمی‌توان نادیده گرفت؛ این به اندازه HTML و لینوکس مهم است.

ابتکار مدل باز NVIDIA

در زمینه عوامل سفارشی (Custom Claw)، ما مدل‌های پیشرفته خود توسعه یافته NVIDIA را ارائه می‌دهیم:

مدل دامنه Nemotron مدل زبان بزرگ Cosmos مدل بنیاد GROOT مدل ربات انسان‌نما Alpamayo رانندگی خودکار BioNeMo زیست‌شناسی دیجیتال Phys-AIAI فیزیک

ما در خط مقدم فناوری در هر زمینه هستیم و به تکرار مداوم متعهد هستیم - نموتران ۳ با نموتران ۴ دنبال خواهد شد، کاسموس ۱ با کاسموس ۲ دنبال خواهد شد و گروک نیز به نسل دوم خود خواهد رفت.

نموتران ۳ در بین سه مدل برتر جهانی در OpenClaw قرار دارد و در لبه فناوری است. نموتران ۳ اولترا به قوی‌ترین مدل بنیادی تبدیل خواهد شد که از کشورها در ساخت هوش مصنوعی مستقل حمایت می‌کند.

امروز، ما از تأسیس اتحاد نموتران خبر می‌دهیم و میلیاردها دلار سرمایه‌گذاری می‌کنیم تا توسعه مدل‌های بنیادی هوش مصنوعی را پیش ببریم. اعضای اتحاد شامل: بلک‌فارست لبز، کُرسور، لنگ‌چین، میسترال، پرپلکسی‌تی، رفلکشن، ساروام (هند)، ماشین‌های تفکر (آزمایشگاه میرا مورات) و بیشتر. شرکت‌های نرم‌افزار شرکتی یکی پس از دیگری به ما ملحق می‌شوند و طراحی مرجع NeMo Claw و ابزار هوش مصنوعی NVIDIA را در محصولات خود ادغام می‌کنند.

هوش مصنوعی فیزیکی و رباتیک

نمایندگان دیجیتال در دنیای دیجیتال عمل می‌کنند - کد می‌نویسند، داده‌ها را تحلیل می‌کنند؛ در حالی که هوش مصنوعی فیزیکی به نمایندگان تجسم‌یافته، یعنی ربات‌ها اشاره دارد.

در این GTC، ۱۱۰ ربات به نمایش درآمدند که تقریباً تمام شرکت‌های توسعه ربات در سطح جهانی را در بر می‌گیرد. NVIDIA سه کامپیوتر (کامپیوترهای آموزشی، کامپیوترهای شبیه‌سازی، کامپیوترهای روی برد) و یک پشته نرم‌افزاری کامل و مدل‌های هوش مصنوعی ارائه می‌دهد.

از نظر رانندگی خودران، "لحظه ChatGPT" برای رانندگی خودران فرا رسیده است. امروز، ما از چهار شریک جدید که به پلتفرم RoboTaxi Ready NVIDIA ملحق می‌شوند، خبر می‌دهیم: BYD، هیوندای، نیسان و جیلی، با تولید سالانه مجموع ۱۸ میلیون خودرو. به همراه شرکای قبلی مانند مرسدس بنز، تویوتا و جنرال موتورز، این خط تولید بیشتر گسترش یافته است. ما همچنین از یک همکاری مهم با اوبر برای استقرار و ادغام خودروهای RoboTaxi Ready در چندین شهر خبر دادیم.

در زمینه ربات‌های صنعتی، شرکت‌های متعددی مانند ABB، Universal Robotics و KUKA با ما همکاری می‌کنند تا مدل‌های هوش مصنوعی فیزیکی را با سیستم‌های شبیه‌سازی ترکیب کنند و استقرار ربات‌ها را در خطوط تولید جهانی ترویج دهند.

در ارتباطات، کاترپیلار و T-Mobile نیز در بین آنها هستند. در آینده، ایستگاه‌های پایه بی‌سیم دیگر فقط گره‌های ارتباطی نخواهند بود بلکه به NVIDIA Aerial AI RAN تبدیل خواهند شد - یک پلتفرم محاسباتی هوشمند لبه که قادر به درک ترافیک در زمان واقعی و تنظیمات beamforming برای دستیابی به قابلیت‌های صرفه‌جویی در انرژی و افزایش کارایی است.

بخش ویژه: ظاهر ربات اولاف

(ویدیو نمایش ربات اولاف دیزنی را پخش کنید)

جنسن هوانگ: مرد برفی اینجاست! نیوتون به خوبی کار می‌کند! اومنیورس هم به خوبی کار می‌کند! اولاف، حال شما چطور است؟

اولاف: من واقعاً خوشحالم که تو را می‌بینم.

جنسن هوانگ: بله، چون من به تو یک کامپیوتر دادم—جتسون!

اولاف: این چیست؟

جنسن هوانگ: این درست درون شکم توست.

اولاف: این شگفت‌انگیز است.

جنسن هوانگ: تو در اومنیورس راه رفتن را یاد گرفتی.

اولاف: من عاشق راه رفتن هستم. این خیلی بهتر از سوار شدن بر روی گوزن شمالی و نگاه کردن به آسمان زیباست.

جنسن هوانگ: این به خاطر شبیه‌سازی فیزیکی است—حل‌کننده نیوتون که بر روی NVIDIA Warp اجرا می‌شود، که در همکاری با دیزنی و دیپ‌مایند توسعه یافته و به تو اجازه می‌دهد تا به دنیای فیزیکی واقعی سازگار شوی.

اولاف: من تازه می‌خواستم این را بگویم.

جنسن هوانگ: این هوش توست. من یک مرد برفی هستم، نه یک توپ برفی.

جنسن هوانگ: آیا می‌توانی تصور کنی؟ دیزنی‌لند آینده—تمام این شخصیت‌های رباتی که به‌طور آزاد در پارک راه می‌روند. اما راستش را بخواهی، فکر می‌کردم قدت بیشتر است. هرگز چنین آدم برفی کوتاهی ندیده‌ام.

اولاف: (بی‌توجه)

جنسن هوانگ: می‌توانی به من کمک کنی تا سخنرانی امروز را جمع‌بندی کنم؟

اولاف: این فوق‌العاده خواهد بود!

خلاصه کلیدی

جنسن هوانگ: امروز، ما به بررسی موضوعات اصلی زیر پرداختیم:

  1. ورود نقطه عطف استدلال: استدلال به بار اصلی کار AI تبدیل شده است، توکن‌ها کالای جدید هستند و عملکرد استنتاج به‌طور مستقیم درآمد را تعیین می‌کند.

  2. عصر کارخانه‌های AI: مراکز داده از تأسیسات ذخیره‌سازی فایل به کارخانه‌های تولید توکن تبدیل شده‌اند و در آینده، هر شرکتی رقابت‌پذیری خود را با "کارایی کارخانه AI" اندازه‌گیری خواهد کرد.

  3. انقلاب عامل OpenClaw: OpenClaw عصر محاسبات عامل را آغاز کرده است و IT شرکتی در حال انتقال از عصر ابزار به عصر عامل است؛ هر شرکت نیاز دارد استراتژی OpenClaw خود را تدوین کند.

  4. AI فیزیکی و رباتیک: هوش تجسم‌یافته در حال گسترش است، با رانندگی خودکار، ربات‌های صنعتی و ربات‌های انسان‌نما که به‌طور جمعی فرصت مهم بعدی برای AI فیزیکی را تشکیل می‌دهند.

از همه شما متشکرم و از GTC لذت ببرید!

ممکن است شما نیز علاقه‌مند باشید

سه نمودار قابل توجه در کنفرانس GTC انویدیا: محاسبات ارزان‌تر، هزینه‌ی بیشتر

هزینه‌های استخراج ۹۴٪ کاهش، هزینه‌های سرمایه‌ای ۱۷۰٪ افزایش

گزارش صبح | استراتژی هفته گذشته ۱.۵۷ میلیارد دلار سرمایه‌گذاری کرد تا دارایی‌های خود را به میزان ۲۲۳۳۷ بیت‌کوین افزایش دهد؛ Abra قصد دارد از طریق ادغام SPAC سهام خود را به عموم عرضه کند؛ Metaplanet قصد دارد تقریباً ۷۶۵ میلیون دلار برای افزایش دارایی‌های ب

مروری بر رویدادهای مهم بازار در ۱۶ مارس

BTC: هشت شمع سبز به ۷۶ هزار دلار رسیدند، منطق برتری بر طلا در میانه نبرد چیست؟

کاهش تب جنگ، عقب‌نشینی قیمت نفت، احیای بازار سهام: این بار بیت‌کوین به کجا می‌رود؟

سی‌بی اینسایتس: نه پیش‌بینی برای بخش فین‌تک در سال ۲۰۲۶، در حالی که توکن‌سازی دارایی‌ها در حال تبدیل شدن به یک روند است.

نمایندگان هوش مصنوعی معاملات خودران را آغاز می‌کنند، غول‌های رمزارز مستقیماً بانک‌های سنتی را به چالش می‌کشند: مقاله‌ای که ۹ پیش‌بینی تحول‌آفرین را آشکار می‌کند که چشم‌انداز مالی را در سال ۲۰۲۶ دگرگون خواهند ساخت.

تحقیقات دِیون استِبل‌کوین: عرضه و تقاضای یک بازار ۳۰۰ میلیارد دلاری

در این مجموعه داده، انتقال‌ها دیگر صرفاً به‌عنوان «حجم تراکنش» برچسب‌گذاری نمی‌شوند، بلکه به‌عنوان فعالیت‌های مختلف درون‌زنجیره طبقه‌بندی می‌شوند. این تفاوت بین «فقط دانستن اینکه ۱۰۰ تریلیون دلار منتقل شده است» و «درک اینکه چرا منتقل شده است» است.

نامه سالانه Stripe: تراکم شناختی جدید بسیار بالاست، به خصوص مدل ۵ سطحی «هوش مصنوعی + پرداخت‌ها»

هر روندی در اینجا بر بقای آینده همه تأثیر می‌گذارد.

رمزارزهای محبوب

آخرین اخبار رمز ارز

ادامه مطلب