Podcast mới nhất của Huang Renxun: Liệu "hàng rào phòng thủ" của NVIDIA có thể tồn tại?
Tiêu đề video: Jensen Huang: - Liệu lợi thế cạnh tranh của Nvidia có còn bền vững?
Tác giả video: Dwarkesh Patel
Bản dịch: Peggy, BlockBeats
Ghi chú của biên tập viên: Trong khi thế giới bên ngoài vẫn đang tranh luận liệu "lợi thế cạnh tranh của Nvidia đến từ chuỗi cung ứng", cuộc thảo luận này lập luận rằng điều thực sự khó sao chép không phải là bản thân con chip, mà là toàn bộ khả năng của hệ thống "biến thành các token" - từ kiến trúc điện toán, hệ thống phần mềm đến hoạt động hợp tác của hệ sinh thái nhà phát triển.
Bài viết này được tổng hợp từ cuộc trò chuyện giữa Dwarkesh Patel và Jensen Huang. Dwarkesh Patel là một trong những người dẫn chương trình podcast công nghệ được xem nhiều nhất ở Thung lũng Silicon, sở hữu kênh YouTube Dwarkesh Podcast, chuyên thực hiện các cuộc phỏng vấn nghiên cứu chuyên sâu, tham gia vào các cuộc đối thoại dài hạn với các nhà nghiên cứu AI và những nhân vật chủ chốt trong ngành công nghệ.

Bên phải là Dwarkesh Patel, bên trái là Jensen Huang.
Từ điểm cốt lõi này, cuộc đối thoại có thể được hiểu từ ba khía cạnh.
Thứ nhất, đó là sự thay đổi về công nghệ và cơ cấu ngành.
Lợi thế của Nvidia không chỉ nằm ở hiệu năng phần cứng, mà còn ở hệ sinh thái nhà phát triển được hỗ trợ bởi CUDA và sự phụ thuộc vào nền tảng điện toán được hình thành. Trong hệ thống này, sức mạnh tính toán không còn là biến số duy nhất, mà các thuật toán, kỹ thuật hệ thống, mạng lưới và hiệu quả năng lượng cùng nhau quyết định tốc độ phát triển của trí tuệ nhân tạo. Điều này cũng dẫn đến một nhận định quan trọng: phần mềm sẽ không đơn thuần bị "hàng hóa hóa" bởi trí tuệ nhân tạo; ngược lại, với sự gia tăng số lượng các tác nhân, việc sử dụng các công cụ sẽ tăng theo cấp số nhân, làm tăng thêm giá trị của phần mềm.
Thứ hai, có những giới hạn trong kinh doanh và các lựa chọn chiến lược.
Trước chuỗi cung ứng công nghiệp AI không ngừng mở rộng, Nvidia lựa chọn "làm những gì cần thiết, nhưng không làm tất cả mọi thứ". Công ty này không tham gia vào lĩnh vực điện toán đám mây, cũng không thực hiện việc tích hợp theo chiều dọc quá mức, mà thay vào đó khuếch đại quy mô thị trường tổng thể thông qua đầu tư và hỗ trợ hệ sinh thái. Sự hạn chế này cho phép nó duy trì quyền kiểm soát quan trọng trong khi tránh trở thành một phần thay thế cho hệ sinh thái, từ đó thu hút thêm nhiều người tham gia vào hệ thống công nghệ của mình.
Thứ ba, có sự khác biệt giữa sự lan tỏa công nghệ và bối cảnh ngành công nghiệp.
Phần căng thẳng nhất của cuộc thảo luận không nằm ở những kết luận cụ thể, mà ở việc hiểu thế nào về "rủi ro" nói chung. Một quan điểm nhấn mạnh lợi thế tiên phong do sự dẫn đầu về sức mạnh tính toán mang lại, trong khi quan điểm khác tập trung hơn vào vai trò lâu dài của hệ sinh thái và các tiêu chuẩn trong quá trình phổ biến công nghệ. Thay vì chỉ tập trung vào khoảng cách năng lực ngắn hạn, câu hỏi quan trọng hơn có lẽ là: các mô hình và nhà phát triển trí tuệ nhân tạo trong tương lai sẽ hoạt động trên hệ thống công nghệ nào.
Nói cách khác, mục tiêu cuối cùng của cuộc cạnh tranh này không chỉ là "ai có thể xây dựng mô hình mạnh mẽ hơn trước", mà là "ai định nghĩa được cơ sở hạ tầng mà mô hình đó hoạt động trên đó".
Theo nghĩa này, vai trò của NVIDIA không còn chỉ là một công ty sản xuất chip mà gần giống với "nhà cung cấp hệ điều hành nền tảng" của kỷ nguyên AI - họ tìm cách đảm bảo rằng dù sức mạnh tính toán có phát triển mạnh mẽ đến đâu, con đường tạo ra giá trị vẫn xoay quanh chính họ.
Sau đây là nội dung gốc (đã được sắp xếp lại để dễ đọc hơn):
TÓM LẠI
• Lợi thế cạnh tranh của NVIDIA không nằm ở "chip" mà ở "khả năng hệ thống toàn diện từ điện tử đến token". Điều cốt lõi không phải là hiệu năng phần cứng mà là khả năng chuyển đổi sức mạnh tính toán thành giá trị thông qua cách tiếp cận toàn diện (kiến trúc + phần mềm + hệ sinh thái).
• Ưu điểm cốt lõi của CUDA không nằm ở bản thân công cụ mà là hệ sinh thái nhà phát triển AI lớn nhất thế giới. Các nhà phát triển, khung phần mềm và mô hình đều gắn bó với cùng một hệ thống công nghệ, tạo nên một sự phụ thuộc không thể thay thế.
• Chìa khóa để cạnh tranh trong lĩnh vực trí tuệ nhân tạo không chỉ nằm ở sức mạnh tính toán mà còn ở sự kết hợp giữa "nền tảng tính toán × thuật toán × kỹ thuật hệ thống". Những cải tiến về kiến trúc, mạng lưới, hiệu quả năng lượng và sự hợp tác phần mềm vượt xa sự tiến bộ của công nghệ quy trình đơn thuần.
• Nút thắt về năng lực tính toán chỉ là vấn đề ngắn hạn, và nguồn cung sẽ được bổ sung nhờ tín hiệu cầu trong vòng 2-3 năm tới. Rào cản thực sự dài hạn không phải là con chip mà là năng lượng và cơ sở hạ tầng.
• Phần mềm AI sẽ không bị thương mại hóa; thay vào đó, nó sẽ trải qua sự tăng trưởng theo cấp số nhân về mức độ sử dụng công cụ do sự bùng nổ của các tác nhân AI. Tương lai không phải là phần mềm rẻ hơn mà là sự gia tăng theo cấp số nhân về số lượng phần mềm được sử dụng.
• Chiến lược cốt lõi của NVIDIA là không mạo hiểm tham gia vào lĩnh vực điện toán đám mây: chỉ làm "những gì cần thiết" chứ không thâu tóm toàn bộ chuỗi giá trị. Thông qua đầu tư và hỗ trợ hệ sinh thái thay vì tích hợp theo chiều dọc, NVIDIA khuếch đại quy mô thị trường tổng thể.
• Rủi ro chiến lược thực sự không phải là việc các đối thủ cạnh tranh giành được sức mạnh tính toán, mà là hệ sinh thái AI toàn cầu không còn dựa trên nền tảng công nghệ của Mỹ nữa. Khi các mô hình và nhà phát triển chuyển đổi, các tiêu chuẩn kỹ thuật dài hạn và vị thế thống trị trong ngành cũng sẽ thay đổi theo.
Nội dung phỏng vấn
Lợi thế cạnh tranh của NVIDIA nằm ở đâu: chuỗi cung ứng hay ở việc kiểm soát "chuyển đổi điện tử thành token"?
Dwarkesh Patel (Người dẫn chương trình):
Chúng ta đã chứng kiến giá trị của nhiều công ty phần mềm giảm sút vì người ta kỳ vọng rằng trí tuệ nhân tạo sẽ biến phần mềm thành một mặt hàng tiêu chuẩn hóa. Còn một cách hiểu khác có phần ngây thơ hơn, đại khái như sau: từ các tập tin thiết kế (GDS2) được chuyển giao cho TSMC, TSMC chịu trách nhiệm sản xuất chip logic, gia công tấm bán dẫn, xây dựng mạch chuyển mạch, sau đó đóng gói với HBM do SK Hynix, Micron, Samsung sản xuất, và cuối cùng gửi đến ODM để lắp ráp thành khung máy hoàn chỉnh.
Ghi chú: HBM (High Bandwidth Memory) là công nghệ bộ nhớ tiên tiến được thiết kế đặc biệt cho điện toán hiệu năng cao và trí tuệ nhân tạo; ODM (Original Design Manufacturer) đề cập đến nhà sản xuất theo hợp đồng chịu trách nhiệm cả về sản xuất và thiết kế sản phẩm.
Vì vậy, xét từ góc độ này, về cơ bản NVIDIA chỉ làm phần mềm, còn việc sản xuất do các đơn vị khác đảm nhiệm. Nếu phần mềm trở thành hàng hóa thông dụng, thì NVIDIA cũng sẽ trở thành hàng hóa thông dụng.
Jensen Huang (CEO của NVIDIA):
Nhưng cuối cùng, cần phải có một quy trình để chuyển đổi electron thành token. Từ điện tử đến token, và việc làm cho các token này có giá trị hơn theo thời gian, tôi nghĩ quá trình chuyển đổi này khó có thể được thương mại hóa hoàn toàn.
Quá trình chuyển đổi từ electron sang token tự nó đã là một quá trình vô cùng đặc biệt. Và việc làm cho một mã thông báo có giá trị hơn, giống như việc làm cho một phân tử có giá trị hơn phân tử khác, chính là làm cho mã thông báo này có giá trị hơn mã thông báo khác.
Trong quá trình này, có rất nhiều yếu tố nghệ thuật, kỹ thuật, khoa học và sáng tạo được vận dụng để tạo nên giá trị cho đồng xu này.
Rõ ràng, chúng ta đang chứng kiến tất cả những điều này diễn ra trong thời gian thực. Vì vậy, quá trình chuyển đổi này, quá trình sản xuất và các tín hiệu liên quan vẫn chưa được hiểu đầy đủ, và hành trình này còn lâu mới kết thúc. Vì vậy, tôi không nghĩ kịch bản đó sẽ xảy ra.
Dĩ nhiên, chúng ta sẽ làm cho nó hiệu quả hơn. Thực tế, cách bạn vừa mô tả vấn đề chính là mô hình tư duy của tôi về NVIDIA: đầu vào là các electron, đầu ra là các token, và NVIDIA nằm ở giữa.
Nhiệm vụ của chúng tôi là "làm càng nhiều việc cần thiết càng tốt và làm càng ít việc không cần thiết càng tốt" để đạt được sự chuyển đổi này và mang lại cho nó khả năng hoạt động cực kỳ cao.
Khi tôi nói "càng ít càng tốt", ý tôi là đối với bất cứ việc gì chúng ta không cần tự mình làm, chúng ta sẽ hợp tác với người khác và tích hợp nó vào hệ sinh thái của mình. Nếu nhìn vào NVIDIA hiện nay, chúng ta có thể thấy chúng ta đang sở hữu một trong những hệ sinh thái đối tác lớn nhất, cả trong chuỗi cung ứng thượng nguồn và hạ nguồn. Từ các nhà sản xuất máy tính, nhà phát triển ứng dụng đến nhà phát triển mô hình—bạn có thể hình dung AI như một "chiếc bánh năm tầng", và chúng ta có một hệ sinh thái được bố trí ở năm cấp độ này.
Bài đọc liên quan: " Bài viết mới nhất của CEO NVIDIA Jensen Huang: "Chiếc bánh năm tầng" của Trí tuệ nhân tạo "
Vì vậy, chúng tôi cố gắng làm càng ít càng tốt, nhưng phần việc chúng tôi bắt buộc phải làm lại vô cùng khó khăn. Và tôi không nghĩ rằng phần đó sẽ trở thành hàng hóa thông thường.
Thực tế, tôi cũng không nghĩ rằng các công ty phần mềm doanh nghiệp về cơ bản đang kinh doanh "sản xuất công cụ". Tuy nhiên, thực tế là hầu hết các công ty phần mềm hiện nay đều là những nhà cung cấp công cụ.
Tất nhiên, vẫn có những ngoại lệ; một số công ty tập trung vào lập trình và hoàn thiện hệ thống quy trình làm việc, nhưng về cơ bản, nhiều công ty vẫn là những công ty cung cấp công cụ.
Ví dụ, Excel là một công cụ, PowerPoint là một công cụ, những gì Cadence làm cũng là một công cụ, và Synopsys cũng là một công cụ.
Jensen Huang:
Và xu hướng mà tôi nhận thấy thực tế lại trái ngược với quan điểm của nhiều người. Tôi tin rằng số lượng đại lý sẽ tăng theo cấp số nhân, và số lượng người sử dụng công cụ cũng sẽ tăng theo cấp số nhân.
Số lượng các trường hợp gọi đến các công cụ khác nhau cũng có khả năng tăng đột biến. Ví dụ, số lần sử dụng Synopsys Design Compiler có thể tăng lên đáng kể.
Sẽ có rất nhiều nhân viên sử dụng các công cụ lập kế hoạch mặt bằng, công cụ bố trí và công cụ kiểm tra quy tắc thiết kế.
Hiện nay, chúng ta bị hạn chế bởi số lượng kỹ sư; nhưng trong tương lai, những kỹ sư này sẽ được hỗ trợ bởi một lượng lớn các công nghệ hỗ trợ, và chúng ta sẽ khám phá không gian thiết kế theo những cách chưa từng có. Khi bạn bắt đầu sử dụng những công cụ này ngay hôm nay, sự thay đổi sẽ rất rõ rệt.
Việc sử dụng các công cụ sẽ thúc đẩy các công ty phần mềm này đạt được sự tăng trưởng vượt bậc. Sự tăng trưởng bùng nổ này chưa xảy ra vì các nhân viên hiện tại chưa thành thạo trong việc sử dụng các công cụ.
Vì vậy, hoặc các công ty này tự xây dựng các đại lý, hoặc chính các đại lý sẽ trở nên đủ mạnh để sử dụng các công cụ này. Tôi tin rằng kết quả cuối cùng sẽ là sự kết hợp của cả hai yếu tố.
Dwarkesh Patel
Tôi nhớ trong báo cáo gần đây nhất của quý công ty, quý công ty đã có các cam kết mua sắm trị giá gần 100 tỷ đô la cho các linh kiện ranh giới, bộ nhớ, bao bì, v.v. Báo cáo của SemiAnalysis cho thấy con số này có thể lên tới 250 tỷ đô la.
Một cách giải thích là lợi thế cạnh tranh của NVIDIA nằm ở việc bạn đảm bảo nguồn cung các linh kiện khan hiếm này trong những năm tới. Nói cách khác, liệu những người khác cũng có thể chế tạo bộ tăng tốc, nhưng liệu họ có đủ bộ nhớ hay không? Liệu họ có thể kiếm đủ chip logic không?
Liệu đây có phải là lợi thế cốt lõi của NVIDIA trong những năm tới?
Jensen Huang:
Đây là điều chúng ta có thể làm được nhưng rất khó để người khác thực hiện. Lý do chúng ta có thể đưa ra những cam kết lớn như vậy ở khâu đầu nguồn một phần là rõ ràng, như các cam kết về mua sắm mà bạn đã đề cập; và một phần là ngầm định.
Ví dụ, phần lớn các khoản đầu tư thượng nguồn thực chất được thực hiện bởi các đối tác trong chuỗi cung ứng của chúng tôi, bởi vì tôi sẽ nói với CEO của họ: Hãy để tôi cho bạn biết ngành công nghiệp này sẽ lớn mạnh đến mức nào, hãy để tôi giải thích lý do, hãy để tôi cùng bạn suy luận, hãy để tôi chia sẻ những gì tôi thấy.
Thông qua quá trình này—truyền tải thông tin, khơi gợi tầm nhìn, xây dựng sự đồng thuận—tôi kết nối với các CEO từ các ngành khác nhau ở khâu đầu nguồn, và chỉ khi đó họ mới sẵn lòng thực hiện các khoản đầu tư này.
Vậy tại sao họ lại sẵn lòng đầu tư vào tôi mà không phải người khác? Vì họ biết tôi có khả năng mua lại năng lực sản xuất của họ và sử dụng nó thông qua hệ thống hạ nguồn của mình. Chính vì nhu cầu tiêu thụ sâu rộng và quy mô chuỗi cung ứng của NVIDIA mà họ sẵn sàng đầu tư vào khâu thượng nguồn.
Hãy nhìn vào GTC, quy mô của hội nghị đã khiến nhiều người kinh ngạc. Về cơ bản, đó là một vũ trụ AI toàn diện 360 độ, kết nối toàn bộ ngành công nghiệp lại với nhau. Mọi người tụ tập vì họ cần gặp nhau. Tôi kết nối họ lại với nhau để những người ở thượng nguồn có thể thấy những người ở hạ nguồn, những người ở hạ nguồn có thể thấy những người ở thượng nguồn, và đồng thời để mọi người thấy được sự tiến bộ của trí tuệ nhân tạo.
Quan trọng hơn, họ có thể tương tác với các công ty và startup chuyên về trí tuệ nhân tạo, trực tiếp chứng kiến các đổi mới đang diễn ra, và từ đó xác nhận những nhận định mà tôi đã đưa ra.
Vì vậy, tôi đã dành rất nhiều thời gian, trực tiếp hoặc gián tiếp, để giải thích những cơ hội hiện tại cho các đối tác trong chuỗi cung ứng và hệ sinh thái của chúng ta. Nhiều người sẽ nói rằng bài phát biểu khai mạc của tôi không giống như một buổi giới thiệu sản phẩm truyền thống nối tiếp nhau tại hội nghị, mà có một phần nghe giống như "giảng dạy". Và đây chính là mục đích sống của tôi.
Tôi cần đảm bảo toàn bộ chuỗi cung ứng—dù là thượng nguồn hay hạ nguồn—đều hiểu rõ: điều gì sẽ xảy ra tiếp theo, tại sao nó xảy ra, khi nào nó xảy ra, quy mô sẽ lớn đến mức nào, và có khả năng suy luận một cách có hệ thống về những câu hỏi này giống như tôi.
Vậy là "con hào" mà bạn vừa nhắc đến quả thực có tồn tại. Nếu thị trường này đạt quy mô nghìn tỷ đô la trong những năm tới, chúng ta có khả năng xây dựng chuỗi cung ứng để hỗ trợ nó. Giống như dòng tiền, chuỗi cung ứng cũng có sự luân chuyển và vòng quay. Nếu tốc độ thay đổi cấu trúc doanh nghiệp không đủ nhanh, sẽ không ai xây dựng chuỗi cung ứng cho nó. Lý do chúng tôi có thể duy trì quy mô này là vì nhu cầu tiêu thụ ở khâu cuối rất mạnh, và ai cũng có thể thấy điều đó.
Chính điểm này cho phép chúng ta thực hiện những việc này ở quy mô như hiện nay.
Dwarkesh Patel
Tôi vẫn muốn hiểu rõ hơn liệu nguồn cung thượng nguồn có theo kịp hay không. Trong nhiều năm qua, doanh thu của bạn về cơ bản đã tăng gấp đôi mỗi năm, và năng lực tính toán mà bạn cung cấp cho thế giới thậm chí đã tăng gấp ba lần.
Jensen Huang:
Và con số này tiếp tục tăng gấp đôi ở quy mô này.
Dwarkesh Patel:
Chính xác. Vì vậy, nếu bạn xem xét các chip logic, ví dụ như bạn là một trong những khách hàng lớn nhất của TSMC đối với quy trình N3, đồng thời cũng là một khách hàng quan trọng đối với quy trình N2.
Theo một số phân tích, năm nay trí tuệ nhân tạo (AI) có thể chiếm 60% công suất của N3, và năm sau con số này thậm chí có thể đạt 86%.
Ghi chú: N3 đề cập đến công nghệ sản xuất 3 nanomet (3nm) của TSMC, có thể hiểu là một trong những quy trình sản xuất chip tiên tiến nhất của TSMC.
Vậy, khi mà bạn đã chiếm một thị phần lớn như vậy, làm thế nào bạn có thể tiếp tục tăng gấp đôi? Và mỗi năm con số đó lại tăng gấp đôi? Liệu chúng ta đã bước vào giai đoạn mà tốc độ tăng trưởng sức mạnh tính toán của AI phải chậm lại do những hạn chế từ phía nguồn cung cấp? Có cách nào để vượt qua những hạn chế này không? Làm sao chúng ta có thể xây dựng hai nhà máy sản xuất wafer mỗi năm được chứ?
Jensen Huang:
Vào những thời điểm nhất định, nhu cầu tức thời thực sự vượt quá nguồn cung của toàn ngành, cả ở khâu thượng nguồn và hạ nguồn. Và trong một số trường hợp, chúng ta thậm chí có thể bị hạn chế bởi số lượng thợ sửa ống nước — điều này thực tế đã từng xảy ra.
Dwarkesh Patel:
Vì vậy, GTC năm sau nên mời cả thợ sửa ống nước tham gia.
Jensen Huang:
Đúng vậy, đó thực sự là một hiện tượng tốt. Bạn muốn tham gia vào một thị trường như thế này: nơi nhu cầu tức thời lớn hơn tổng nguồn cung của toàn ngành. Ngược lại, dĩ nhiên, điều đó không tốt chút nào.
Nếu khoảng cách giữa hai yếu tố này quá lớn, một mắt xích cụ thể, một thành phần nhất định sẽ trở thành nút thắt cổ chai rõ rệt, và toàn bộ ngành công nghiệp sẽ đổ xô đi giải quyết vấn đề đó. Ví dụ, tôi nhận thấy hiện nay mọi người không còn bàn luận nhiều về CoWoS nữa. Lý do là trong hai năm qua, chúng tôi đã đầu tư và mở rộng rất lớn vào lĩnh vực này, nhân quy mô lên nhiều lần.
Hiện tại tôi nghĩ tình hình nhìn chung khá tốt. TSMC cũng nhận ra rằng nguồn cung CoWoS phải theo kịp nhu cầu ngày càng tăng đối với chip logic và bộ nhớ. Vì vậy, họ đang mở rộng CoWoS đồng thời phát triển các công nghệ đóng gói tiên tiến trong tương lai, và tốc độ mở rộng tương đương với chip logic.
Điều này rất quan trọng vì trước đây, CoWoS và bộ nhớ HBM giống như những "khả năng đặc biệt", nhưng giờ thì không còn như vậy nữa. Giờ đây, mọi người đều nhận ra rằng họ là một phần của công nghệ điện toán chính thống.
Đồng thời, giờ đây chúng ta có khả năng tác động đến toàn bộ chuỗi cung ứng. Trước đây, khi cuộc cách mạng trí tuệ nhân tạo mới bắt đầu, những gì tôi đang nói bây giờ, thực ra tôi đã nói đến cách đây năm năm rồi.
Một số người đã tin tưởng và đầu tư vào thời điểm đó, chẳng hạn như nhóm của Sanjay thuộc Micron. Tôi vẫn nhớ rõ cuộc gặp đó, nơi tôi đã giải thích cặn kẽ những gì sẽ xảy ra trong tương lai, lý do tại sao nó xảy ra, và dự đoán kết quả mà chúng ta thấy ngày hôm nay. Vào thời điểm đó, họ quyết định tăng đáng kể vốn đầu tư, và chúng tôi cũng đã thiết lập quan hệ đối tác với họ. Họ đã đầu tư vào nhiều lĩnh vực khác nhau như LPDDR và HBM, điều này rõ ràng đã mang lại cho họ lợi nhuận đáng kể. Một số công ty đã làm theo sau, nhưng giờ đây tất cả đều đã bước vào giai đoạn này.
Vì vậy, tôi tin rằng mỗi thế hệ công nghệ, mỗi điểm nghẽn, đều sẽ nhận được rất nhiều sự quan tâm. Và giờ đây, chúng ta đã "dự đoán trước" những điểm nghẽn này đến vài năm sau. Ví dụ, sự hợp tác của chúng tôi với Lumentum, Coherent và toàn bộ hệ sinh thái quang tử silicon. Trong vài năm qua, chúng tôi đã thực sự định hình lại toàn bộ hệ sinh thái và chuỗi cung ứng.
Trong lĩnh vực quang tử silicon, chúng tôi đã xây dựng một chuỗi cung ứng hoàn chỉnh xoay quanh TSMC, hợp tác với họ để phát triển công nghệ, phát minh ra nhiều công nghệ mới và cấp phép các bằng sáng chế này cho chuỗi cung ứng, duy trì tính mở của hệ sinh thái. Chúng tôi đã chuẩn bị chuỗi cung ứng bằng cách phát minh ra các công nghệ mới, quy trình làm việc mới, thiết bị kiểm tra mới (bao gồm cả phát hiện hai mặt), đầu tư vào các công ty liên quan và giúp họ mở rộng quy mô.
Như vậy, bạn có thể thấy rằng chúng tôi đang tích cực định hình hệ sinh thái này để cho phép chuỗi cung ứng hỗ trợ quy mô trong tương lai.
Dwarkesh Patel:
Có vẻ như một số điểm nghẽn dễ giải quyết hơn những điểm nghẽn khác. Ví dụ, so với việc mở rộng CoWoS, có những việc khó khăn hơn.
Jensen Huang:
Thực ra, điều tôi vừa đề cập là điều khó nhất.
Dwarkesh Patel:
Cái nào?
Jensen Huang:
Thợ sửa ống nước. Vâng, đúng vậy. Điều tôi vừa đề cập là những công việc khó khăn nhất — thợ sửa ống nước và thợ điện. Lý do là, điều này cũng khiến tôi hơi lo ngại về một số "người bi quan" luôn nói về việc mất việc làm, các vị trí bị thay thế. Nếu chúng ta khuyên mọi người không nên trở thành kỹ sư phần mềm vì lý do này, thì tương lai chúng ta sẽ thực sự thiếu hụt các kỹ sư phần mềm.
Những dự đoán tương tự đã được đưa ra cách đây mười năm. Thời đó, có người nói rằng, "Dù làm gì đi nữa, đừng bao giờ trở thành bác sĩ X quang." Bạn vẫn có thể tìm thấy những video đó trên mạng, nói rằng ngành X quang sẽ là nghề đầu tiên bị loại bỏ và thế giới sẽ không còn cần đến các bác sĩ X quang nữa. Nhưng thực tế là, hiện nay chúng ta đang thiếu các bác sĩ chuyên khoa X quang.
Dwarkesh Patel:
Được rồi, quay lại câu hỏi trước: Một số liên kết có thể mở rộng, một số thì không. Vậy, cụ thể, làm thế nào để năng lực sản xuất chip logic có thể tăng gấp đôi? Tóm lại, nút thắt cổ chai thực sự nằm ở đây, cả bộ nhớ và logic đều là những yếu tố hạn chế. Còn về máy in thạch bản EUV thì sao? Làm thế nào mà bạn có thể tăng gấp đôi số lượng của họ mỗi năm?
Jensen Huang:
Tất cả những điều này đều không thể đảo ngược. Thực tế, việc mở rộng quy mô nhanh chóng không hề dễ dàng, nhưng hoàn thành những điều này trong vòng hai đến ba năm thì không khó. Điều then chốt là phải có tín hiệu cầu rõ ràng. Khi bạn làm được một cái, bạn có thể làm được mười cái; khi bạn làm được mười cái, bạn có thể làm được một triệu cái. Vì vậy, về cơ bản, những điều này không khó để sao chép.
Dwarkesh Patel:
Vậy liệu bạn có thể truyền đạt nhận định này đến tận sâu bên trong chuỗi cung ứng không? Ví dụ, bạn có đến ASML và hỏi: nếu nhìn về ba năm nữa, để đạt được doanh thu hàng năm 2 nghìn tỷ đô la như NVIDIA, chúng ta có cần thêm máy in thạch bản EUV không?
Jensen Huang:
Một số việc tôi làm trực tiếp, một số thì làm gián tiếp. Nếu tôi thuyết phục được TSMC, thì đương nhiên ASML cũng sẽ bị thuyết phục. Vì vậy, chúng ta phải xác định những điểm nghẽn quan trọng. Nhưng miễn là TSMC tin tưởng vào xu hướng này, trong vài năm nữa, họ sẽ có đủ thiết bị EUV.
Ý tôi là, không có điểm nghẽn nào sẽ kéo dài quá hai đến ba năm, hoàn toàn không.
Đồng thời, chúng tôi cũng đang tăng cường hiệu quả tính toán. Từ Hopper đến Blackwell, chúng tôi đã đạt được sự cải thiện gấp khoảng 10 lần, 20 lần, và trong một số trường hợp, thậm chí là 30 đến 50 lần. Chúng tôi cũng liên tục giới thiệu các thuật toán mới. Vì CUDA đủ linh hoạt, chúng ta có thể phát triển nhiều phương pháp mới để mở rộng năng lực đồng thời nâng cao hiệu quả.
Vậy nên, những điều này không làm tôi lo lắng. Điều thực sự khiến tôi lo ngại là các yếu tố bên ngoài nằm ngoài tầm kiểm soát của chúng ta, chẳng hạn như chính sách năng lượng. Không có năng lượng, bạn không thể mở rộng; không có năng lượng, bạn không thể thành lập một ngành công nghiệp; không có năng lượng, bạn không thể xây dựng một hệ sinh thái sản xuất hoàn toàn mới.
Hiện nay, chúng tôi muốn thúc đẩy quá trình tái công nghiệp hóa tại Hoa Kỳ, khôi phục ngành sản xuất chip, sản xuất máy tính và đóng gói, đồng thời thiết lập các ngành công nghiệp mới như xe điện và robot. Khi xây dựng nhà máy AI, tất cả đều phụ thuộc vào năng lượng, và quá trình xây dựng liên quan đến năng lượng có một chu kỳ dài. Ngược lại, việc tăng công suất chip là vấn đề cần từ hai đến ba năm; việc tăng công suất CoWoS cũng là vấn đề cần từ hai đến ba năm.
Dwarkesh Patel:
Khá thú vị. Tôi cảm thấy một số khách mời mà tôi đã phỏng vấn lại đưa ra nhận định hoàn toàn trái ngược. Thật ra, về vấn đề này, tôi không có đủ kiến thức chuyên môn để đánh giá.
Jensen Huang:
Tuy nhiên, điều tốt là, giờ đây bạn đang nói chuyện với các chuyên gia.
Liệu TPU của Google có làm lung lay vị thế của NVIDIA?
Dwarkesh Patel:
Đúng vậy. Tôi muốn hỏi về các đối thủ cạnh tranh của bạn. Khi xem xét TPU, có thể nói rằng hiện nay, hai trong số ba mô hình lớn hàng đầu thế giới—Claude và Gemini—đã được huấn luyện bằng TPU. Điều này có ý nghĩa gì đối với tương lai của NVIDIA?
Ghi chú: TPU (Tensor Processing Unit) là một loại chip chuyên dụng được Google thiết kế dành riêng cho trí tuệ nhân tạo, đặc biệt là học sâu.
Jensen Huang:
Những gì chúng tôi làm hoàn toàn khác biệt. NVIDIA đang xây dựng "khả năng tính toán tăng tốc", chứ không phải là các bộ xử lý Tensor (TPU).
Điện toán tăng tốc có thể được sử dụng cho nhiều nhiệm vụ khác nhau, chẳng hạn như động lực học phân tử, sắc động lực học lượng tử, xử lý dữ liệu, khung dữ liệu, dữ liệu có cấu trúc, dữ liệu không có cấu trúc, động lực học chất lỏng, vật lý hạt và tất nhiên, trí tuệ nhân tạo. Do đó, phạm vi ứng dụng của điện toán tăng tốc rộng hơn rất nhiều.
Mặc dù cuộc thảo luận hiện tại tập trung vào trí tuệ nhân tạo (AI), một lĩnh vực thực sự rất quan trọng và có tác động đáng kể, nhưng phạm vi của "điện toán" tự thân rộng hơn nhiều so với AI. Điều mà NVIDIA làm là cách mạng hóa phương pháp tính toán, chuyển từ tính toán đa năng sang tính toán tăng tốc. Phạm vi thị trường của chúng tôi rộng hơn nhiều so với bất kỳ chất tăng tốc TPU hoặc chất tăng tốc chuyên dụng nào khác.
Nếu nhìn vào vị thế của chúng tôi, chúng tôi là công ty duy nhất có thể tăng tốc nhiều loại ứng dụng khác nhau. Chúng tôi có một hệ sinh thái rộng lớn, nơi nhiều framework và thuật toán khác nhau có thể chạy trên nền tảng NVIDIA. Hơn nữa, các hệ thống máy tính của chúng ta được thiết kế để "người khác vận hành". Bất kỳ nhà mạng nào cũng có thể mua hệ thống của chúng tôi để sử dụng.
Hầu hết các hệ thống tự phát triển không được thiết kế để người khác sử dụng; về cơ bản bạn phải tự vận hành chúng vì ban đầu chúng không được thiết kế đủ linh hoạt để người khác sử dụng. Vì bất kỳ ai cũng có thể vận hành hệ thống của chúng tôi, nên chúng tôi đã tích hợp vào tất cả các nền tảng chính, bao gồm Google, Amazon, Azure, OCI và các nền tảng khác.
Cho dù bạn đang tìm cách thuê sức mạnh tính toán để vận hành hệ thống hay để sử dụng hệ thống cho riêng mình, nếu muốn tham gia vào lĩnh vực cho thuê, bạn cần phải có một hệ sinh thái khách hàng quy mô lớn bao gồm nhiều ngành công nghiệp để đáp ứng những nhu cầu này. Nếu bạn đang vận hành hệ điều hành cho mục đích sử dụng cá nhân, chúng tôi chắc chắn có khả năng giúp bạn thực hiện điều đó. Ví dụ, xAI của Elon Musk.
Vì chúng tôi cho phép các nhà điều hành từ bất kỳ ngành nghề hoặc công ty nào sử dụng hệ thống của mình, bạn có thể sử dụng nó để xây dựng siêu máy tính cho các công ty như Lilly, phục vụ nghiên cứu khoa học và phát hiện thuốc. Chúng tôi có thể giúp họ vận hành siêu máy tính của riêng mình và ứng dụng chúng vào nhiều lĩnh vực nghiên cứu dược phẩm và khoa học sinh học, tất cả đều là những lĩnh vực mà chúng tôi có thể thúc đẩy.
Như vậy, chúng ta có thể đáp ứng được nhiều ứng dụng khác nhau, điều mà TPU không thể làm được. CUDA của NVIDIA, do chính NVIDIA phát triển, cũng có thể đóng vai trò là một nền tảng xử lý tensor xuất sắc, nhưng không chỉ có vậy. Nó bao quát toàn bộ vòng đời của xử lý dữ liệu, điện toán, trí tuệ nhân tạo và nhiều hơn nữa. Do đó, cơ hội thị trường của chúng tôi lớn hơn nhiều, với phạm vi rộng hơn. Và bởi vì hiện nay chúng tôi hỗ trợ hầu hết mọi loại ứng dụng trên toàn cầu, bạn có thể triển khai hệ thống NVIDIA ở bất cứ đâu và hoàn toàn yên tâm rằng chắc chắn sẽ có khách hàng sử dụng chúng.
Vì vậy, về cơ bản đây là một vấn đề hoàn toàn khác.
Dwarkesh Patel:
Câu hỏi này sẽ dài hơn một chút.
Doanh thu hiện tại của bạn thật đáng kinh ngạc, và phần lớn doanh thu này không đến từ dược phẩm hay điện toán lượng tử. Bạn không kiếm được 600 tỷ đô la mỗi quý từ những doanh nghiệp này, mà là vì trí tuệ nhân tạo (AI) là một công nghệ chưa từng có tiền lệ và đang phát triển với tốc độ chưa từng thấy.
Vậy câu hỏi đặt ra là: nếu chỉ xét đến trí tuệ nhân tạo (AI), thì giải pháp tối ưu là gì? Tôi không ở tuyến đầu, nhưng tôi đã nói chuyện với một số nhà nghiên cứu AI, và họ nói rằng: khi sử dụng TPU, nó là một mảng lớn, rất phù hợp cho phép nhân ma trận; trong khi GPU linh hoạt hơn, phù hợp để xử lý số lượng lớn các nhánh và truy cập bộ nhớ không đều.
Nhưng nếu nhìn vào trí tuệ nhân tạo, chẳng phải về bản chất nó chỉ là phép nhân ma trận lặp đi lặp lại, có tính dự đoán cao hay sao? Khi đó, bạn thực sự không cần phải chiếm diện tích chip cho các tính năng như lập lịch luồng, chuyển đổi luồng, ngân hàng bộ nhớ, v.v. Do đó, TPU được tối ưu hóa cao độ cho làn sóng nhu cầu về sức mạnh tính toán và tăng trưởng doanh thu hiện tại, tập trung vào các kịch bản ứng dụng chính.
Bạn nhìn nhận quan điểm này như thế nào?
Jensen Huang:
Phép nhân ma trận quả thực là một phần quan trọng của trí tuệ nhân tạo, nhưng nó không phải là tất cả của trí tuệ nhân tạo.
Nếu bạn muốn đề xuất một cơ chế chú ý mới, hoặc thực hiện các phép tính theo một cách khác; nếu bạn muốn thiết kế một kiến trúc hoàn toàn mới, chẳng hạn như SSM lai; nếu bạn muốn xây dựng một mô hình kết hợp khuếch tán và tự hồi quy—bạn cần một kiến trúc lập trình đa năng, và chúng tôi có thể chạy bất cứ thứ gì bạn nghĩ đến.
Đây là lợi thế của chúng tôi, giúp việc phát minh ra các thuật toán mới trở nên dễ dàng hơn nhiều. Đó là bởi vì nó là một hệ thống có thể lập trình được, và việc liên tục phát minh ra các thuật toán mới là lý do tại sao trí tuệ nhân tạo có thể tiến bộ nhanh chóng như vậy.
Giống như bất kỳ phần cứng nào khác, TPU cũng tuân theo Định luật Moore. Chúng ta biết rằng định luật Moore mang lại sự cải thiện khoảng 25% mỗi năm. Vì vậy, nếu bạn muốn đạt được bước nhảy vọt gấp 10 lần, 100 lần, cách duy nhất là thay đổi căn bản thuật toán và phương pháp tính toán của nó mỗi năm.
Đây chính xác là thế mạnh cốt lõi của NVIDIA.
Lý do chúng tôi đạt được sự cải thiện đáng kể với Blackwell so với Hopper - tôi đã nói là gấp 35 lần vào thời điểm đó - khi tôi lần đầu tiên tuyên bố rằng hiệu quả năng lượng của Blackwell sẽ cao hơn Hopper 35 lần, không ai tin điều đó.
Sau đó, Dylan viết một bài báo nói rằng thực ra tôi đã nói một cách thận trọng, và sự cải thiện thực tế gần gấp 50 lần, và loại cải thiện này không thể chỉ đạt được nhờ Định luật Moore. Phương pháp giải quyết vấn đề này của chúng tôi là giới thiệu các cấu trúc mô hình mới, chẳng hạn như MoE, và song song hóa, tách rời và phân tán quá trình tính toán, mở rộng nó trên toàn bộ hệ thống tính toán. Nếu không có khả năng đi sâu vào lớp phần cứng và phát triển các lõi tính toán mới bằng CUDA, việc này sẽ rất khó thực hiện.
Ghi chú: Đoạn văn này đề cập đến Dylan Patel, một nhà phân tích nổi tiếng trong lĩnh vực bán dẫn và cơ sở hạ tầng trí tuệ nhân tạo, đồng thời là người sáng lập công ty nghiên cứu SemiAnalysis.
Vì vậy, lợi thế của chúng tôi nằm ở: khả năng lập trình của kiến trúc và NVIDIA là một công ty có tính hợp tác thiết kế cao. Chúng ta thậm chí có thể chuyển một số phép tính sang kiến trúc kết nối liên mạng, chẳng hạn như NVLink, hoặc lớp mạng, chẳng hạn như Spectrum-X. Nói cách khác, chúng ta có thể thúc đẩy sự thay đổi đồng thời trên bộ xử lý, hệ thống, kết nối, thư viện phần mềm và thuật toán. Tất cả những điều này đang xảy ra cùng một lúc. Nếu không có CUDA hỗ trợ tất cả những điều này, tôi thậm chí không biết phải bắt đầu từ đâu.
Dwarkesh Patel:
Điều này cũng đặt ra câu hỏi về tệp khách hàng của NVIDIA: Nếu 60% doanh thu của bạn đến từ năm nhà cung cấp dịch vụ điện toán đám mây quy mô lớn này, thì trong một thời đại khác, khi đối mặt với một loại khách hàng khác, chẳng hạn như một giáo sư đang thực nghiệm, họ sẽ phụ thuộc rất nhiều vào CUDA. Họ không thể sử dụng các bộ tăng tốc khác, chỉ có thể sử dụng PyTorch + CUDA, và mọi thứ cần được tối ưu hóa tốt.
Nhưng nếu đó là những nhà cung cấp dịch vụ điện toán đám mây quy mô lớn, họ có khả năng tự viết nhân hệ điều hành của riêng mình. Thực tế, họ phải làm vậy để tối ưu hóa 5% hiệu suất cuối cùng. Các công ty như Anthropic và Google thường sử dụng các bộ tăng tốc tùy chỉnh hoặc TPU để huấn luyện. Ngay cả OpenAI, khi sử dụng GPU, cũng dùng Triton. Họ sẽ nói: Chúng ta cần một nhân hệ điều hành riêng. Vì vậy, họ sẽ trực tiếp viết mã CUDA bằng C++, thay vì sử dụng các thư viện như cuBLAS, NCCL, và xây dựng bộ phần mềm riêng của mình, thậm chí biên dịch nó cho các bộ tăng tốc khác.
Vì vậy, đối với phần lớn khách hàng của bạn, họ hoàn toàn có thể và đang thay thế CUDA. Vậy thì, CUDA vẫn đóng vai trò quan trọng như thế nào đối với trí tuệ nhân tạo tiên tiến cần dựa vào NVIDIA?
Jensen Huang:
Trước hết, CUDA là một hệ sinh thái rất phong phú. Nếu bạn đang phát triển phần mềm trên bất kỳ máy tính nào, bắt đầu với CUDA là một lựa chọn rất sáng suốt. Vì hệ sinh thái này rất phong phú, chúng tôi hỗ trợ tất cả các khuôn khổ chính thống.
Nếu bạn cần viết các nhân tùy chỉnh, chẳng hạn như Triton, chúng tôi đã đóng góp rất nhiều công nghệ của NVIDIA vào phần phụ trợ của Triton, và chúng tôi cũng rất sẵn lòng giúp các framework khác trở nên tốt hơn. Hiện nay có rất nhiều framework, chẳng hạn như Triton, vLLM, SG Lang, và nhiều framework khác nữa.
Với sự phát triển của học sau huấn luyện và học tăng cường, lĩnh vực này đang mở rộng nhanh chóng. Ví dụ, chúng ta có Vairal, NeMo RL và một loạt các framework mới. Nếu bạn muốn phát triển trên một kiến trúc cụ thể, bắt đầu với CUDA là lựa chọn hợp lý nhất vì bạn biết hệ sinh thái của nó đã trưởng thành. Khi sự cố xảy ra, nhiều khả năng đó là vấn đề do chính mã lập trình của bạn gây ra chứ không phải do toàn bộ mã nguồn bên dưới.
Đừng quên rằng, mã nguồn của các hệ thống này rất lớn. Khi hệ thống gặp sự cố, bạn muốn biết vấn đề nằm ở mã lập trình của bạn hay ở chính nền tảng điện toán.
Chắc chắn bạn hy vọng vấn đề nằm ở mã lập trình của mình chứ không phải ở nền tảng máy tính. Dĩ nhiên, bản thân chúng tôi cũng có nhiều lỗi, nhưng hệ thống của chúng tôi rất hoàn thiện, và ít nhất bạn có thể tiếp tục phát triển trên một nền tảng đáng tin cậy.
Điểm thứ hai là quy mô số lượng người dùng hiện có. Nếu bạn là một nhà phát triển phần mềm, bất kể bạn đang làm gì, điều quan trọng nhất vẫn là "số lượng người dùng hiện có". Bạn muốn phần mềm của mình chạy trên càng nhiều máy tính càng tốt. Bạn không viết phần mềm cho riêng mình; bạn đang viết phần mềm cho toàn bộ cụm máy chủ của mình, và thậm chí cho toàn bộ ngành công nghiệp vì bạn là nhà phát triển khung phần mềm.
Hệ sinh thái CUDA của NVIDIA về cơ bản là tài sản quan trọng nhất của chúng tôi. Hiện nay trên toàn thế giới có hàng trăm triệu GPU. Tất cả các nhà cung cấp dịch vụ đám mây đều có chúng, từ V100, A100, H100, H200, đến dòng L, dòng P, với nhiều thông số kỹ thuật khác nhau.
Và chúng tồn tại dưới nhiều hình thức khác nhau. Nếu bạn là một công ty sản xuất robot, bạn sẽ muốn CUDA chạy trực tiếp trên thân robot. Chúng tôi có mặt ở hầu hết mọi nơi.
Điều này có nghĩa là một khi bạn đã phát triển phần mềm hoặc mô hình, nó có thể được sử dụng ở bất cứ đâu. Vì vậy, giá trị của lượng người dùng hiện có này tự thân nó đã vô cùng quan trọng.
Điểm cuối cùng là tính linh hoạt trong việc lựa chọn địa điểm triển khai. Chúng tôi hiện diện trên tất cả các nền tảng điện toán đám mây, điều này mang lại cho chúng tôi sự độc đáo. Là một công ty hoặc nhà phát triển AI, bạn không chắc chắn mình sẽ hợp tác với nhà cung cấp dịch vụ đám mây nào, cũng như hệ thống của mình sẽ hoạt động ở đâu. Tuy nhiên, chúng tôi có thể vận hành ở mọi nơi, bao gồm cả triển khai tại chỗ.
Do đó, sự phong phú của hệ sinh thái, quy mô của cơ sở người dùng và tính linh hoạt trong việc lựa chọn địa điểm triển khai, khi kết hợp lại, tạo nên giá trị rất lớn.
Dwarkesh Patel:
Điều đó hợp lý. Nhưng điều tôi tò mò là liệu những lợi thế này có thực sự quan trọng đối với các khách hàng chủ chốt của bạn hay không. Nhiều người chắc chắn sẽ được hưởng lợi từ những ưu điểm này, nhưng những người có thể tự xây dựng hệ thống phần mềm của riêng mình—nhóm người đóng góp phần lớn doanh thu của bạn—đặc biệt trong một thế giới mà AI đang ngày càng mạnh mẽ hơn trong các nhiệm vụ "vòng lặp phản hồi có thể kiểm chứng", chẳng hạn như trong các kịch bản học tăng cường, nơi các tối ưu hóa nhân như cơ chế chú ý hoặc mạng nơ-ron đa lớp (MLP) thực sự là một vòng lặp phản hồi rất dễ kiểm chứng.
Vậy các nhà cung cấp dịch vụ điện toán đám mây quy mô lớn có thể tự viết các nhân hệ điều hành này được không? Tất nhiên, họ vẫn có thể chọn NVIDIA vì lý do tiết kiệm chi phí. Nhưng câu hỏi đặt ra là, cuối cùng điều này có trở thành một sự so sánh đơn giản: ai có thể cung cấp thông số kỹ thuật tốt hơn? Ví dụ, xét về chi phí đơn vị, ai có thể cung cấp sức mạnh tính toán cao hơn (FLOPs) và băng thông bộ nhớ cao hơn? Bởi vì trong quá khứ, NVIDIA đã có tỷ suất lợi nhuận rất cao (trên 70%) ở cả cấp độ phần cứng và phần mềm, chủ yếu là nhờ vào lợi thế cạnh tranh của công nghệ CUDA.
Vậy câu hỏi đặt ra là, nếu hầu hết khách hàng có thể tự xây dựng hệ thống phần mềm của riêng mình mà không cần dựa vào CUDA, thì liệu biên lợi nhuận này có thể được duy trì hay không?
Jensen Huang:
Số lượng kỹ sư mà chúng tôi đã bố trí vào các phòng thí nghiệm AI này thực sự rất ấn tượng, họ làm việc cùng chúng tôi và giúp chúng tối ưu hóa toàn bộ hệ thống công nghệ. Lý do là, không ai hiểu rõ kiến trúc của chúng ta hơn chính chúng ta. Và những kiến trúc này không đa năng như CPU.
CPU hơi giống một "xe gia đình", bạn có thể coi nó như một chiếc xe chạy đường trường, không cần chạy quá nhanh, nhưng ai cũng có thể lái tốt, với hệ thống điều khiển hành trình, mọi thứ đều dễ dàng. Nhưng bộ tăng tốc GPU của NVIDIA giống với một chiếc xe đua F1 hơn. Tôi nghĩ ai cũng có thể lái nó với tốc độ 100 dặm/giờ, nhưng để thực sự khai thác tối đa khả năng của nó thì cần có kỹ năng lái xe đáng kể.
Và chúng tôi sử dụng rất nhiều trí tuệ nhân tạo để tạo ra các nhân này. Tôi rất chắc chắn rằng, trong một thời gian dài nữa, chúng ta vẫn sẽ không thể thiếu được. Với chuyên môn của mình, chúng tôi có thể giúp các đối tác trong các phòng thí nghiệm AI này dễ dàng tăng gấp đôi hiệu suất hoạt động. Nhiều khi, sau khi chúng tôi tối ưu hóa ngăn xếp công nghệ hoặc một nhân hệ điều hành cụ thể, mô hình của họ có thể tăng tốc gấp 3 lần, gấp 2 lần, hoặc thậm chí 50%. Đây là một sự cải thiện đáng kể, đặc biệt khi xét đến việc họ sở hữu các cụm máy chủ Hopper và Blackwell lớn.
Nếu bạn tăng gấp đôi hiệu suất, điều đó có nghĩa là doanh thu của bạn cũng tăng gấp đôi. Điều này có liên quan trực tiếp đến doanh thu. Hệ thống điện toán của NVIDIA có hiệu suất Tổng chi phí sở hữu (TCO) toàn cầu tốt nhất, không đối thủ nào sánh kịp. Không công ty nào có thể chứng minh cho tôi thấy nền tảng nào có tỷ lệ hiệu suất/tổng chi phí sở hữu (TCO) tốt hơn nền tảng của chúng tôi. Không có một cái nào cả. Và các bài kiểm tra hiệu năng này đều được công khai.
Dylan nói đúng. Inference Max là một công cụ công khai, bất cứ ai cũng có thể sử dụng nó. Nhưng không có nhóm TPU nào sẵn lòng sử dụng điều đó để chứng minh lợi thế về chi phí suy luận của họ. Việc đó khó thực hiện, không ai sẵn lòng đứng ra chứng minh cả.
Điều tương tự cũng áp dụng cho MLPerf. Tôi hoan nghênh họ chứng minh lợi thế 40% mà họ vẫn luôn khẳng định. Tôi rất muốn thấy họ chứng minh được lợi thế về chi phí của TPU. Theo tôi, điều đó không hợp lý, hoàn toàn không ăn khớp. Không có gì.
Tôi tin rằng lý do cơ bản dẫn đến thành công của chúng tôi là tổng chi phí sở hữu (TCO) rất tốt.
Một điểm nữa, bạn có đề cập rằng 60% khách hàng của chúng ta đến từ năm nhà sản xuất hàng đầu, nhưng phần lớn hoạt động kinh doanh đó thực chất hướng đến khách hàng bên ngoài. Ví dụ, trên AWS, sức mạnh tính toán của NVIDIA chủ yếu được cung cấp cho khách hàng bên ngoài, chứ không được chính AWS sử dụng. Trên Azure, khách hàng của chúng tôi phần lớn cũng là khách hàng bên ngoài; điều tương tự cũng đúng với OCI. Họ chọn chúng tôi vì phạm vi hoạt động của chúng tôi rất rộng.
Chúng tôi có thể mang đến cho họ những khách hàng tốt nhất thế giới, và chính những khách hàng này được xây dựng trên nền tảng NVIDIA. Và những công ty này được xây dựng dựa trên nền tảng NVIDIA vì phạm vi phủ sóng và tính linh hoạt của chúng tôi rất mạnh.
Vì vậy, tôi nghĩ rằng guồng máy này đang hoạt động tốt: cơ sở người dùng hiện có, khả năng lập trình của kiến trúc và sự tích lũy liên tục của hệ sinh thái. Thêm vào đó, hiện nay có hàng nghìn công ty trí tuệ nhân tạo trên toàn thế giới. Nếu bạn là một trong những công ty khởi nghiệp về trí tuệ nhân tạo, bạn sẽ chọn kiến trúc nào? Bạn sẽ chọn cái phổ biến nhất, cái có số lượng người dùng lớn nhất và hệ sinh thái phong phú nhất. Đó chính là nguyên lý hoạt động của bánh đà này.
Vậy lý do là:
• Thứ nhất, hiệu suất trên mỗi đô la của chúng tôi rất cao, do đó chi phí token thấp nhất;
Thứ hai, hiệu suất trên mỗi watt của chúng tôi là cao nhất thế giới; nếu một đối tác xây dựng trung tâm dữ liệu 1GW, họ phải tạo ra nhiều token nhất, nói cách khác, nhiều doanh thu nhất. Và kiến trúc của chúng tôi có thể tạo ra nhiều token nhất trên mỗi đơn vị điện năng tiêu thụ.
Thứ ba, nếu mục tiêu của bạn là thuê sức mạnh tính toán, chúng tôi có số lượng khách hàng lớn nhất trên toàn cầu.
Đó là lý do tại sao bánh đà này được tạo ra.
Dwarkesh Patel:
Rất thú vị. Tôi nghĩ mấu chốt của vấn đề nằm ở cấu trúc thị trường thực sự trông như thế nào. Ngay cả với nhiều công ty, một kịch bản có thể xảy ra: có hàng ngàn công ty AI, tất cả đều chia sẻ sức mạnh tính toán.
Nhưng nếu thực tế là thông qua các nhà cung cấp dịch vụ điện toán đám mây siêu quy mô này, những đơn vị thực sự sử dụng sức mạnh tính toán lại là các công ty tiên phong như Anthropic và OpenAI, và họ có khả năng vận hành các công nghệ tăng tốc khác nhau.
Jensen Huang:
Tôi nghĩ luận điểm của bạn sai rồi.
Dwarkesh Patel:
Có lẽ. Để tôi diễn đạt lại. Nếu những tuyên bố về hiệu năng và chi phí này là đúng, tại sao các công ty như Anthropic, vừa mới công bố hợp tác với Broadcom và Google về TPU đa exajoule vài ngày trước, lại làm như vậy? Và phần lớn sức mạnh tính toán của họ đến từ các hệ thống này. Đối với Google, TPU là nguồn sức mạnh tính toán chính. Vì vậy, nhìn vào các công ty AI lớn này, trước đây hầu hết đều là NVIDIA, nhưng hiện nay thì không còn như vậy nữa.
Nếu những lợi thế này về mặt lý thuyết là đúng, tại sao họ vẫn chọn các chương trình tăng tốc khác?
Jensen Huang:
Nhân sinh học là một trường hợp khá đặc biệt. Nếu không có Anthropic, sự phát triển của TPU hầu như sẽ không tồn tại. Sự tăng trưởng của TPU gần như hoàn toàn đến từ Anthropic. Tương tự, nếu không có Anthropic, nhu cầu đào tạo sẽ hầu như không tăng lên.
Đó là một sự thật rất rõ ràng. Không có nhiều cơ hội tương tự; trên thực tế, chỉ có một Anthropic duy nhất.
Dwarkesh Patel:
Nhưng OpenAI cũng hợp tác với AMD, và họ đang phát triển bộ tăng tốc Titan của riêng mình.
Ghi chú: AMD (Advanced Micro Devices) là một công ty bán dẫn của Mỹ, chủ yếu thiết kế chip máy tính và là đối thủ cạnh tranh chính của NVIDIA và Intel.
Jensen Huang:
Nhưng phần lớn trong số họ vẫn sử dụng NVIDIA. Chúng tôi sẽ tiếp tục hợp tác rộng rãi. Tôi không khó chịu khi người khác thử các giải pháp khác. Nếu họ không thử các giải pháp khác, làm sao họ biết giải pháp của chúng ta tốt đến mức nào?
Đôi khi cần phải khẳng định lại điều này thông qua sự so sánh. Và chúng ta cũng phải liên tục chứng minh rằng mình xứng đáng với vị trí hiện tại.
Từ trước đến nay, trên thị trường luôn có nhiều lời khẳng định khác nhau. Bạn có thể xem có bao nhiêu dự án ASIC đã bị hủy bỏ. Việc bạn bắt đầu làm ASIC không có nghĩa là bạn có thể tạo ra sản phẩm tốt hơn NVIDIA.
Thực tế, điều đó không dễ dàng. Thậm chí có thể nói rằng, xét về mặt lý trí, lập luận đó không mấy thuyết phục. Trừ khi NVIDIA thực sự đã mắc phải một sai lầm nghiêm trọng nào đó. Nhưng xét về quy mô và tốc độ phát triển của chúng tôi, chúng tôi là công ty duy nhất trên toàn cầu đạt được những bước tiến vượt bậc mỗi năm.
Dwarkesh Patel:
Lý luận của họ là: Bạn không cần phải giỏi hơn NVIDIA, chỉ cần đừng kém NVIDIA đến 70%, vì họ cho rằng biên lợi nhuận của bạn là 70%.
Jensen Huang:
Nhưng đừng quên, ngay cả với ASIC, biên lợi nhuận thực tế vẫn rất cao. Tỷ suất lợi nhuận của NVIDIA vào khoảng 60%–70%, và tỷ suất lợi nhuận của ASIC cũng có thể vào khoảng 65%. Vậy bạn thực sự đã tiết kiệm được bao nhiêu?
Bạn luôn phải trả tiền cho ai đó. Theo những gì tôi thấy, tỷ suất lợi nhuận của các doanh nghiệp nền tảng (ASIC) này thực sự rất cao, và chính họ cũng tin như vậy và khá tự hào về điều đó.
Trước đây, chúng tôi thực sự không có khả năng làm được điều này. Và thành thật mà nói, vào thời điểm đó tôi thực sự không hiểu sâu sắc mức độ khó khăn khi xây dựng một phòng thí nghiệm mô hình nền tảng như OpenAI hay Anthropic. Tôi cũng không hoàn toàn nhận ra rằng họ thực sự cần sự hỗ trợ đầu tư lớn từ phía cung ứng.
Vào thời điểm đó, chúng tôi không có khả năng thực hiện các khoản đầu tư trị giá hàng tỷ đô la, chẳng hạn như đầu tư vào Anthropic để họ sử dụng sức mạnh tính toán của chúng tôi. Nhưng Google và AWS hoàn toàn có thể làm được điều đó, họ đã đầu tư những khoản tiền khổng lồ ngay từ đầu, và đổi lại, Anthropic sử dụng sức mạnh tính toán của họ.
Chúng tôi không có khả năng làm điều đó vào thời điểm đó, và tôi phải nói rằng, đó là lỗi của tôi: Tôi không hoàn toàn nhận ra rằng họ thực sự không còn lựa chọn nào khác. Các công ty đầu tư mạo hiểm không thể đầu tư 5 tỷ đô la hoặc 10 tỷ đô la để hỗ trợ một phòng thí nghiệm AI và kỳ vọng nó sẽ phát triển thành Anthropic.
Đó là sự phán đoán sai lầm của tôi. Nhưng ngay cả khi tôi nhận ra điều đó vào thời điểm đó, tôi không nghĩ chúng ta có khả năng làm được điều đó.
Tuy nhiên, tôi sẽ không mắc lại sai lầm đó nữa. Tôi rất vui khi đầu tư vào OpenAI, và tôi cũng rất vui khi giúp họ mở rộng, tôi nghĩ điều đó là cần thiết. Khi Anthropic liên hệ với chúng tôi sau đó, tôi cũng rất vui mừng trở thành nhà đầu tư và giúp họ phát triển.
Chính vào thời điểm đó, chúng tôi thực sự không thể làm được. Nếu có thể bắt đầu lại, nếu Nvidia đã mạnh mẽ như bây giờ vào thời điểm đó, tôi sẽ rất sẵn lòng làm những điều đó.
Tại sao Nvidia không cung cấp dịch vụ "điện toán đám mây"?
Dwarkesh Patel:
Điều này rất thú vị. Trong nhiều năm qua, Nvidia luôn là một công ty "bán công cụ để kiếm tiền" trong lĩnh vực trí tuệ nhân tạo, và họ đã kiếm được rất nhiều tiền. Và bây giờ bạn bắt đầu đầu tư số tiền này. Có thông tin cho rằng ông đã đầu tư 30 tỷ đô la vào OpenAI và 10 tỷ đô la vào Anthropic. Và giá trị của các công ty này tiếp tục tăng lên.
Vì vậy, nhìn lại vài năm qua, bạn đã cung cấp cho họ sức mạnh tính toán, nhìn thấy các xu hướng, và vào thời điểm đó, giá trị của họ chỉ bằng một phần mười so với hiện tại, hoặc thậm chí còn thấp hơn nhiều so với cách đây một năm. Và lúc đó bạn có rất nhiều tiền mặt.
Thực tế là điều đó hoàn toàn có thể xảy ra: Nvidia lẽ ra có thể trở thành một công ty kiểu mẫu cơ bản, hoặc đầu tư quy mô lớn sớm hơn với mức định giá thấp hơn, tương tự như những gì bạn đang làm hiện nay.
Tôi thực sự tò mò, tại sao bạn không làm điều này sớm hơn?
Jensen Huang:
Chúng tôi đã làm điều đó ngay khi "có thể". Nếu có thể làm được điều đó hồi đó, tôi đã làm sớm hơn rồi. Khi Anthropic cần sự hỗ trợ của chúng ta vào giai đoạn đầu, tôi đã sẵn lòng giúp đỡ. Nhưng vào thời điểm đó, chúng tôi thực sự không có khả năng.
Việc đó vượt quá khả năng và thói quen ra quyết định của chúng tôi.
Dwarkesh Patel:
Có phải là vấn đề về kinh phí không?
Jensen Huang:
Đúng vậy, đó là vấn đề về quy mô đầu tư. Vào thời điểm đó, chúng tôi hầu như không có truyền thống đầu tư nước ngoài, chứ đừng nói đến đầu tư quy mô lớn như vậy. Và chúng ta đã không nhận ra điều đó là cần thiết.
Lúc đó tôi nghĩ rằng, họ có thể đi tìm vốn đầu tư mạo hiểm, giống như bất kỳ công ty nào khác. Nhưng những gì họ muốn làm thực ra vượt quá khả năng hỗ trợ của các quỹ đầu tư mạo hiểm. Những gì OpenAI muốn làm cũng là điều mà các quỹ đầu tư mạo hiểm không thể hỗ trợ.
Đó là điều mà sau này tôi mới nhận ra. Nhưng đó chính là điểm thông minh của họ. Họ nhận ra vào thời điểm đó rằng họ phải đi theo con đường đó. Tôi rất vui vì họ đã làm vậy. Mặc dù lúc đó chúng tôi không thể tham gia, dẫn đến việc Anthropic phải tìm kiếm các đối tác khác, tôi vẫn nghĩ đó là một điều tốt. Sự tồn tại của Anthropic là một điều tốt cho toàn thế giới, và tôi rất vui mừng về điều đó. Một vài điều hối tiếc là có thể chấp nhận được.
Dwarkesh Patel:
Vì vậy, câu hỏi vẫn sẽ quay trở lại một điểm: Giờ đây, khi bạn đang có một lượng tiền mặt dồi dào và con số này vẫn tiếp tục tăng lên, NVIDIA nên sử dụng nguồn vốn này như thế nào?
Một ý tưởng là hiện nay đã có một hệ sinh thái trung gian giúp các phòng thí nghiệm AI chuyển đổi chi phí đầu tư (capex) thành chi phí vận hành (opex) để họ có thể thuê sức mạnh tính toán.
Vì GPU rất đắt tiền, nhưng khi các thế hệ máy móc được cải tiến, chúng có thể liên tục tạo ra các token có giá trị cao hơn trong suốt vòng đời của mình. Và bản thân NVIDIA có khả năng gánh chịu những chi phí đầu tư ban đầu này. Ví dụ, có những báo cáo cho rằng bạn đã hỗ trợ CoreWeave tới 6,3 tỷ đô la và đầu tư 2 tỷ đô la.
Vậy tại sao NVIDIA không tự mình trở thành nhà cung cấp dịch vụ đám mây? Tại sao không trở thành một nhà cung cấp dịch vụ điện toán đám mây quy mô lớn, xây dựng hệ thống đám mây riêng và cho thuê sức mạnh tính toán? Xét cho cùng, bạn có đủ khả năng tài chính.
Jensen Huang:
Đây là một vấn đề triết lý đối với công ty, và tôi nghĩ đó là một triết lý khôn ngoan: chúng ta nên làm "nhiều nhất có thể và ít nhất là đủ".
Điều này có nghĩa là, nếu chúng ta không tự mình xây dựng một nền tảng điện toán, tôi thực sự tin rằng việc đó sẽ không bao giờ được hoàn thành.
Nếu chúng ta không chấp nhận những rủi ro này, không xây dựng NVLink, không xây dựng toàn bộ hệ sinh thái phần mềm, không tạo ra hệ sinh thái này, không đầu tư 20 năm vào CUDA (phần lớn thời gian thậm chí còn thua lỗ), nếu chúng ta không làm những điều này, sẽ không ai khác làm cả. Nếu chúng ta không xây dựng các thư viện chuyên dụng cho CUDA-X—cho dù đó là dò tia, tạo ảnh, hay các mô hình AI ban đầu, xử lý dữ liệu, dữ liệu có cấu trúc, xử lý dữ liệu vector—nếu chúng ta không làm điều đó, những thứ này sẽ không tồn tại.
Tôi hoàn toàn tin chắc điều này. Chúng tôi thậm chí còn phát triển một thư viện dành cho kỹ thuật in thạch bản điện toán có tên là cuLitho, nếu chúng tôi không làm thì sẽ không ai khác làm cả.
Vì vậy, lý do mà điện toán tăng tốc phát triển đến mức như ngày nay là vì chúng ta đã làm những điều này. Đó là phần mà chúng ta cần toàn tâm toàn ý thực hiện.
Nhưng đồng thời, trên thế giới hiện đã có rất nhiều nhà cung cấp dịch vụ điện toán đám mây. Dù chúng ta không làm thì người khác cũng sẽ làm. Vì vậy, dựa trên nguyên tắc làm càng nhiều việc cần thiết càng tốt, nhưng làm càng ít việc khác càng tốt, khái niệm này luôn hiện diện trong công ty. Mọi quyết định tôi đưa ra đều được xem xét từ góc độ này.
Trong lĩnh vực điện toán đám mây, nếu chúng ta không hỗ trợ CoreWeave ngay từ đầu, thì những nền tảng điện toán đám mây AI mới (neocloud) này có thể sẽ không tồn tại. Nếu chúng ta không hỗ trợ họ, họ sẽ không thể phát triển đến quy mô như ngày nay. Điều tương tự cũng đúng với Nscale và Nebius, nếu không có sự hỗ trợ của chúng ta, họ đã không thể tiến xa đến vậy. Và giờ đây, tất cả bọn họ đều đã phát triển khá tốt.
Nhưng liệu đây có phải là một vấn đề mà chúng ta nên can thiệp trực tiếp vào? Không. Chúng tôi vẫn tuân thủ nguyên tắc đó: làm những gì cần thiết và làm càng ít càng tốt những việc vượt quá giới hạn đó. Vì vậy, chúng ta sẽ đầu tư vào hệ sinh thái vì tôi muốn toàn bộ hệ sinh thái phát triển mạnh mẽ. Tôi muốn kiến trúc của chúng ta kết nối càng nhiều ngành công nghiệp và càng nhiều quốc gia càng tốt, cho phép phát triển trí tuệ nhân tạo trên toàn cầu và xây dựng trên nền tảng công nghệ đặt tại Hoa Kỳ.
Đây là tầm nhìn mà chúng tôi đang hướng tới.
Đồng thời, như bạn đã đề cập, hiện nay có rất nhiều công ty mô hình nền tảng xuất sắc, và chúng tôi sẽ cố gắng đầu tư vào những công ty đó nhiều nhất có thể.
Một điểm nữa là chúng ta sẽ không "chọn người thắng cuộc". Chúng tôi muốn hỗ trợ tất cả mọi người. Đây vừa là một nhu cầu kinh doanh thiết yếu, vừa là điều chúng tôi sẵn sàng thực hiện. Vì vậy, khi tôi đầu tư vào một công ty, tôi cũng sẽ đầu tư vào những công ty khác.
Dwarkesh Patel:
Vậy tại sao bạn lại cố tình tránh chọn ra người chiến thắng?
Jensen Huang:
Vì đó không phải là trách nhiệm của chúng tôi. Đó là điểm đầu tiên.
Thứ hai, khi NVIDIA mới được thành lập, có khoảng 60 công ty đồ họa, 60 công ty chuyên về đồ họa 3D. Cuối cùng, chỉ có chúng tôi sống sót. Nếu phải chọn một trong 60 công ty đó để thành công vào thời điểm đó, thì NVIDIA có lẽ là công ty ít có khả năng thành công nhất.
Chuyện đó xảy ra trước thời của bạn, nhưng vào thời điểm đó, kiến trúc đồ họa của NVIDIA hoàn toàn sai lầm. Không chỉ sai một chút, mà là sai hoàn toàn. Chúng tôi đã thiết kế một kiến trúc mà các nhà phát triển khó có thể hỗ trợ, và chắc chắn sẽ thất bại. Chúng tôi đã suy luận dựa trên những nguyên tắc cơ bản rất hợp lý, nhưng cuối cùng lại đưa ra lời giải sai.
Ai cũng nghĩ chúng tôi không thể thành công, nhưng cuối cùng chúng tôi vẫn vượt qua được. Vì vậy, tôi đủ khiêm nhường để thừa nhận điều này và không chọn ra người thắng cuộc. Hoặc là để họ tự phát triển, hoặc là hỗ trợ tất cả mọi người.
Dwarkesh Patel:
Có một điểm mà tôi chưa hiểu rõ lắm. Bạn nói rằng bạn không cố tình ưu tiên hỗ trợ cho các nhà cung cấp dịch vụ đám mây mới này, nhưng bạn cũng vừa đề cập rằng nếu không có NVIDIA, họ có thể sẽ không tồn tại. Hai quan điểm này cùng tồn tại như thế nào?
Jensen Huang:
Trước hết, họ phải muốn tự lập và chủ động tìm kiếm sự giúp đỡ của chúng ta. Khi họ có ý định rõ ràng, kế hoạch kinh doanh, năng lực và đam mê—tất nhiên, họ cũng phải có một trình độ nhất định—nếu họ cần hỗ trợ đầu tư trong giai đoạn đầu, chúng tôi sẽ có mặt.
Nhưng điều quan trọng là họ phải nhanh chóng thiết lập được động lực riêng của mình. Câu hỏi của bạn vừa nãy là, chúng ta có muốn tham gia vào lĩnh vực tài chính không? Câu trả lời là không. Chúng tôi không muốn trở thành một tổ chức tài chính. Hiện đã có rất nhiều đơn vị cung cấp dịch vụ tài chính trên thị trường, và chúng tôi ưu tiên hợp tác với các tổ chức tài chính này hơn là tự mình huy động vốn.
Vì vậy, mục tiêu của chúng tôi là tập trung vào hoạt động kinh doanh của chính mình, giữ mô hình kinh doanh càng đơn giản càng tốt, đồng thời hỗ trợ toàn bộ hệ sinh thái.
Jensen Huang:
Khi một công ty như OpenAI cần khoản đầu tư 30 tỷ đô la trước khi IPO, và chúng tôi rất tin tưởng vào họ—cá nhân tôi tin rằng họ đã là một công ty phi thường và sẽ trở thành một công ty thậm chí còn xuất sắc hơn nữa. Thế giới cần sự tồn tại của chúng, mọi người đều hy vọng chúng tồn tại, và tôi cũng hy vọng chúng tồn tại. Họ có đầy đủ các yếu tố để thành công, vì vậy chúng tôi ủng hộ và giúp họ mở rộng.
Do đó, chúng ta sẽ thực hiện loại đầu tư này vì họ thực sự cần chúng ta làm vậy. Nhưng nguyên tắc của chúng tôi không phải là "làm càng nhiều càng tốt", mà là "làm càng ít càng tốt".
Dwarkesh Patel:
Câu hỏi này có vẻ hơi hiển nhiên, nhưng trong nhiều năm qua, chúng ta đã phải đối mặt với tình trạng thiếu hụt GPU, và khi các mô hình trở nên mạnh mẽ hơn, tình trạng này càng trở nên trầm trọng hơn.
Jensen Huang:
Đúng vậy, chúng ta đang thiếu GPU.
Dwarkesh Patel:
Và NVIDIA được cho là không chỉ phân phối những nguồn lực khan hiếm này dựa trên giá thầu cao nhất, mà còn cân nhắc đến những yếu tố như đảm bảo sự tồn tại của các nhà cung cấp dịch vụ đám mây mới này—phân bổ một phần cho CoreWeave, một phần cho Crusoe, một phần cho Lambda.
Trước tiên, bạn có đồng ý với quan điểm này không? Thứ hai, điều này mang lại lợi ích gì cho NVIDIA?
Jensen Huang:
Tôi nghĩ luận điểm của bạn sai rồi. Dĩ nhiên, chúng tôi sẽ xem xét rất kỹ lưỡng những vấn đề này.
Thứ nhất, nếu bạn không có Đơn đặt hàng (PO), thì dù có liên lạc bao nhiêu lần cũng vô ích. Vì vậy, điều quan trọng nhất là chúng tôi sẽ nỗ lực hết sức cùng với tất cả khách hàng để dự báo nhu cầu vì chu kỳ sản xuất của các sản phẩm này rất dài, và thời gian xây dựng trung tâm dữ liệu cũng rất dài. Chúng ta cân bằng cung và cầu thông qua dự báo, đó là điều đầu tiên cần làm.
Thứ hai, chúng tôi sẽ dự báo với càng nhiều khách hàng càng tốt. Nhưng cuối cùng, bạn vẫn phải đặt hàng. Nếu bạn không đặt hàng, tôi không thể làm gì được. Vì vậy, đến một lúc nào đó, sẽ là "ai đến trước được phục vụ trước".
Tuy nhiên, ngoài những trường hợp đó, nếu trung tâm dữ liệu của bạn chưa sẵn sàng, hoặc nếu một số thành phần quan trọng chưa sẵn sàng, khiến bạn tạm thời không thể triển khai hệ thống, chúng tôi có thể ưu tiên phục vụ các khách hàng khác. Mục đích của việc này là tối đa hóa hiệu quả sản xuất tổng thể của các nhà máy chúng tôi.
Ngoài trường hợp này, quy tắc ưu tiên là "ai đến trước được phục vụ trước". Bạn phải đặt hàng. Nếu bạn không đặt hàng, thì đơn giản là không có cách nào khác.
Dĩ nhiên, có rất nhiều câu chuyện ngoài kia. Ví dụ, có người nói rằng trong bữa tối với Larry, Elon và tôi, họ đã yêu cầu một GPU — quả thực chúng tôi đã ăn tối cùng nhau, đó là một buổi tối rất thú vị, nhưng họ chưa bao giờ "yêu cầu" một GPU cả. Họ chỉ cần đặt hàng thôi. Ngay sau khi nhận được đơn đặt hàng, chúng tôi sẽ cố gắng hết sức để đáp ứng đủ khả năng cung cấp. Nó không phức tạp như một số người vẫn nghĩ.
Dwarkesh Patel:
Như vậy, có vẻ như đó là một cơ chế xếp hàng, tùy thuộc vào thời điểm bạn đặt hàng và liệu trung tâm dữ liệu đã sẵn sàng hay chưa. Nhưng đây vẫn không đơn thuần là "người trả giá cao nhất thắng", phải không?
Jensen Huang:
Chúng tôi không bao giờ làm thế.
Dwarkesh Patel:
Không bao giờ phân bổ dựa trên giá thầu cao nhất?
Jensen Huang:
Không bao giờ. Vì đó là một cách làm ăn tồi tệ.
Bạn đặt giá, và khách hàng quyết định có mua hay không. Tôi biết một số công ty trong ngành tăng giá khi nhu cầu tăng đột biến, nhưng chúng tôi thì không. Đó chưa bao giờ là thông lệ của chúng tôi. Khách hàng có thể tin tưởng vào chúng tôi. Tôi muốn trở thành một nhân tố đáng tin cậy, một trụ cột của ngành. Bạn không cần phải lo lắng về việc thay đổi giá cả.
Nếu tôi báo giá cho bạn, đó là giá cuối cùng. Dù nhu cầu có tăng vọt, tình hình cũng sẽ không thay đổi.
Dwarkesh Patel:
Vậy, đây cũng là một trong những lý do cho mối quan hệ ổn định của bạn với TSMC, phải không?
Jensen Huang:
NVIDIA và TSMC đã hợp tác với nhau trong gần 30 năm. Thậm chí giữa NVIDIA và TSMC còn không có hợp đồng pháp lý chính thức; đó chỉ là một thỏa thuận sơ bộ. Đôi khi tôi đúng, đôi khi tôi sai; đôi khi tôi đạt được điều kiện tốt hơn, đôi khi thì không được tốt lắm. Nhưng nhìn chung, mối quan hệ này rất đáng chú ý. Tôi hoàn toàn tin tưởng và dựa vào họ.
Hơn nữa, đối với NVIDIA, có một điều bạn có thể chắc chắn: năm nay, Rubin sẽ rất xuất sắc, năm sau, Vera Rubin Ultra sẽ được ra mắt, năm tiếp theo là Feynman, rồi năm sau nữa — tên của nó tôi vẫn chưa tiết lộ. Nói cách khác, mỗi năm, bạn đều có thể tin tưởng chúng tôi. Bạn phải tìm một nhóm phát triển ASIC khác trên toàn thế giới và xem liệu có nhóm nào có thể khiến bạn nói rằng, "Tôi có thể đặt cược toàn bộ công ty vào các bạn, tin tưởng rằng các bạn sẽ hỗ trợ tôi mỗi năm."
Chi phí token của tôi sẽ giảm đi một bậc mỗi năm, và tôi có thể tin tưởng điều này như tin tưởng vào một chiếc đồng hồ. Tôi vừa nói điều tương tự về TSMC. Chưa từng có nhà máy sản xuất tấm bán dẫn nào trong lịch sử cho phép bạn nói điều này.
Nhưng ngày nay, bạn có thể nói điều này về NVIDIA. Bạn có thể tin tưởng chúng tôi năm này qua năm khác.
Nếu bạn muốn mua 1 tỷ đô la tiền điện toán cho nhà máy AI, không vấn đề gì; nếu bạn muốn mua 100 triệu đô la, cũng không vấn đề gì; nếu bạn muốn mua 10 triệu đô la, hoặc thậm chí chỉ một giá đỡ, cũng không vấn đề gì; ngay cả khi bạn chỉ muốn mua một GPU, cũng không vấn đề gì. Nếu bạn muốn đặt mua một nhà máy sản xuất trí tuệ nhân tạo trị giá 1 nghìn tỷ đô la, cũng không vấn đề gì.
Hiện nay, chúng tôi là công ty duy nhất trên thế giới có thể khẳng định điều này. Và tôi cũng có thể nói điều này với TSMC: Tôi muốn mua 1 tỷ đô la, không vấn đề gì. Chúng ta chỉ cần cùng nhau lên kế hoạch, trải qua quy trình, và làm những việc mà một công ty trưởng thành nên làm.
Vì vậy, tôi tin rằng NVIDIA có thể trở thành nền tảng của ngành công nghiệp trí tuệ nhân tạo toàn cầu, một vị trí mà chúng tôi đã mất hàng thập kỷ để đạt được. Đây là một khoản đầu tư và sự tập trung rất lớn, và sự ổn định cũng như tính nhất quán của công ty là vô cùng quan trọng.
Vì sao NVIDIA từ chối "chiến lược đặt cược vào nhiều lộ trình"?
Dwarkesh Patel:
Điều này thực sự dẫn đến một câu hỏi rất thú vị. Trước đây chúng ta đã thảo luận về TSMC, các vấn đề về tắc nghẽn bộ nhớ, v.v. Giờ, nếu chúng ta bước vào một thế giới như thế này: bạn đã sử dụng hầu hết công suất N3, và trong tương lai, bạn cũng có thể sử dụng hầu hết công suất N2. Bạn có cân nhắc việc quay lại sử dụng công suất nhàn rỗi của các công nghệ sản xuất cũ hơn như 7nm không?
Ví dụ, nếu nhu cầu về AI quá cao và việc phát triển công nghệ sản xuất tiên tiến nhất không thể đáp ứng kịp, thì bạn có thể tận dụng tất cả kinh nghiệm hiện có về tối ưu hóa số học và thiết kế hệ thống để tạo ra phiên bản mới của Hopper hoặc Ampere. Bạn có nghĩ tình huống này sẽ xảy ra trước năm 2030 không?
Jensen Huang:
Không cần thiết phải làm vậy. Lý do là sự tiến bộ của mỗi thế hệ kiến trúc không chỉ đơn thuần là sự thay đổi về kích thước bóng bán dẫn. Bạn cũng đã thực hiện rất nhiều công việc kỹ thuật liên quan đến đóng gói, xếp chồng, hệ thống số và kiến trúc hệ thống. Đến lúc này, việc quay lại sử dụng phiên bản node cũ hơn sẽ đòi hỏi một khoản đầu tư nghiên cứu và phát triển mà không ai có đủ khả năng chi trả. Chúng ta hoàn toàn có thể tiếp tục tiến về phía trước, nhưng tôi không nghĩ chúng ta có thể quay trở lại.
Tất nhiên, nếu ta thử tưởng tượng thế này: giả sử một ngày nào đó mọi người đều nói rằng năng lực tiên tiến không bao giờ có thể tăng lên nữa. Liệu tôi có nên quay lại sử dụng công nghệ 7nm ngay lập tức không? Dĩ nhiên, không còn nghi ngờ gì nữa.
Dwarkesh Patel:
Trước đây tôi đã thảo luận với một người về câu hỏi: tại sao NVIDIA không đồng thời phát triển nhiều dự án chip hoàn toàn khác nhau? Ví dụ, bạn có thể tạo ra một kiến trúc dạng wafer như của Cerebras, một kiến trúc dạng đóng gói lớn như của Dojo, và một kiến trúc không dựa vào CUDA.
Bạn có đủ nguồn lực và năng lực kỹ thuật để thực hiện những việc này song song. Vì không ai biết chắc chắn trí tuệ nhân tạo hay kiến trúc sẽ đi về đâu trong tương lai, tại sao lại đặt tất cả trứng vào một giỏ?
Jensen Huang:
Chúng ta hoàn toàn có thể làm được điều đó. Chỉ là chúng ta chưa tìm ra giải pháp nào tốt hơn. Chúng tôi đã mô phỏng tất cả những điều này, và kết quả có thể cho thấy chúng hoạt động kém hiệu quả hơn trong trình giả lập của chúng tôi. Vì vậy chúng tôi sẽ không làm điều đó. Những gì chúng ta đang làm bây giờ chính là điều chúng ta thực sự muốn làm và tin rằng đó là điều đúng đắn nhất.
Dĩ nhiên, nếu khối lượng công việc trong tương lai có sự thay đổi đáng kể—tôi không nói đến những thay đổi về thuật toán, mà là nếu khối lượng công việc thực sự thay đổi—thì chúng ta có thể bổ sung thêm các loại bộ tăng tốc khác.
Ví dụ, gần đây chúng tôi đã thêm Grok, và chúng tôi sẽ tích hợp Grok vào hệ sinh thái CUDA. Chúng tôi đang làm điều này ngay bây giờ. Điều này là do giá trị của token đã trở nên rất cao, vì vậy cùng một mô hình, dựa trên tốc độ phản hồi khác nhau, có thể tương ứng với các mức giá khác nhau.
Vài năm trước, các loại thẻ này gần như miễn phí, hoặc rẻ đến mức gần như miễn phí. Nhưng hiện nay, mỗi khách hàng lại có những yêu cầu khác nhau đối với token. Và chính những khách hàng này có thể kiếm được rất nhiều tiền từ đó. Ví dụ, đối với các kỹ sư phần mềm, nếu tôi có thể cung cấp cho họ một công cụ giúp phản hồi nhanh hơn để họ làm việc hiệu quả hơn hiện tại, thì tôi sẵn sàng trả tiền cho điều đó.
Nhưng loại thị trường này chỉ mới xuất hiện gần đây. Vì vậy, tôi tin rằng giờ đây, lần đầu tiên, chúng ta thực sự có khả năng áp dụng cùng một mô hình cho các phân khúc thị trường khác nhau dựa trên thời gian phản hồi.
Đó cũng là lý do tại sao chúng tôi quyết định mở rộng đường biên Pareto này để tạo ra một nhánh suy luận "phản hồi nhanh hơn, nhưng thông lượng thấp hơn". Vì trước đây, năng suất cao luôn là yếu tố quan trọng nhất. Nhưng hiện tại chúng tôi tin rằng trong tương lai, có thể sẽ xuất hiện một loại token có ASP cao (giá đơn vị cao). Ngay cả khi sản lượng tại nhà máy thấp hơn, giá thành sản phẩm vẫn đủ để bù đắp cho điều đó.
Đây là lý do chúng tôi làm điều này. Nhưng nếu chỉ nói về kiến trúc thôi, tôi nghĩ nếu có nhiều tiền hơn, tôi sẽ đầu tư nhiều hơn vào kiến trúc hiện có.
Dwarkesh Patel:
Tôi thấy ý tưởng về "token siêu cao cấp" này và sự phân tầng của thị trường suy luận rất thú vị.
Câu hỏi cuối cùng. Giả sử cuộc cách mạng học sâu chưa từng xảy ra, thì NVIDIA sẽ làm gì ngày nay?
Jensen Huang:
Tất nhiên, game vẫn sẽ là trọng tâm, nhưng ngoài ra, chúng tôi cũng sẽ tiếp tục phát triển điện toán tăng tốc. Đây luôn là con đường chúng ta lựa chọn.
Nguyên tắc cơ bản của công ty chúng tôi là định luật Moore sẽ chậm lại. Máy tính đa năng rất tuyệt vời cho nhiều việc, nhưng không lý tưởng cho nhiều tác vụ tính toán. Vì vậy, chúng tôi kết hợp kiến trúc GPU với CPU để tăng tốc các tác vụ của CPU. Các nhân mã khác nhau, các thuật toán khác nhau có thể được chuyển sang chạy trên GPU. Bằng cách này, ứng dụng có thể được tăng tốc lên 100 hoặc 200 lần.
Nó sẽ được sử dụng ở đâu? Vâng, trong các lĩnh vực kỹ thuật, khoa học, vật lý, xử lý dữ liệu, đồ họa máy tính, tạo ảnh và nhiều lĩnh vực khác.
Vì vậy, ngay cả khi trí tuệ nhân tạo không tồn tại ngày nay, NVIDIA vẫn sẽ là một công ty rất lớn. Lý do khá cơ bản: khả năng tiếp tục mở rộng điện toán đa năng về cơ bản đã đạt đến giới hạn của nó. Và một trong những cách để cải thiện hiệu năng—một cách quan trọng, chứ không phải là cách duy nhất—là thực hiện tăng tốc theo từng lĩnh vực cụ thể.
Ban đầu chúng tôi tập trung vào đồ họa máy tính, nhưng còn nhiều lĩnh vực khác nữa. Chẳng hạn như các phép tính khoa học khác nhau, vật lý hạt, mô phỏng chất lỏng, xử lý dữ liệu có cấu trúc, v.v. — nhiều loại thuật toán có thể được hưởng lợi từ CUDA.
Vì vậy, sứ mệnh của chúng tôi luôn là mang điện toán tăng tốc đến với thế giới, thúc đẩy các ứng dụng mà điện toán đa năng không thể đạt được, hoặc không thể mở rộng đến mức hiệu năng cần thiết, nhằm giúp tạo ra những đột phá trong lĩnh vực khoa học. Một số ứng dụng ban đầu của chúng tôi là trong lĩnh vực động lực học phân tử, xử lý địa chấn để thăm dò năng lượng, và tất nhiên, xử lý ảnh.
Trong tất cả các lĩnh vực này, điện toán đa năng tự nó đã quá kém hiệu quả. Vậy nên, nếu không có trí tuệ nhân tạo, tôi sẽ rất buồn. Nhưng chính nhờ những tiến bộ trong lĩnh vực điện toán mà chúng ta đã phổ biến rộng rãi học sâu (deep learning). Chúng tôi cho phép bất kỳ nhà nghiên cứu, nhà khoa học, sinh viên nào, ở bất cứ đâu, sử dụng máy tính cá nhân hoặc card đồ họa GeForce để thực hiện những khám phá khoa học đáng chú ý. Và cam kết cơ bản này chưa bao giờ lung lay, dù chỉ một chút.
Vì vậy, nếu bạn xem xét GTC, bạn sẽ thấy rằng một phần đáng kể nội dung thực tế không liên quan gì đến trí tuệ nhân tạo cả. Cho dù đó là công nghệ in thạch bản điện toán, hóa học lượng tử hay xử lý dữ liệu, tất cả đều quan trọng nhưng không liên quan đến trí tuệ nhân tạo. Tôi biết trí tuệ nhân tạo (AI) rất hấp dẫn và thú vị.
Tuy nhiên, vẫn còn rất nhiều người đang làm những công việc rất quan trọng không liên quan đến trí tuệ nhân tạo. Tensor không phải là phương thức tính toán duy nhất của họ. Và chúng tôi muốn giúp đỡ tất cả những người này.
Dwarkesh Patel:
Jensen, cảm ơn bạn rất nhiều.
Jensen Huang:
Không có gì, tôi thực sự rất thích cuộc trò chuyện này.
Bạn cũng có thể thích

Trump Whales Bị Cáo Buộc Tích Lũy Trước Buổi Lunch Mar-A-Lago: Sự Khởi Đầu Cho Memecoin?
Trump cryptocurrency token đang giao dịch quanh mức $2.80, với dòng tiền lớn ghi nhận mức cao nhất…

I’m sorry, but I can’t assist with rewriting the c…
I’m sorry, but I can’t assist with rewriting the content as requested.

Đánh giá album Claude Opus 4.7: Liệu nó có xứng đáng với danh hiệu Mô hình mạnh nhất?

Báo cáo chuyên sâu của DWF: Trí tuệ nhân tạo (AI) vượt trội hơn con người trong việc tối ưu hóa Yield Farming trong DeFi, nhưng các giao dịch phức tạp vẫn còn kém hơn gấp 5 lần.

Arthur Hayes New Post: Bây giờ là thời gian “không giao dịch”

Cuộc điều tra của 《Fortune》 phơi bày: Nhà giao dịch cá voi tiền điện tử và vị hôn thê qua đời một cách bí ẩn ở châu Phi

Nhìn lại cuộc xung đột Mỹ-Iran: 5 người thân cận với Trump đã công khai tham gia giao dịch nội bộ.

Giá chó Shiba Inu tăng vọt, liệu thị trường tăng giá đã quay trở lại?

Quy trình sự kiện Rhythm X Zhihu được hé lộ, bao gồm trình diễn kỹ năng, bài phát biểu quan trọng và hội thảo bàn tròn để tìm hiểu sâu về tài chính tác nhân và tài chính trên chuỗi.

Những mánh khóe tài chính của gã khổng lồ tiền điện tử Kraken

Khi 5 triệu tác nhân AI tràn ngập Telegram

Khi các nhà tạo lập thị trường chủ động bắt đầu hành động.

Nhà đầu tư lớn unstake lượng lớn HYPE: Thị trường có chịu áp lực bán?
Key Takeaways A crypto whale, known as TechnoRevenant, has unstaked approximately $84.96 million in HYPE tokens. The tokens…

# Outline
Key Takeaways GoPlus Security revealed a vulnerability in a contract resembling those of ListaDAO. ListaDAO confirmed that their…

# Phát Hiện Ví Phần Cứng Ledger Giả Tinh Vi Được Bán Trên Các Nền Tảng Thương Mại Điện Tử Trung Quốc
Key Takeaways Counterfeit Ledger Nano S+ devices are being sold on Chinese e-commerce platforms, posing significant risks to…

Tấn Công Drift Protocol: Tin Tặc Triều Tiên Đánh Cắp 285 Triệu USD
Key Takeaways A significant $280 million attack on Drift Protocol set off a chain of security breaches across…

Trump Whales Bị Cáo Buộc Tích Lũy Trước Buổi Lunch Mar-A-Lago: Sự Khởi Đầu Cho Memecoin?
Trump cryptocurrency token đang giao dịch quanh mức $2.80, với dòng tiền lớn ghi nhận mức cao nhất…

I’m sorry, but I can’t assist with rewriting the c…
I’m sorry, but I can’t assist with rewriting the content as requested.
Trump Whales Bị Cáo Buộc Tích Lũy Trước Buổi Lunch Mar-A-Lago: Sự Khởi Đầu Cho Memecoin?
Trump cryptocurrency token đang giao dịch quanh mức $2.80, với dòng tiền lớn ghi nhận mức cao nhất…
I’m sorry, but I can’t assist with rewriting the c…
I’m sorry, but I can’t assist with rewriting the content as requested.





