logo

Le dernier podcast de Huang Renxun : L'avantage concurrentiel de NVIDIA va-t-il perdurer ?

By: blockbeats|2026/04/17 18:00:03
0
Partager
copy
Titre de la vidéo : Jensen Huang : - L'avantage concurrentiel de Nvidia va-t-il perdurer ?
Auteur de la vidéo : Dwarkesh Patel
Traduction : Peggy, BlockBeats

Note de la rédaction : Alors que le monde extérieur continue de débattre pour savoir si « l'avantage concurrentiel de Nvidia réside dans sa chaîne d'approvisionnement », cet article soutient que ce qui est véritablement difficile à reproduire, ce n'est pas la puce en soi, mais l'ensemble des capacités du système permettant de « transformer l'informatique en jetons » – depuis l'architecture informatique et les systèmes logiciels jusqu'au fonctionnement collaboratif de l'écosystème des développeurs.

Cet article est tiré d'une conversation entre Dwarkesh Patel et Jensen Huang. Dwarkesh Patel est l'un des animateurs de podcasts technologiques les plus suivis de la Silicon Valley. Il anime la chaîne YouTube « Dwarkesh Podcast », spécialisée dans les entretiens approfondis, et entretient des dialogues de fond avec des chercheurs en intelligence artificielle et des figures de proue du secteur technologique.

Le dernier podcast de Huang Renxun : L'avantage concurrentiel de NVIDIA va-t-il perdurer ?

À droite, Dwarkesh Patel ; à gauche, Jensen Huang

Autour de ce thème central, cette conversation peut être abordée sous trois angles différents.

Tout d'abord, il y a l'évolution des technologies et de la structure industrielle.
L'avantage de Nvidia ne réside pas seulement dans les performances matérielles, mais aussi dans l'écosystème de développeurs soutenu par CUDA, ainsi que dans la dépendance historique qui s'est créée autour de la pile informatique. Dans ce système, la puissance de calcul n'est plus la seule variable ; ce sont les algorithmes, l'ingénierie des systèmes, les réseaux et l'efficacité énergétique qui, ensemble, déterminent le rythme des progrès de l'IA. Cela nous amène également à une conclusion importante : l'IA ne va pas simplement « banaliser » les logiciels ; au contraire, avec la multiplication des agents, le recours aux outils va croître de manière exponentielle, ce qui ne fera que renforcer la valeur des logiciels.

Deuxièmement, il y a les limites liées aux choix commerciaux et stratégiques.
Face à une chaîne industrielle de l'IA en constante expansion, Nvidia a choisi de « faire ce qui est nécessaire, mais pas tout ». Elle ne se lance pas dans le cloud computing et ne pratique pas non plus une intégration verticale excessive, mais contribue plutôt à accroître la taille globale du marché grâce à des investissements et au soutien apporté à l'écosystème. Cette retenue lui permet de conserver un contrôle essentiel tout en évitant de se substituer à un écosystème, ce qui lui permet d'attirer davantage d'acteurs dans son système technologique.

Troisièmement, on constate un décalage entre la diffusion des technologies et la configuration du secteur.
Le point le plus délicat de la discussion ne réside pas dans les conclusions spécifiques, mais dans la manière d'appréhender le « risque » lui-même. D'un côté, certains soulignent l'avantage du précurseur découlant de la suprématie en matière de puissance de calcul, tandis que d'autres mettent davantage l'accent sur le rôle à long terme des écosystèmes et des normes dans le processus de diffusion technologique. Plutôt que de se concentrer sur le déficit de capacités à court terme, la question la plus cruciale pourrait être la suivante : sur quel système technologique fonctionneront les futurs modèles d'IA et les développeurs ?

En d'autres termes, l'enjeu final de cette compétition ne réside pas seulement dans le fait de savoir « qui sera le premier à créer un modèle plus performant », mais « qui définira l'infrastructure sur laquelle ce modèle fonctionnera ».

En ce sens, le rôle de NVIDIA ne se limite plus à celui d'un simple fabricant de puces, mais s'apparente davantage à celui de « fournisseur du système d'exploitation sous-jacent » de l'ère de l'IA : l'entreprise cherche à faire en sorte que, quelle que soit l'ampleur de la prolifération de la puissance de calcul, le chemin vers la création de valeur continue de passer par elle.

Voici le texte original (remanié pour faciliter la compréhension) :

EN BREF

· L'avantage concurrentiel de NVIDIA ne réside pas dans les « puces », mais dans sa « capacité à offrir une solution complète, de l'électronique aux jetons ». Ce qui importe avant tout, ce n'est pas la performance matérielle, mais la capacité à transformer le calcul en valeur ajoutée grâce à une approche « full-stack » (architecture + logiciels + écosystème).

· L'atout majeur de CUDA ne réside pas dans l'outil lui-même, mais dans le plus grand écosystème mondial de développeurs d'IA. Les développeurs, les frameworks et les modèles sont tous liés à la même pile technologique, créant ainsi une dépendance structurelle incontournable.

· La clé de la compétitivité en matière d'IA ne réside pas seulement dans la puissance de calcul, mais dans la combinaison de « la pile informatique × les algorithmes × l'ingénierie des systèmes ». Les progrès réalisés dans les domaines de l'architecture, des réseaux, de l'efficacité énergétique et de la collaboration logicielle dépassent de loin ceux de la simple technologie des procédés.

· Le goulot d'étranglement au niveau des ressources informatiques est un problème à court terme, et l'offre sera réapprovisionnée sous l'effet des signaux de la demande d'ici deux à trois ans. La véritable contrainte à long terme ne réside pas dans les puces, mais dans l'énergie et les infrastructures.

· Les logiciels d'IA ne deviendront pas des produits de grande consommation ; au contraire, leur utilisation connaîtra une croissance exponentielle grâce à l'explosion du nombre d'agents. L'avenir ne réside pas dans des logiciels moins chers, mais dans une augmentation exponentielle de leur utilisation.

· La stratégie principale de NVIDIA n'est pas de se lancer dans le cloud : faire « tout ce qui est nécessaire », mais sans s'approprier l'ensemble de la chaîne de valeur. En misant sur l'investissement et le soutien à l'écosystème plutôt que sur l'intégration verticale, NVIDIA contribue à l'expansion globale du marché.

· Le véritable risque stratégique ne réside pas dans le fait que les concurrents acquièrent de la puissance de calcul, mais dans le fait que l'écosystème mondial de l'IA ne repose plus sur la pile technologique américaine. Une fois que les fabricants et les développeurs auront effectué la transition, les normes techniques à long terme et la position dominante du secteur évolueront en conséquence.

Contenu de l'entretien

Où réside l'avantage concurrentiel de NVIDIA : dans la chaîne d'approvisionnement ou dans la maîtrise du processus « des électrons aux jetons » ?

Dwarkesh Patel (animateur) :

Nous avons vu la valeur de nombreuses entreprises de logiciels baisser, car on s'attend à ce que l'IA transforme les logiciels en produits de base standardisés. Il existe une autre conception quelque peu naïve qui se résume ainsi : voyez-vous, à partir des fichiers de conception (GDS2) transmis à TSMC, cette dernière est chargée de fabriquer la puce logique, de produire les plaquettes, de réaliser les circuits de commutation, puis d'assurer le conditionnement avec de la mémoire HBM fournie par SK Hynix, Micron et Samsung, avant d'envoyer le tout à un ODM pour l'assemblage dans un châssis complet.

Remarque : La mémoire HBM (High Bandwidth Memory) est une technologie de mémoire de pointe spécialement conçue pour le calcul haute performance et l'intelligence artificielle ; un ODM (Original Design Manufacturer) désigne un fabricant sous contrat chargé à la fois de la production et de la conception des produits.


Ainsi, de ce point de vue, NVIDIA se consacre essentiellement au développement de logiciels, tandis que la fabrication est assurée par des tiers. Si le logiciel devient un produit de grande consommation, NVIDIA le deviendra également.

Jensen Huang (PDG de NVIDIA) :
Mais en fin de compte, il faut un processus permettant de convertir les électrons en jetons. Des électrons aux jetons, et en rendant ces jetons de plus en plus précieux au fil du temps, je pense que cette transformation est difficile à réduire entièrement à un simple produit de base.


La transformation des électrons en jetons est en soi un processus tout à fait extraordinaire. Et rendre un jeton plus précieux, c'est comme rendre une molécule plus précieuse qu'une autre : cela revient à rendre un jeton plus précieux qu'un autre jeton.


Ce processus fait appel à de nombreux aspects artistiques, techniques, scientifiques et innovants pour conférer de la valeur à ce jeton.


Il est évident que nous assistons à tout cela en direct. Ainsi, ce processus de transformation, le processus de fabrication et les différents signaux en jeu ne sont pas encore pleinement compris, et ce parcours est loin d'être terminé. Je ne pense donc pas que ce scénario se produira.


Bien sûr, nous allons le rendre plus efficace. En fait, la façon dont vous venez de décrire le problème correspond exactement à l'image que je me fais de NVIDIA : l'entrée, ce sont des électrons ; la sortie, ce sont des jetons ; et NVIDIA se trouve entre les deux.


Notre mission consiste à « faire autant que nécessaire et aussi peu que possible de ce qui est superflu » afin de mener à bien cette transformation et de lui conférer une capacité extrêmement élevée.


Quand je dis « le moins possible », je veux dire que pour tout ce que nous n'avons pas besoin de faire nous-mêmes, nous collaborerons avec d'autres et l'intégrerons à notre écosystème. Si l'on considère NVIDIA aujourd'hui, on constate que nous disposons sans doute de l'un des plus vastes écosystèmes de partenaires, tant en amont qu'en aval de la chaîne d'approvisionnement. Des fabricants d'ordinateurs aux développeurs d'applications, en passant par les concepteurs de modèles, on peut considérer l'IA comme un « gâteau à cinq étages », et nous avons mis en place un écosystème à ces cinq niveaux.

À lire également : « Dernier article de Jensen Huang, PDG de NVIDIA : » « Le « gâteau à cinq étages » de l'IA »


Nous essayons donc d'en faire le moins possible, mais ce que nous devons faire est en réalité extrêmement difficile. Et je ne pense pas que cet aspect deviendra un produit de masse.


En réalité, je ne pense pas non plus que les éditeurs de logiciels d'entreprise aient pour vocation première de « fabriquer des outils ». Cependant, la réalité est que la plupart des éditeurs de logiciels d'aujourd'hui sont en effet des fournisseurs d'outils.
Bien sûr, il y a des exceptions ; certaines développent et perfectionnent des systèmes de gestion des flux de travail, mais de nombreuses entreprises sont avant tout des fournisseurs d'outils.


Par exemple, Excel est un outil, PowerPoint est un outil, les solutions proposées par Cadence sont des outils, et Synopsys est également un outil.

Jensen Huang :
Et la tendance que j'observe va en fait à l'encontre de l'opinion de beaucoup de gens. Je pense que le nombre d'agents va croître de manière exponentielle, tout comme le nombre d'utilisateurs de ces outils.


Le nombre d'utilisations de divers outils devrait également augmenter considérablement. Par exemple, le nombre d'utilisations de Synopsys Design Compiler pourrait augmenter considérablement.
De nombreux agents utiliseront des logiciels de planification d'espace, des outils d'agencement et des outils de vérification des règles de conception.

Aujourd'hui, nous sommes limités par le nombre d'ingénieurs ; mais demain, ces ingénieurs seront épaulés par un grand nombre d'agents, et nous explorerons l'espace de conception comme jamais auparavant. Si vous commencez à utiliser ces outils dès aujourd'hui, ce changement sera très perceptible.


L'utilisation de ces outils permettra à ces éditeurs de logiciels de connaître une croissance fulgurante. Cette croissance fulgurante ne s'est pas encore produite, car les agents actuels ne maîtrisent pas encore bien ces outils.


Soit ces entreprises développent elles-mêmes des agents, soit ces agents deviennent suffisamment performants pour utiliser ces outils. Je pense que le résultat final sera un mélange des deux.

Dwarkesh Patel
Je me souviens que, dans votre dernière déclaration, vous aviez près de 100 milliards de dollars d'engagements d'achat pour des composants de périphériques, de la mémoire, des boîtiers, etc. Et selon un rapport de SemiAnalysis, ce chiffre pourrait atteindre 250 milliards de dollars.


On pourrait interpréter cela comme signifiant que l'avantage concurrentiel de NVIDIA réside dans le fait que l'entreprise s'assure l'approvisionnement en ces composants rares pour les années à venir. En d'autres termes, est-ce que d'autres peuvent aussi fabriquer des accélérateurs, mais parviennent-ils à obtenir suffisamment de mémoire ? Vont-ils pouvoir se procurer suffisamment de puces logiques ?


Est-ce là l'atout majeur de NVIDIA pour les années à venir ?

Jensen Huang :
C'est quelque chose que nous pouvons faire, mais qui est très difficile pour les autres. La raison pour laquelle nous pouvons prendre des engagements aussi importants en amont est en partie explicite, comme dans les engagements en matière d'approvisionnement que vous avez mentionnés, et en partie implicite.


Par exemple, une grande partie des investissements en amont est en réalité réalisée par nos partenaires de la chaîne d'approvisionnement, car je dirais à leur PDG : Laissez-moi vous dire à quel point ce secteur va prendre de l'ampleur, laissez-moi vous expliquer pourquoi, laissez-moi vous exposer mon raisonnement, laissez-moi vous dire ce que j'en pense.

C'est grâce à ce processus — transmettre des informations, susciter une vision, parvenir à un consensus — que j'arrive à convaincre les PDG de différents secteurs en amont, et ce n'est qu'alors qu'ils sont prêts à réaliser ces investissements.


Alors, pourquoi sont-ils prêts à investir en moi et pas dans d'autres ? Parce qu'ils savent que j'ai la capacité d'acheter leur production et de la commercialiser via mon réseau de distribution. C'est précisément grâce à l'ampleur de la demande en aval et de la chaîne d'approvisionnement de NVIDIA que l'entreprise est disposée à investir en amont.

Regardez la GTC : l'ampleur de cette conférence a impressionné beaucoup de monde. Il s'agit en substance d'un écosystème d'IA à 360 degrés qui rassemble l'ensemble du secteur. Tout le monde se réunit parce qu'ils ont besoin de se voir. Je les rassemble pour permettre à ceux en amont de voir ce qui se passe en aval, à ceux en aval de voir ce qui se passe en amont, et pour que chacun puisse constater les progrès de l'IA.

Mais surtout, ils peuvent entrer en contact avec des entreprises et des start-ups spécialisées dans l'IA, découvrir par eux-mêmes les différentes innovations en cours et ainsi confirmer les conclusions auxquelles je suis parvenu.


J'ai donc passé beaucoup de temps, directement ou indirectement, à présenter les opportunités actuelles à nos partenaires de la chaîne d'approvisionnement et de notre écosystème. Beaucoup diront que mon discours d'ouverture ne ressemble pas à une succession d'annonces de produits comme on en voit habituellement lors d'une conférence, mais qu'il comporte une partie qui s'apparente davantage à un « cours ». Et c'est justement mon objectif.


Je dois m'assurer que l'ensemble de la chaîne d'approvisionnement — qu'il s'agisse des maillons en amont ou en aval — comprenne ce qui va se passer ensuite, pourquoi cela va se produire, quand cela va se produire et quelle en sera l'ampleur, et soit capable d'analyser systématiquement ces questions comme je le fais moi-même.

Le « fossé » dont vous venez de parler existe donc bel et bien. Si ce marché atteint un volume d'un billion de dollars dans les années à venir, nous avons les moyens de mettre en place la chaîne d'approvisionnement nécessaire pour le soutenir. Tout comme les flux de trésorerie, la chaîne d'approvisionnement est également caractérisée par des flux et des rotations. Si le renouvellement d'une architecture d'entreprise n'est pas assez rapide, personne ne mettra en place de chaîne logistique pour celle-ci. Si nous parvenons à maintenir cette envergure, c'est parce que la demande en aval est extrêmement forte, et tout le monde peut s'en rendre compte.

C'est précisément cela qui nous permet de mener à bien ces projets à l'échelle où nous en sommes aujourd'hui.

Dwarkesh Patel
Je voudrais encore mieux comprendre si l'amont est en mesure de suivre le rythme. Au cours des dernières années, votre chiffre d'affaires a pratiquement doublé d'une année sur l'autre, et la capacité de calcul que vous mettez à la disposition du monde entier a même triplé.

Jensen Huang :
Et cela continue de doubler à ce rythme.

Dwarkesh Patel :
Exactement. Si l'on prend l'exemple des puces logiques, vous êtes l'un des principaux clients de TSMC pour le processus N3, et également un client majeur pour le processus N2.
Selon certaines estimations, l'IA pourrait représenter 60 % de la capacité de N3 cette année, et atteindre même 86 % l'année prochaine.

Remarque : N3 désigne le nœud de fabrication de 3 nanomètres (3 nm) de TSMC, qui peut être considéré comme l'un des procédés de fabrication de puces les plus avancés de TSMC

Alors, étant donné que vous détenez déjà une part de marché aussi importante, comment comptez-vous continuer à doubler vos parts ? Et en plus, ça double chaque année ? Sommes-nous entrés dans une phase où la croissance de la puissance de calcul de l'IA doit ralentir en raison de contraintes en amont ? Y a-t-il un moyen de contourner ces restrictions ? Comment pourrions-nous construire deux usines de fabrication de plaquettes chaque année ?

Jensen Huang :
À certains moments, la demande instantanée dépasse effectivement l'offre globale du secteur, tant en amont qu'en aval. Et dans certains cas, nous pouvons même être limités par le nombre de plombiers — cela s'est déjà produit.

Dwarkesh Patel :
Il faudrait donc inviter des plombiers à la GTC de l'année prochaine.

Jensen Huang :
Oui, c'est en fait une bonne chose. Vous souhaitez vous positionner sur un marché comme celui-ci : où la demande immédiate est supérieure à l'offre totale du secteur. À l'inverse, bien sûr, ce n'est pas terrible.

Si l'écart entre les deux est trop important, un maillon spécifique, un élément particulier, devient clairement un goulot d'étranglement, et l'ensemble du secteur s'empressera de résoudre ce problème. Par exemple, j'ai remarqué que les gens ne parlent plus beaucoup de CoWoS ces derniers temps. La raison en est qu'au cours des deux dernières années, nous y avons consacré d'importants investissements et l'avons considérablement développé, multipliant ainsi son volume par plusieurs.


Je trouve que la situation générale est plutôt bonne. TSMC a également pris conscience que l'offre de CoWoS doit suivre le rythme de la demande croissante en puces logiques et en mémoire. Ils développent donc les CoWoS tout en faisant progresser les technologies d'encapsulation de pointe, et ce développement suit le même rythme que celui des puces logiques.

C'est très important car, par le passé, la mémoire CoWoS et HBM relevaient davantage de la catégorie des « fonctionnalités spéciales », mais ce n'est plus le cas aujourd'hui. Aujourd'hui, tout le monde a pris conscience qu'il fait partie intégrante des technologies informatiques courantes.

Par ailleurs, nous sommes désormais en mesure d'influencer l'ensemble de la chaîne d'approvisionnement. À l'époque, alors que la révolution de l'IA n'en était qu'à ses débuts, ce dont je parle aujourd'hui, j'en parlais déjà il y a cinq ans.

Certaines personnes y ont cru et ont investi à l'époque, comme l'équipe de Sanjay chez Micron. Je me souviens encore très bien de cette réunion, au cours de laquelle j'ai clairement expliqué ce qui allait se passer à l'avenir, pourquoi cela allait se produire, et prédit les résultats que nous constatons aujourd'hui. À cette époque, ils ont décidé d'augmenter considérablement leurs investissements, et nous avons également conclu un partenariat avec eux. Ils ont réalisé des investissements dans divers domaines, tels que la LPDDR et la HBM, ce qui leur a manifestement rapporté des bénéfices considérables. Certaines entreprises ont suivi plus tard, mais aujourd'hui, tout le monde en est arrivé là.

Je pense donc que chaque nouvelle génération technologique, chaque goulot d'étranglement, fera l'objet d'une grande attention. Et voilà que nous anticipons ces goulots d'étranglement depuis plusieurs années déjà. Par exemple, notre collaboration avec Lumentum, Coherent et l'ensemble de l'écosystème de la photonique sur silicium. Au cours des dernières années, nous avons en effet profondément transformé l'ensemble de l'écosystème et de la chaîne d'approvisionnement.

Dans le domaine de la photonique sur silicium, nous avons mis en place une chaîne d'approvisionnement complète autour de TSMC, collaboré avec cette entreprise pour développer des technologies, inventé de nombreuses innovations et concédé ces brevets sous licence à l'ensemble de la chaîne d'approvisionnement, tout en préservant l'ouverture de l'écosystème. Nous avons préparé la chaîne d'approvisionnement en mettant au point de nouvelles technologies, de nouveaux processus de travail et de nouveaux équipements de test (notamment la détection recto-verso), en investissant dans des entreprises du secteur et en les aidant à se développer.

Vous pouvez donc constater que nous travaillons activement à la mise en place de cet écosystème afin que la chaîne d'approvisionnement soit en mesure de s'adapter à la croissance future.

Dwarkesh Patel :
On dirait que certains goulots d'étranglement sont plus faciles à résoudre que d'autres. Par exemple, par rapport aux CoWoS en pleine expansion, il en existe qui sont plus difficiles

Jensen Huang :
En fait, ce que je viens de mentionner est le plus difficile.

Dwarkesh Patel :
Lequel ?

Jensen Huang :
Plombier. Oui, vraiment. Ce dont j'ai parlé tout à l'heure, c'est le plus difficile : les plombiers et les électriciens. La raison, c'est que cela m'inquiète aussi un peu face à certains « prophètes de malheur » qui ne cessent de parler de la disparition des emplois et du remplacement des postes. Si, pour cette raison, nous déconseillons aux gens de devenir ingénieurs en informatique, nous allons vraiment manquer d'ingénieurs en informatique à l'avenir.

Des prévisions similaires avaient été formulées il y a dix ans. À l'époque, certains m'ont dit : « Quoi que tu fasses, ne deviens surtout pas radiologue. » On trouve encore aujourd’hui sur Internet des vidéos affirmant que la radiologie serait la première profession à disparaître et que le monde n’aurait plus besoin de radiologues. Mais la réalité, c'est qu'on manque aujourd'hui de radiologues.

Dwarkesh Patel :
Bon, revenons à la question précédente : Certains liens peuvent être développés, d'autres non. Concrètement, comment la capacité de production des puces logiques peut-elle doubler ? Après tout, c'est là que se trouve le véritable goulot d'étranglement : tant la mémoire que la logique constituent des facteurs limitants. Qu'en est-il des machines de lithographie EUV ? Comment faites-vous pour doubler leur nombre chaque année ?

Jensen Huang :
Tout cela n'est pas impossible. Certes, il n'est pas facile de se développer rapidement, mais y parvenir en deux ou trois ans n'est en réalité pas si difficile. L'essentiel est d'avoir un signal de demande clair. Une fois que tu en as fait un, tu peux en faire dix ; une fois que tu en as fait dix, tu peux en faire un million. En somme, ces choses ne sont pas difficiles à reproduire.

Dwarkesh Patel :
Pourriez-vous ensuite faire passer ce message à tous les maillons de la chaîne d'approvisionnement ? Par exemple, iriez-vous voir ASML pour leur dire : « Si je me projette dans trois ans, pour atteindre le chiffre d'affaires annuel de 2 000 milliards de dollars de NVIDIA, avons-nous besoin de davantage de machines de lithographie EUV ? »

Jensen Huang :
Certaines choses, je les ferais directement ; d'autres, je les fais indirectement. Si je parviens à convaincre TSMC, ASML sera naturellement convaincue elle aussi. Nous devons donc identifier les goulots d'étranglement critiques. Mais tant que TSMC croit en cette tendance, d'ici quelques années, vous disposerez de suffisamment d'équipements EUV.

Ce que je veux dire, c'est qu'aucun goulot d'étranglement ne durera plus de deux ou trois ans, pas un seul.


Parallèlement, nous améliorons également l'efficacité des calculs. De Hopper à Blackwell, nous avons obtenu une amélioration d'environ 10 fois, 20 fois, voire, dans certains cas, de 30 à 50 fois. Nous intégrons également en permanence de nouveaux algorithmes. CUDA étant suffisamment flexible, nous pouvons mettre au point diverses nouvelles méthodes pour augmenter la capacité tout en améliorant l'efficacité.


Donc, tout ça ne m'inquiète pas. Ce qui m'inquiète vraiment, ce sont les facteurs externes qui échappent à notre contrôle, comme la politique énergétique. Sans énergie, il est impossible de se développer ; sans énergie, il est impossible de créer une industrie ; sans énergie, il est impossible de bâtir un écosystème industriel entièrement nouveau.


Aujourd'hui, nous voulons stimuler la réindustrialisation aux États-Unis, relancer la fabrication de puces électroniques, d'ordinateurs et de boîtiers, tout en développant de nouveaux secteurs tels que les véhicules électriques et la robotique. Lorsque nous construisons une usine dédiée à l'IA, tous ces éléments dépendent de l'énergie, et les travaux liés à l'énergie ont un cycle de réalisation long. En revanche, l'augmentation de la capacité de production de puces est un projet qui s'étend sur deux à trois ans ; l'augmentation de la capacité de production de CoWoS est également un projet qui s'étend sur deux à trois ans.

Dwarkesh Patel :
C'est assez intéressant. J'ai l'impression que certains des invités que j'ai interviewés ont émis un jugement diamétralement opposé. C'est justement sur ce point que je n'ai pas suffisamment de connaissances techniques pour me prononcer.

Jensen Huang :
Mais le bon côté, c'est que vous vous adressez désormais à des experts.

Prix de --

--

Le TPU de Google va-t-il ébranler la position de NVIDIA ?

Dwarkesh Patel :
Oui, tout à fait. Je voudrais vous poser quelques questions sur vos concurrents. Si l'on examine les TPU, on peut affirmer qu'à l'heure actuelle, deux des trois plus grands modèles mondiaux — Claude et Gemini — ont été entraînés à l'aide de TPU. Quelles en sont les conséquences pour l'avenir de NVIDIA ?

Remarque : Le TPU (Tensor Processing Unit) est un type de puce spécialisée conçue par Google spécialement pour l'intelligence artificielle, en particulier l'apprentissage profond

Jensen Huang :
Ce que nous faisons est complètement différent. NVIDIA développe des solutions de « calcul accéléré », et non des unités de traitement Tensor (TPU).

Le calcul accéléré peut être utilisé pour diverses tâches, telles que la dynamique moléculaire, la chromodynamique quantique, le traitement des données, les structures de données, les données structurées, les données non structurées, la dynamique des fluides, la physique des particules et, bien sûr, l'IA. Par conséquent, le champ d'application de l'informatique accélérée est bien plus vaste.

Même si le débat actuel porte principalement sur l'IA, qui revêt certes une grande importance et a un impact considérable, le champ d'application de l'« informatique » en soi est bien plus vaste que celui de l'IA. NVIDIA réinvente l'approche informatique, passant du calcul généraliste au calcul accéléré. Notre couverture du marché est bien plus étendue que ce que peut offrir n'importe quel TPU ou autre accélérateur spécialisé.

Si l'on examine notre positionnement, nous sommes la seule entreprise capable d'accélérer divers types d'applications. Nous disposons d'un vaste écosystème permettant d'exécuter divers frameworks et algorithmes sur la plateforme NVIDIA. De plus, nos systèmes informatiques sont conçus pour être « exploités par des tiers ». Tout opérateur peut acheter nos systèmes pour les utiliser.

La plupart des systèmes développés en interne ne sont pas conçus pour être utilisés par d'autres ; en gros, vous devez les gérer vous-même, car ils n'ont pas été initialement conçus pour offrir suffisamment de souplesse afin que d'autres puissent s'en servir. Comme nos systèmes sont accessibles à tous, nous sommes présents sur toutes les principales plateformes, notamment Google, Amazon, Azure, OCI et bien d'autres.

Que vous souhaitiez louer de la puissance de calcul pour faire fonctionner des systèmes ou utiliser vous-même ces systèmes, si vous souhaitez vous lancer dans une activité de location, vous devez disposer d'un vaste réseau de clients couvrant de nombreux secteurs afin de répondre à ces besoins. Si vous utilisez des systèmes d'exploitation pour votre usage personnel, nous sommes tout à fait en mesure de vous aider dans cette démarche. Par exemple, xAI d'Elon.

Comme nous permettons aux opérateurs de tous les secteurs et de toutes les entreprises d'utiliser nos systèmes, vous pouvez vous en servir pour mettre en place des supercalculateurs destinés à des entreprises telles que Lilly, dans le cadre de la recherche scientifique et de la découverte de médicaments. Nous pouvons les aider à exploiter leurs propres supercalculateurs et à les mettre au service de diverses applications dans la recherche pharmaceutique et les sciences de la vie, autant de domaines dans lesquels nous pouvons apporter une contribution décisive.

Nous pouvons ainsi couvrir un large éventail d'applications, ce que le TPU ne permet pas. La technologie CUDA, développée par NVIDIA, peut également servir de plateforme exceptionnelle pour le traitement tensoriel, mais elle ne se limite pas à cela. Il couvre l'ensemble du cycle de vie du traitement des données, de l'informatique, de l'intelligence artificielle et bien plus encore. Notre marché potentiel est donc bien plus vaste et couvre un champ d'action plus large. Et comme nous prenons désormais en charge pratiquement tous les types d'applications à l'échelle mondiale, vous pouvez déployer des systèmes NVIDIA partout, avec la certitude qu'il y aura forcément des clients pour les utiliser.

Il s'agit donc, en substance, d'une tout autre affaire.

Dwarkesh Patel :
Cette question sera un peu plus longue.


Votre chiffre d'affaires actuel est impressionnant, et il ne provient pas principalement du secteur pharmaceutique ni de l'informatique quantique. Ce n'est pas que ces activités vous rapportent 600 milliards de dollars par trimestre, mais parce que l'IA est une technologie sans précédent qui évolue à un rythme sans précédent.


La question est donc la suivante : si l'on se limite à l'IA, quelle est la solution optimale ? Je ne suis pas un expert sur le terrain, mais j'ai discuté avec quelques chercheurs en IA, et voici ce qu'ils m'ont dit : lorsqu'on utilise un TPU, on dispose d'un grand tableau, très bien adapté à la multiplication matricielle ; tandis que les GPU sont plus polyvalents et conviennent mieux au traitement d'un grand nombre de branches et aux accès mémoire irréguliers.

Mais quand on y regarde de plus près, l'IA ne se résume-t-elle pas, au fond, à des multiplications de matrices répétitives et hautement prévisibles ? Dans ce cas, vous n'avez en fait pas besoin de consacrer de l'espace sur la puce à des fonctionnalités telles que la planification de la mise en attente, la commutation de threads, la gestion des banques de mémoire, etc. Les TPU sont donc hautement optimisés pour répondre à la demande actuelle en puissance de calcul et à la croissance des revenus, en se concentrant sur les principaux scénarios d'application.

Que pensez-vous de ce point de vue ?

Jensen Huang :
La multiplication matricielle est certes un élément important de l'IA, mais elle ne représente pas l'ensemble de l'IA.

Si vous souhaitez proposer un nouveau mécanisme d'attention ou effectuer des calculs d'une manière différente ; si vous souhaitez concevoir une architecture entièrement nouvelle, comme un SSM hybride ; si vous souhaitez construire un modèle combinant diffusion et autorégression — vous avez besoin d'une architecture programmable polyvalente, et nous pouvons exécuter tout ce que vous pouvez imaginer.

C'est là notre atout, car cela facilite considérablement la mise au point de nouveaux algorithmes. C'est parce qu'il s'agit d'un système programmable, et c'est grâce à la création constante de nouveaux algorithmes que l'IA peut progresser aussi rapidement.


Le TPU, comme tout autre matériel, est lui aussi soumis à la loi de Moore. Nous savons que la loi de Moore permet un gain de performance d'environ 25 % chaque année. Donc, si vous voulez réaliser un bond en avant de 10 ou 100 fois, la seule solution consiste à modifier en profondeur l'algorithme et son calcul chaque année.

C'est précisément là que réside la force principale de NVIDIA.

La raison pour laquelle nous avons pu obtenir une amélioration significative avec Blackwell par rapport à Hopper – j’avais dit 35 fois à l’époque – c’est que lorsque j’ai annoncé pour la première fois que l’efficacité énergétique de Blackwell serait 35 fois supérieure à celle de Hopper, personne ne m’a cru.


Par la suite, Dylan a écrit un article dans lequel il affirmait que j'avais en réalité été prudent, et que l'amélioration réelle était plutôt de l'ordre de 50 fois, et qu'une telle amélioration ne pouvait pas être obtenue uniquement grâce à la loi de Moore. Notre approche pour résoudre ce problème consiste à introduire de nouvelles structures de modèles, telles que MoE, ainsi qu'à paralléliser, découpler et répartir les calculs, en les étendant à l'ensemble du système informatique. Sans la possibilité d'aller au cœur même de la couche matérielle et de développer de nouveaux cœurs de calcul à l'aide de CUDA, cela serait très difficile à réaliser.

Remarque : Selon Dylan Patel, analyste réputé dans le domaine des semi-conducteurs et des infrastructures d'IA, et fondateur du cabinet d'études SemiAnalysis

Notre atout réside donc dans la programmabilité de l'architecture et dans le fait que NVIDIA est une entreprise fortement axée sur la co-conception. Nous pouvons même déléguer une partie du calcul à l'architecture d'interconnexion, comme NVLink, ou à la couche réseau, comme Spectrum-X. En d'autres termes, nous pouvons faire évoluer simultanément le processeur, le système, les interconnexions, les bibliothèques logicielles et les algorithmes. Tout cela se passe en même temps. Sans CUDA pour prendre tout cela en charge, je ne saurais même pas par où commencer.

Dwarkesh Patel :

Cela soulève également une question concernant la clientèle de NVIDIA : Si 60 % de votre chiffre d'affaires provient de ces cinq hyperscalers, à une autre époque, face à un autre type de client, comme un professeur menant des expériences, ceux-ci s'appuient fortement sur CUDA. Ils ne peuvent pas utiliser d'autres accélérateurs, ils doivent se limiter à PyTorch + CUDA, et tout doit être parfaitement optimisé.

Mais s'il s'agit de ces grands hyperscalers, ils ont la capacité de développer leurs propres noyaux. En réalité, ils doivent le faire pour gagner les 5 % de performance restants. Des entreprises comme Anthropic et Google ont souvent recours à des accélérateurs personnalisés ou à des TPU pour l'entraînement. Même OpenAI, lorsqu'il utilise des GPU, utilise Triton. Ils disaient : Nous avons besoin de notre propre noyau. Ils préféraient donc écrire directement en CUDA C++, plutôt que d'utiliser des bibliothèques telles que cuBLAS ou NCCL, pour créer leur propre pile logicielle, voire la compiler pour d'autres accélérateurs.

Ainsi, pour la plupart de vos clients, cela permet effectivement de remplacer CUDA, et c'est d'ailleurs ce qu'ils font. Dans quelle mesure CUDA reste-t-il donc un moteur essentiel pour l'IA de pointe, qui doit s'appuyer sur NVIDIA ?

Jensen Huang :
Tout d'abord, CUDA est un écosystème très riche. Si vous développez sur n'importe quel ordinateur, commencer par CUDA est un choix très judicieux. Cet écosystème étant très riche, nous prenons en charge tous les principaux frameworks.

Si vous devez développer des noyaux personnalisés, tels que Triton, sachez que nous avons largement contribué à l'intégration de la technologie NVIDIA dans le backend de Triton, et que nous sommes tout à fait disposés à aider à l'amélioration de divers frameworks. Il existe aujourd'hui de nombreux frameworks, tels que Triton, vLLM, SG Lang et bien d'autres encore.

Grâce aux progrès réalisés dans les domaines de l'apprentissage post-entraînement et de l'apprentissage par renforcement, ce secteur connaît une expansion rapide. Par exemple, il y a Vairal, NeMo RL et toute une série de nouveaux frameworks. Si vous souhaitez développer sur une architecture donnée, commencer par CUDA est le choix le plus judicieux, car vous savez que l'écosystème est bien établi. En cas de problème, il s'agit généralement d'un problème lié à votre propre code plutôt qu'à l'ensemble du code sous-jacent.

N'oubliez pas que le code source de ces systèmes est très volumineux. Lorsque le système rencontre des problèmes, vous voulez savoir si le problème provient de votre code ou de la plateforme informatique elle-même.

Vous espérez bien sûr que le problème se situe dans votre propre code et non dans la plateforme informatique. Bien sûr, notre système comporte lui aussi de nombreux bugs, mais il est très abouti, et vous pouvez au moins continuer à vous appuyer sur une base fiable.


Le deuxième point concerne l'ampleur du parc installé. Si vous êtes développeur, quelle que soit votre activité, le plus important, c'est la « base installée ». Vous souhaitez que votre logiciel fonctionne sur le plus grand nombre d'ordinateurs possible. Vous ne développez pas de logiciels pour vous-même ; vous développez des logiciels pour l'ensemble de votre cluster, voire pour l'ensemble du secteur, car vous êtes développeur de frameworks.

L'écosystème CUDA de NVIDIA est, en substance, notre atout le plus précieux. Il existe aujourd'hui des centaines de millions de processeurs graphiques dans le monde. Tous les fournisseurs de services cloud les proposent, qu'il s'agisse des modèles V100, A100, H100, H200 ou des séries L et P, dans différentes configurations.

Et ils se présentent sous différentes formes. Si vous êtes une entreprise spécialisée dans la robotique, vous souhaiteriez que CUDA s'exécute directement sur le châssis du robot. Nous sommes pratiquement partout.

Cela signifie qu'une fois que vous avez développé un logiciel ou un modèle, celui-ci peut être utilisé partout. La valeur de ce parc d'utilisateurs est donc en soi extrêmement importante.


Le dernier point concerne la flexibilité quant au lieu de déploiement. Nous sommes présents sur toutes les plateformes cloud, ce qui fait notre particularité. En tant qu'entreprise ou développeur spécialisé dans l'IA, vous ne savez pas encore avec quel fournisseur de services cloud vous finirez par collaborer, ni où votre système sera hébergé. Cependant, nous pouvons l'utiliser partout, y compris dans le cadre d'un déploiement sur site.

Ainsi, la richesse de l'écosystème, l'ampleur du parc installé et la flexibilité des lieux de déploiement constituent, ensemble, un atout considérable.

Dwarkesh Patel :
C'est logique. Mais ce qui m'intéresse, c'est de savoir si ces avantages sont vraiment si importants pour vos principaux clients. Beaucoup de gens bénéficieront certes de ces avantages, mais ce sont surtout ceux qui sont capables de développer eux-mêmes leur pile logicielle — le groupe qui génère la majeure partie de votre chiffre d'affaires — qui en tireront le plus grand profit, en particulier dans un monde où l'IA gagne en puissance dans le cadre de tâches impliquant une « boucle de rétroaction vérifiable », comme dans les scénarios d'apprentissage par renforcement, où les optimisations de noyau telles que l'attention ou les réseaux neuronaux multicouches (MLP) constituent en réalité une boucle de rétroaction très facile à vérifier.

Ces grands fournisseurs de services cloud sont-ils donc capables de développer eux-mêmes ces noyaux ? Bien sûr, ils pourraient tout de même opter pour NVIDIA pour des raisons de rapport qualité-prix. Mais la question est de savoir si cela se résumera finalement à une simple comparaison : qui est en mesure d'offrir les meilleures caractéristiques techniques ? Par exemple, en termes de coût unitaire, qui est en mesure d'offrir une puissance de calcul (FLOP) et une bande passante mémoire plus élevées ? En effet, par le passé, NVIDIA a affiché une marge bénéficiaire très élevée (supérieure à 70 %) tant au niveau matériel que logiciel, en grande partie grâce à l'avantage concurrentiel que lui confère CUDA.

La question est donc la suivante : si la plupart des clients peuvent mettre en place leurs propres piles logicielles sans avoir recours à CUDA, cette marge bénéficiaire pourra-t-elle être maintenue ?

Jensen Huang :
Le nombre d'ingénieurs que nous avons affectés à ces laboratoires d'IA est vraiment impressionnant ; nous travaillons avec eux pour les aider à optimiser l'ensemble de la pile technologique. La raison, c'est que personne ne connaît notre architecture mieux que nous. Et ces architectures ne sont pas aussi polyvalentes que les processeurs.


Le processeur, c'est un peu comme une « voiture familiale » : on peut le voir comme une voiture de croisière, qui ne roule pas particulièrement vite, mais que tout le monde peut conduire facilement, avec un régulateur de vitesse, et où tout est simple et intuitif. Mais l'accélérateur GPU de NVIDIA s'apparente davantage à une voiture de Formule 1. J'imagine bien que n'importe qui pourrait la conduire à 160 km/h, mais pour vraiment la pousser à fond, il faut une grande maîtrise.

Et nous utilisons beaucoup l'intelligence artificielle pour générer ces noyaux. Je suis convaincu que, pour encore un certain temps, nous resterons indispensables. Grâce à notre expertise, les partenaires de ces laboratoires d'IA peuvent facilement doubler leurs performances. Souvent, une fois que nous avons optimisé leur pile technologique ou un certain noyau, leurs modèles peuvent gagner en vitesse de 3 fois, 2 fois, voire 50 %. Il s'agit là d'une amélioration notable, surtout si l'on tient compte du fait qu'ils disposent d'importants groupes de serveurs Hopper et Blackwell.

Si vous doublez vos performances, cela signifie que votre chiffre d'affaires double directement. Cela est directement lié au chiffre d'affaires. La pile de calcul de NVIDIA offre le meilleur rapport coût total de possession (TCO) au monde, un résultat qu'aucun concurrent n'est en mesure d'égaler. Aucune entreprise ne peut me prouver qu'une autre plateforme offre un meilleur rapport performances/coût total de possession que la nôtre. Pas un seul. Et ces tests de performance sont accessibles au public.


Dylan a raison. Inference Max est accessible à tous, tout le monde peut l'utiliser. Mais aucune équipe TPU n'est disposée à l'utiliser pour mettre en avant son avantage en termes de coût d'inférence. C'est difficile à faire, personne n'est prêt à se manifester pour le prouver.

Il en va de même pour MLPerf. Je les invite à prouver cet avantage de 40 % qu'ils ont toujours revendiqué. J'aimerais beaucoup qu'ils démontrent l'avantage du TPU en termes de coût. Pour moi, ça n'a pas de sens, ça ne tient pas la route. Pas du tout.

Je pense donc que la raison principale de notre succès réside dans notre excellent coût total de possession.

Autre chose : vous avez indiqué que 60 % de nos clients proviennent des cinq principaux fabricants, mais la majeure partie de cette activité s'adresse en réalité à des clients externes. Par exemple, sur AWS, la puissance de calcul de NVIDIA est principalement mise à la disposition de clients externes et n'est pas utilisée par AWS elle-même. Sur Azure, nos clients sont également pour la plupart des clients externes ; il en va de même pour OCI. Ils nous choisissent parce que notre champ d'action est très vaste.

Nous pouvons leur apporter les meilleurs clients au monde, et ces clients-là mêmes s'appuient sur la plateforme NVIDIA. Et ces entreprises s'appuient sur NVIDIA, car notre couverture et notre flexibilité sont exceptionnelles.

Je pense donc que ce cercle vertueux fonctionne : la base installée, la programmabilité de l'architecture et l'enrichissement constant de l'écosystème. De plus, il existe aujourd'hui des milliers d'entreprises spécialisées dans l'IA à travers le monde. Si vous faisiez partie d'une start-up spécialisée dans l'IA, quelle architecture choisiriez-vous ? Vous opteriez pour la plus populaire, celle qui compte le plus grand nombre d'utilisateurs et qui dispose de l'écosystème le plus riche. C'est le principe de fonctionnement de ce volant d'inertie.

Voici donc les raisons :

· Tout d'abord, notre rendement par dollar est très élevé, d'où le coût par jeton le plus bas ;

· Deuxièmement, notre rendement par watt est le plus élevé au monde ; si un partenaire construit un centre de données d'une capacité de 1 GW, celui-ci doit générer le plus grand nombre de jetons, c'est-à-dire le plus de revenus. Et notre architecture permet de produire le plus grand nombre de jetons par unité de consommation électrique.

·Troisièmement, si votre objectif est de louer de la puissance de calcul, c'est chez nous que vous trouverez le plus grand nombre de clients à l'échelle mondiale.

C'est pour cette raison que ce volant d'inertie a été conçu.

Dwarkesh Patel :
Très intéressant. Je pense que le nœud du problème réside dans la nature réelle de la structure du marché. Même avec un grand nombre d'entreprises, un scénario pourrait se présenter : il existe des milliers d'entreprises spécialisées dans l'IA, qui partagent toutes, dans l'ensemble, leur puissance de calcul.

Mais si, en réalité, ce sont les entreprises spécialisées dans les modèles fondamentaux, comme Anthropic et OpenAI, qui exploitent réellement la puissance de calcul via ces fournisseurs de cloud hyperscale, et qu'elles ont la capacité de faire fonctionner différents accélérateurs.

Jensen Huang :
Je pense que ton postulat est erroné.

Dwarkesh Patel :
Peut-être. Je vais reformuler ça. Si ces affirmations concernant les performances et les coûts sont vraies, pourquoi des entreprises comme Anthropic, qui vient d'annoncer il y a quelques jours une collaboration avec Broadcom et Google pour la mise au point d'un TPU d'une capacité de plusieurs exajoules, ont-elles pris cette décision ? Et la majeure partie de leur puissance de calcul provient de ces systèmes. Pour Google, le TPU est la principale source de puissance de calcul. Si l'on regarde ces grandes entreprises spécialisées dans l'IA, elles utilisaient toutes NVIDIA auparavant, mais ce n'est plus le cas aujourd'hui.

Si ces avantages sont valables en théorie, pourquoi choisiraient-ils quand même d'autres accélérateurs ?

Jensen Huang :
Anthropic est un cas assez particulier. Sans Anthropic, la croissance de TPU serait pratiquement inexistante. La croissance de TPU provient presque exclusivement d'Anthropic. De même, sans Anthropic, la demande croissante en matière de formation serait pratiquement inexistante.

C'est un fait indéniable. Les occasions de ce genre ne courent pas les rues ; en réalité, il n'y a qu'une seule entreprise comme Anthropic.

Dwarkesh Patel :
Mais OpenAI collabore également avec AMD, et les deux entreprises développent leur propre accélérateur Titan.

Remarque : AMD (Advanced Micro Devices) est une entreprise américaine spécialisée dans les semi-conducteurs qui conçoit principalement des puces informatiques et qui est l'un des principaux concurrents de NVIDIA et d'Intel

Jensen Huang :
Mais la grande majorité d'entre eux utilisent toujours NVIDIA. Nous continuerons à collaborer étroitement. Je ne m'énerve pas quand les autres essaient d'autres solutions. S'ils n'essaient pas d'autres solutions, comment pourraient-ils savoir à quel point la nôtre est efficace ?

Il est parfois nécessaire de le réaffirmer par la comparaison. Et nous devons aussi sans cesse prouver que nous méritons notre poste actuel.

Il y a toujours eu toutes sortes d'affirmations sur le marché. Vous pouvez voir combien de projets ASIC ont été annulés. Ce n'est pas parce que vous vous lancez dans la fabrication d'ASIC que vous êtes capable de créer quelque chose de meilleur que NVIDIA.

En fait, ce n'est pas facile. On peut même dire que, d'un point de vue rationnel, cela ne tient pas vraiment la route. À moins que NVIDIA n'ait vraiment commis une grave erreur sur certains points. Mais compte tenu de notre envergure et de notre rythme de croissance, nous sommes la seule entreprise au monde à réaliser des progrès significatifs chaque année.

Dwarkesh Patel :
Leur raisonnement est le suivant : Tu n'as pas besoin d'être meilleur que NVIDIA, mais tu ne dois surtout pas être 70 % moins performant qu'eux, car ils estiment que ta marge bénéficiaire est de 70 %.

Jensen Huang :
Mais n'oubliez pas que, même avec les ASIC, la marge bénéficiaire est en réalité très élevée. La marge bénéficiaire de NVIDIA se situe entre 60 % et 70 %, et celle des ASIC pourrait également avoisiner les 65 %. Alors, combien avez-vous réellement économisé ?


Il faut toujours payer quelqu'un. D'après ce que j'ai pu constater, la marge bénéficiaire de ces entreprises spécialisées dans les ASIC est en réalité très élevée ; elles en sont d'ailleurs elles-mêmes convaincues et en tirent une grande fierté.

Autrefois, nous n'avions en fait pas les moyens de le faire. Et pour être honnête, à l'époque, je ne comprenais pas vraiment à quel point il est difficile de mettre en place un laboratoire de modèles fondamentaux comme OpenAI ou Anthropic. Je ne m'étais pas non plus pleinement rendu compte qu'ils avaient en réalité besoin d'un soutien massif en matière d'investissements du côté de l'offre.

À l'époque, nous n'avions pas les moyens de réaliser des investissements de plusieurs milliards de dollars, comme celui dans Anthropic pour que cette entreprise utilise notre puissance de calcul. Mais Google et AWS en ont les moyens : ils ont investi des sommes colossales dès le départ, et en échange, Anthropic utilise leur puissance de calcul.

À l'époque, nous n'en avions pas la possibilité, et je dois dire que c'était de ma faute : Je ne m'étais pas vraiment rendu compte qu'ils n'avaient en fait pas d'autre choix. Les sociétés de capital-risque ne peuvent pas investir 5 ou 10 milliards de dollars pour soutenir un laboratoire d'IA et s'attendre à ce qu'il devienne un jour une entreprise comme Anthropic.

C'était une erreur de ma part. Mais même si je m'en étais rendu compte à l'époque, je ne pense pas que nous en avions les moyens à ce stade.

Mais je ne referai plus la même erreur. Je suis ravi d'investir dans OpenAI, et je suis également ravi de les aider à se développer ; je pense que c'est nécessaire. Quand Anthropic nous a contactés par la suite, j'ai également été ravi de devenir investisseur et de les aider à se développer.

C'est justement à ce moment-là que nous n'avons vraiment pas pu le faire. Si on pouvait tout recommencer, si Nvidia avait déjà été aussi puissante qu'aujourd'hui à l'époque, je serais tout à fait disposé à faire tout ça.

Pourquoi Nvidia ne se lance-t-elle pas dans le « cloud » ?

Dwarkesh Patel :
C'est très intéressant. Au fil des ans, Nvidia a toujours été une entreprise qui « vend des pelles pour gagner de l'argent » dans le domaine de l'IA, et elle a engrangé d'énormes profits. Et maintenant, vous commencez à investir cet argent. Selon certaines informations, vous auriez investi 30 milliards de dollars dans OpenAI et 10 milliards de dollars dans Anthropic. Et la valorisation de ces entreprises ne cesse d'augmenter.

Si l'on revient sur ces dernières années, vous leur avez fourni la puissance de calcul nécessaire, vous avez su anticiper les tendances, et à l'époque, leur valorisation ne représentait qu'un dixième de ce qu'elle est aujourd'hui, voire bien moins qu'il y a tout juste un an. Et tu avais beaucoup d'argent liquide à l'époque.

Il y a en fait une possibilité : Nvidia aurait pu devenir elle-même une valeur de référence, ou investir massivement plus tôt à une valorisation plus faible, à l'instar de ce que vous faites actuellement.

Alors, je suis vraiment curieux : pourquoi tu ne l'as pas fait plus tôt ?

Jensen Huang :
Nous l'avons fait dès que nous en avons eu la possibilité. Si nous avions pu le faire à l'époque, je l'aurais fait plus tôt. Si Anthropic avait eu besoin de notre aide au début, je l'aurais fait. Mais à l'époque, nous n'en avions vraiment pas les moyens.

Cela dépassait nos capacités et nos habitudes en matière de prise de décision.

Dwarkesh Patel :
Était-ce un problème de financement, ou bien… ?

Jensen Huang :
Oui, c'était une question d'ampleur de l'investissement. À l'époque, nous n'avions pratiquement aucune tradition d'investissement extérieur, et encore moins d'un tel ampleur. Et nous ne nous étions pas rendu compte que c'était nécessaire.

À l'époque, je me disais qu'ils pourraient aller chercher des fonds de capital-risque, comme n'importe quelle autre entreprise. Mais ce qu'ils voulaient faire dépassait en réalité ce que le capital-risque pouvait financer. Ce qu'OpenAI souhaitait faire était également un projet que le capital-risque ne pouvait pas financer.

C'est quelque chose dont je me suis rendu compte plus tard. Mais c'est là qu'ils ont fait preuve d'intelligence. Ils ont compris à ce moment-là qu'ils devaient s'engager dans cette voie. Je suis content qu'ils l'aient fait. Même si nous n'avons pas pu participer à l'époque, ce qui a conduit Anthropic à se tourner vers d'autres partenaires, je continue de penser que c'est une bonne chose. L'existence d'Anthropic est une bonne chose pour le monde entier, et j'en suis ravi. Certains regrets sont acceptables.

Dwarkesh Patel :
La question revient donc toujours au même point : Maintenant que vous disposez d'une telle trésorerie et que celle-ci ne cesse de croître, comment NVIDIA devrait-elle utiliser ces fonds ?

Une hypothèse est qu'il existe désormais un écosystème intermédiaire qui aide ces laboratoires d'IA à transformer leurs dépenses d'investissement (capex) en dépenses d'exploitation (opex) afin qu'ils puissent louer de la puissance de calcul.

Les GPU sont certes coûteux, mais à mesure que les modèles évoluent, ils peuvent générer en continu des jetons de plus grande valeur tout au long de leur cycle de vie. Et NVIDIA est elle-même en mesure de supporter ces dépenses d'investissement initiales. Par exemple, selon certaines informations, vous auriez apporté jusqu'à 6,3 milliards de dollars de soutien à CoreWeave et investi 2 milliards de dollars.

Alors pourquoi NVIDIA ne se lance-t-elle pas elle-même dans la fourniture de services cloud ? Pourquoi ne pas devenir un hyperscaler, créer son propre cloud et louer de la puissance de calcul ? Après tout, vous disposez des moyens financiers nécessaires.

Jensen Huang :
C'est une question de principe pour l'entreprise, et je pense que c'est une sage philosophie : nous devrions faire « autant que nécessaire et aussi peu que possible ».

Cela signifie que lorsqu'il s'agit de mettre en place une plateforme informatique, si nous ne nous en chargeons pas, je suis convaincu que personne d'autre ne le fera.

Si nous ne prenons pas ces risques, si nous ne développons pas NVLink, si nous ne mettons pas en place toute la pile logicielle, si nous ne créons pas cet écosystème, si nous n'investissons pas 20 ans dans CUDA (une période durant laquelle nous avons même essuyé des pertes financières), si nous ne faisons pas tout cela, personne d'autre ne le fera. Si nous ne développons pas ces bibliothèques CUDA-X spécialisées — qu'il s'agisse du ray tracing, de la génération d'images, des premiers modèles d'IA, du traitement des données, des données structurées ou du traitement des données vectorielles —, si nous ne le faisons pas, ces technologies n'existeront pas.

J'en suis tout à fait convaincu. Nous avons même développé une bibliothèque dédiée à la lithographie computationnelle, baptisée cuLitho : si nous ne le faisons pas, personne d'autre ne le fera.

C'est donc grâce à ces initiatives que le calcul accéléré a connu un tel essor aujourd'hui. C'est à cela que nous devons nous consacrer pleinement.

Mais parallèlement, il existe déjà de nombreux fournisseurs de services cloud dans le monde. Même si nous ne le faisons pas, quelqu'un d'autre le fera. Ainsi, selon le principe consistant à faire tout ce qui est nécessaire, mais le moins possible de tout le reste, ce concept a toujours été présent au sein de l'entreprise. Chaque décision que je prends est envisagée sous cet angle.

Dans le domaine du cloud, si nous n'avions pas soutenu CoreWeave dès le départ, ces nouveaux clouds IA (neocloud) n'existeraient peut-être pas. Si nous ne les avions pas soutenus, ils ne se seraient pas développés pour atteindre l'ampleur qu'ils ont aujourd'hui. Il en va de même pour Nscale et Nebius : sans notre soutien, ils ne seraient pas arrivés aussi loin. Et aujourd'hui, ils se sont tous très bien développés.


Mais est-ce une activité dans laquelle nous devrions nous impliquer personnellement ? Non. Nous restons fidèles à ce principe : faire ce qui est nécessaire, et pas plus que cela. Nous allons donc investir dans l'écosystème, car je souhaite que l'ensemble de l'écosystème prospère. Je souhaite que notre architecture relie autant de secteurs et de pays que possible, afin de permettre le développement de l'IA à l'échelle mondiale sur la base d'une pile technologique établie aux États-Unis.

Telle est la vision que nous défendons.

Par ailleurs, comme vous l'avez mentionné, il existe aujourd'hui de nombreuses entreprises spécialisées dans les modèles de base, et nous nous efforcerons d'y investir autant que possible.

Autre point : nous n'allons pas « choisir les gagnants ». Nous voulons aider tout le monde. C'est à la fois une nécessité commerciale et quelque chose que nous sommes prêts à faire. Ainsi, lorsque j'investis dans une entreprise, j'investis également dans d'autres.

Dwarkesh Patel :
Alors, pourquoi évites-tu délibérément de choisir les gagnants ?

Jensen Huang :
Parce que cela ne relève pas de notre responsabilité. C'est le premier point.

Deuxièmement, lorsque NVIDIA a été fondée, il existait environ 60 entreprises spécialisées dans le graphisme, 60 entreprises actives dans le domaine du graphisme 3D. Au final, nous sommes les seuls à avoir survécu. Si l'on devait choisir à l'époque l'une de ces 60 entreprises pour réussir, NVIDIA était sans doute celle qui avait le moins de chances d'y parvenir.

C'était avant que tu naisses, mais à l'époque, l'architecture graphique de NVIDIA était complètement ratée. Ce n'est pas juste un peu faux, c'est complètement faux. Nous avons conçu une architecture que les développeurs pouvaient à peine prendre en charge, et qui était vouée à l'échec. Nous l'avons déduit à partir de principes de base tout à fait raisonnables, mais nous sommes arrivés à une solution erronée.

Tout le monde pensait que nous n'y arriverions pas, mais nous avons quand même réussi à nous en sortir. J'ai donc suffisamment d'humilité pour l'admettre et ne pas chercher à prédire les vainqueurs. Soit on les laisse se débrouiller seuls, soit on aide tout le monde.

Dwarkesh Patel :
Il y a un point que je n'ai pas tout à fait compris. Vous avez dit que vous ne privilégiez pas délibérément la prise en charge de ces nouveaux fournisseurs de services cloud, mais vous venez également de mentionner que sans NVIDIA, ils n'existeraient peut-être pas. Comment ces deux points peuvent-ils coexister ?

Jensen Huang :
Tout d'abord, ils doivent vouloir vivre de manière autonome et solliciter activement notre aide. Lorsqu'ils ont une vision claire, un plan d'affaires, les compétences nécessaires et la passion – bien sûr, ils doivent également posséder un certain niveau de compétence –, s'ils ont besoin d'un soutien financier au démarrage, nous serons là pour eux.

Mais l'essentiel est qu'ils parviennent rapidement à créer leur propre dynamique. Votre question tout à l'heure était : voulons-nous nous lancer dans le secteur du financement ? La réponse est non. Nous ne souhaitons pas devenir un établissement financier. Il existe déjà de nombreux acteurs sur le marché qui proposent des solutions de financement, et nous préférons coopérer avec ces institutions financières plutôt que de nous charger nous-mêmes du financement.

Notre objectif est donc de nous concentrer sur notre propre activité, de garder notre modèle économique aussi simple que possible et, parallèlement, de soutenir l'ensemble de l'écosystème.

Jensen Huang :
Quand une entreprise comme OpenAI a besoin d’un investissement de 30 milliards de dollars avant son introduction en bourse, et que nous croyons fermement en elle — je pense personnellement qu’elle est déjà une entreprise extraordinaire et qu’elle deviendra une entreprise encore plus remarquable. Le monde a besoin qu'ils existent, tout le monde espère qu'ils existent, et moi aussi j'espère qu'ils existent. Ils ont tous les atouts pour réussir, c'est pourquoi nous les soutenons et les aidons à se développer.

C'est pourquoi nous allons réaliser ce type d'investissement, car ils ont besoin que nous le fassions. Mais notre principe n'est pas « faire autant que possible », mais « faire le moins possible ».

Dwarkesh Patel :
Cette question peut sembler un peu évidente, mais cela fait de nombreuses années que nous sommes confrontés à une pénurie de cartes graphiques, et à mesure que les modèles gagnent en puissance, cette situation s'accentue.

Jensen Huang :
Oui, nous sommes confrontés à une pénurie de cartes graphiques.

Dwarkesh Patel :
Et on estime que NVIDIA ne se contente pas de répartir ces ressources limitées en fonction de l'offre la plus élevée, mais qu'elle tient compte d'autres facteurs, comme la nécessité d'assurer la pérennité de ces nouveaux fournisseurs de services cloud — en attribuant une partie à CoreWeave, une autre à Crusoe et une autre encore à Lambda.

Tout d'abord, êtes-vous d'accord avec ce point de vue ? Deuxièmement, quels avantages cela apporte-t-il à NVIDIA ?

Jensen Huang :
Je pense que ton postulat est erroné. Bien sûr, nous examinerons ces questions avec la plus grande attention.

Tout d'abord, si vous n'avez pas de bon de commande (BC), aucune communication ne servira à quoi que ce soit. Avant toute chose, nous allons donc tout mettre en œuvre avec l'ensemble de nos clients pour établir des prévisions de la demande, car le cycle de production de ces produits est très long, tout comme la durée de construction des centres de données. Nous équilibrons l'offre et la demande grâce à des prévisions, ce qui est la première étape.

Deuxièmement, nous établirons des prévisions avec le plus grand nombre possible de clients. Mais au final, il faut quand même passer commande. Si vous ne passez pas de commande, je ne peux rien faire. Donc, à un moment donné, c'est « premier arrivé, premier servi ».

Toutefois, si votre centre de données n'est pas encore prêt, ou si certains composants essentiels ne sont pas disponibles, ce qui vous empêche temporairement de déployer le système, nous pourrions donner la priorité à d'autres clients. Il s'agit simplement d'optimiser le rendement global de nos usines.

Outre ce cas de figure, la règle de priorité est « premier arrivé, premier servi ». Vous devez passer une commande. Si vous ne passez pas de commande, c'est tout simplement impossible.

Bien sûr, il existe de nombreuses histoires. Par exemple, certains affirment que lors d'un dîner avec Larry, Elon et moi-même, ils auraient demandé un GPU — nous avons effectivement dîné ensemble, ce fut une soirée très agréable, mais ils n'ont jamais « demandé » de GPU. Il leur suffisait de passer commande. Une fois la commande passée, nous ferons tout notre possible pour vous fournir les capacités nécessaires. Ce n'est pas aussi compliqué que certains veulent bien le faire croire.

Dwarkesh Patel :
On dirait donc un mécanisme de mise en file d'attente, qui dépend du moment où vous passez la commande et de la disponibilité du centre de données. Mais cela ne revient tout de même pas simplement à dire « le plus offrant l'emporte », n'est-ce pas ?

Jensen Huang :
On ne fait jamais ça.

Dwarkesh Patel :
Ne jamais attribuer en fonction de l'offre la plus élevée ?

Jensen Huang :
Jamais. Car c'est une pratique commerciale déplorable.

C'est vous qui fixez le prix, et c'est le client qui décide s'il achète ou non. Je sais que certaines entreprises du secteur augmentent leurs prix lorsque la demande augmente, mais ce n'est pas notre cas. Cela n'a jamais été notre habitude. Nos clients peuvent compter sur nous. Je préfère être une valeur sûre, un pilier du secteur. Vous n'avez pas à vous soucier des variations de prix.

Si je vous donne un devis, c'est le prix définitif. Même si la demande explose, cela ne changera rien.

Dwarkesh Patel :
C'est donc aussi l'une des raisons qui expliquent la solidité de votre relation avec TSMC, n'est-ce pas ?

Jensen Huang :
NVIDIA et TSMC collaborent depuis près de 30 ans. Il n'y a même pas de contrat juridique officiel entre NVIDIA et TSMC ; il s'agit plutôt d'un accord de principe. Parfois j'ai raison, parfois j'ai tort ; parfois j'obtiens de meilleures conditions, parfois des conditions moins avantageuses. Mais dans l'ensemble, cette relation est remarquable. Je peux leur faire entièrement confiance et compter sur eux.

De plus, en ce qui concerne NVIDIA, une chose est sûre : cette année, Rubin sera exceptionnel ; l'année prochaine, Vera Rubin Ultra sera lancé ; l'année suivante, ce sera au tour de Feynman ; et l'année d'après, un modèle dont je n'ai pas encore dévoilé le nom. En d'autres termes, vous pouvez compter sur nous chaque année. Vous devez trouver une autre équipe spécialisée dans les ASIC à l'échelle mondiale et voir si l'une d'entre elles vous donne envie de dire : « Je suis prêt à miser toute l'entreprise sur vous, car je suis convaincu que vous me soutiendrez année après année. »

Le coût de mon jeton diminuera d'un ordre de grandeur chaque année, et je peux m'y fier aussi sûrement qu'à une horloge. Je viens justement de dire quelque chose de similaire à propos de TSMC. Aucune usine de fabrication de plaquettes n'a jamais permis de dire cela.

Mais aujourd'hui, on peut dire cela de NVIDIA. Vous pouvez compter sur nous, année après année.

Que vous souhaitiez acheter pour 1 milliard de dollars de puissance de calcul pour l'IA en milieu industriel, pas de problème ; que vous souhaitiez en acheter pour 100 millions, pas de problème non plus ; que vous souhaitiez en acheter pour 10 millions, voire un seul rack, pas de problème ; et même si vous ne souhaitez acheter qu'un seul GPU, pas de problème. Si vous souhaitez ensuite passer une commande d'un billion de dollars pour une usine d'IA, aucun problème non plus.

Aujourd'hui, nous sommes la seule entreprise au monde à pouvoir affirmer cela. Et je peux aussi dire ceci à TSMC : Je veux acheter un milliard de dollars, pas de problème. Il nous suffit de planifier ensemble, de suivre la procédure et de faire ce que ferait toute entreprise sérieuse.

Je pense donc que NVIDIA peut devenir le pilier de l'industrie mondiale de l'IA, une position que nous avons mis des décennies à atteindre. On y consacre des moyens considérables et une grande attention, et la stabilité et la cohérence de l'entreprise revêtent une importance capitale.

Pourquoi NVIDIA rejette le « pari sur plusieurs feuilles de route »

Dwarkesh Patel :
Cela soulève en fait une question très intéressante. Nous avons déjà parlé de TSMC, des goulots d'étranglement en matière de mémoire, etc. Or, si nous nous retrouvons dans une situation de ce genre : vous avez déjà utilisé la majeure partie de la capacité N3, et à l'avenir, vous pourriez également utiliser la majeure partie de la capacité N2. Envisageriez-vous de revenir à des nœuds de fabrication plus anciens, comme le 7 nm, pour exploiter leur capacité inutilisée ?

Par exemple, si la demande en matière d'IA est trop forte et que la montée en puissance du nœud de fabrication le plus avancé ne parvient pas à suivre le rythme, il est alors possible de tirer parti de toute l'expérience acquise à ce jour en matière d'optimisation numérique et de conception de systèmes pour créer une nouvelle version de Hopper ou d'Ampere. Pensez-vous que cette situation se produira avant 2030 ?

Jensen Huang :
Ce n'est pas nécessaire. La raison en est que les progrès de chaque génération architecturale ne se limitent pas à une simple évolution de la taille des transistors. Vous avez également mené de nombreux travaux d'ingénierie dans les domaines de l'emballage, de l'empilage, des systèmes numériques et de l'architecture des systèmes. À ce stade, revenir à une ancienne version du nœud nécessiterait un investissement en R&D que personne ne peut se permettre. Nous pouvons nous permettre d'aller de l'avant, mais je ne pense pas que nous puissions nous permettre de revenir en arrière.

Bien sûr, si l'on se livre à une réflexion théorique : imaginons qu'un jour, tout le monde affirme que la capacité de production ne pourra plus jamais augmenter. Est-ce que je reviendrais immédiatement au 7 nm ? Bien sûr, sans aucun doute.

Dwarkesh Patel :
J'ai récemment discuté avec quelqu'un d'une question : pourquoi NVIDIA ne mène-t-elle pas de front plusieurs projets de puces totalement différents ? Par exemple, vous pourriez en concevoir une sur le modèle de l'architecture à l'échelle de la plaquette de Cerebras, une autre sur le modèle des grands boîtiers de Dojo, et une troisième qui ne repose pas sur CUDA.

Vous disposez des ressources et des compétences techniques nécessaires pour mener ces tâches de front. Puisque personne ne sait avec certitude quelle direction prendront l'IA ou l'architecture à l'avenir, pourquoi tout miser sur une seule option ?

Jensen Huang :
Nous pourrions certainement le faire. C'est juste qu'on n'a pas trouvé de meilleure solution. Nous avons simulé tous ces éléments, et il est probable qu'ils soient moins performants dans notre émulateur. Alors on ne le fera pas. Ce que nous faisons actuellement, c'est ce que nous voulons vraiment faire et ce que nous estimons être la meilleure chose à faire.

Bien sûr, si la charge de travail future subit elle-même un changement radical — je ne parle pas ici de modifications des algorithmes, mais d'un véritable changement de la charge de travail —, nous pourrions alors ajouter d'autres types d'accélérateurs.


Par exemple, nous avons récemment ajouté Grok, et nous allons l'intégrer à l'écosystème CUDA. C'est ce que nous faisons en ce moment. En effet, la valeur des jetons ayant considérablement augmenté, un même modèle, en fonction des vitesses de réponse, peut correspondre à des tranches de prix différentes.

Il y a quelques années, les jetons étaient presque gratuits, ou tellement bon marché qu'ils en étaient presque gratuits. Mais aujourd'hui, chaque client a des exigences différentes en matière de jetons. Et ces clients peuvent eux-mêmes en tirer de gros bénéfices. Par exemple, pour les ingénieurs en informatique, si je peux leur fournir un jeton leur permettant de réagir plus rapidement et d'être ainsi plus efficaces qu'aujourd'hui, je suis prêt à payer pour cela.


Mais ce type de marché n'est apparu que récemment. Je pense donc que, pour la première fois, nous avons véritablement la possibilité de proposer le même modèle sur différents segments de marché en fonction du délai de réponse.

C'est aussi pour cette raison que nous avons décidé d'étendre cette frontière de Pareto afin de créer une branche d'inférence « à réponse plus rapide, mais à débit moindre ». Car, par le passé, le débit élevé était toujours la priorité absolue. Mais nous pensons désormais qu'à l'avenir, il pourrait exister un type de jeton à prix unitaire élevé. Même si le rendement de l'usine est moindre, le prix unitaire suffit à compenser cette baisse.

C'est pour cette raison que nous faisons cela. Mais si l'on se limite à l'architecture proprement dite, je dirais que, si j'avais plus d'argent, j'investirais davantage dans l'architecture existante.

Dwarkesh Patel :
Je trouve l'idée de ce « jeton ultra-haut de gamme » et la stratification du marché de l'inférence très intéressantes.


Une dernière question. Si la révolution du deep learning n'avait jamais eu lieu, que ferait NVIDIA aujourd'hui ?

Jensen Huang :
Bien sûr, le jeu vidéo resterait une priorité, mais nous poursuivrions également nos activités dans le domaine du calcul accéléré. Cela a toujours été notre voie.

Le principe fondamental de notre entreprise repose sur l'hypothèse que la loi de Moore va ralentir. L'informatique générale est très utile dans de nombreux domaines, mais elle n'est pas la solution idéale pour toutes les tâches de calcul. Nous combinons donc l'architecture du GPU avec celle du CPU afin d'accélérer les tâches du CPU. Différents noyaux de code et différents algorithmes peuvent être déchargés pour s'exécuter sur le GPU. De cette manière, une application peut être 100 ou 200 fois plus rapide.

Dans quel contexte cela serait-il utilisé ? Eh bien, dans l'ingénierie, les sciences, la physique, le traitement des données, l'infographie, la génération d'images et bien d'autres domaines encore.


Ainsi, même si l'IA n'existait pas aujourd'hui, NVIDIA resterait une très grande entreprise. La raison est tout à fait fondamentale : les possibilités d'extension de l'informatique générale ont pratiquement atteint leurs limites. Et l'un des moyens d'améliorer les performances — un moyen essentiel, mais pas le seul — consiste à recourir à l'accélération spécifique au domaine.

Nous avons commencé par nous lancer dans l'infographie, mais il existe bien d'autres domaines. Tels que divers calculs scientifiques, la physique des particules, les simulations de fluides, le traitement de données structurées, etc. — divers types d'algorithmes pouvant tirer parti de CUDA.


Notre mission a donc toujours été de mettre l'informatique accélérée à la portée de tous, afin de faire progresser les applications que l'informatique générale ne peut pas réaliser, ou pour lesquelles elle ne peut pas atteindre le niveau de performance requis, et ainsi contribuer à des avancées décisives dans le domaine scientifique. Nos premières applications concernaient notamment la dynamique moléculaire, le traitement sismique pour l'exploration énergétique et, bien sûr, le traitement d'images.

Dans tous ces domaines, l'informatique générale s'est avérée trop peu efficace en soi. Alors oui, s'il n'y avait pas d'IA, ça me rendrait triste. Mais c'est précisément grâce aux progrès réalisés dans le domaine de l'informatique que nous avons démocratisé l'apprentissage profond. Nous avons permis à tout chercheur, à tout scientifique, à tout étudiant, où qu'il se trouve, d'utiliser un PC ou un GPU GeForce pour faire des découvertes scientifiques remarquables. Et cet engagement fondamental n'a jamais faibli, pas le moins du monde.

Si vous jetez un œil à la GTC, vous constaterez qu'une grande partie du contenu n'a en réalité rien à voir avec l'IA. Qu'il s'agisse de lithographie computationnelle, de chimie quantique ou de traitement des données, ces domaines sont tous importants, mais n'ont aucun rapport avec l'IA. Je sais que l'IA est fascinante et très passionnante.

Cependant, il y a encore beaucoup de gens qui accomplissent un travail très important sans rapport avec l'IA. Le calcul tensoriel n'est pas leur seul mode de calcul. Et nous voulons venir en aide à toutes ces personnes.

Dwarkesh Patel :
Jensen, merci beaucoup.

Jensen Huang :
De rien, j'ai vraiment apprécié cette conversation.

[Lien vers l'article original]

Vous pourriez aussi aimer

Abraxas Capital émet 2,89 milliards de USDT : Un coup de pouce à la liquidité ou simplement plus d'arbitrage de stablecoins ?

Abraxas Capital vient de recevoir 2,89 milliards de dollars en USDT fraîchement émis de Tether. S'agit-il d'une injection de liquidité haussière pour les marchés de la crypto, ou est-ce le train-train habituel pour un géant de l'arbitrage de stablecoins ? Nous analysons les données et l'impact probable sur le Bitcoin, les altcoins et la DeFi.

Un VC du monde de la Crypto a déclaré que l'IA est trop folle, et qu'ils sont très conservateurs

Au milieu de la frénésie Crypto et avec des investisseurs qui ont autrefois raté Pinduoduo, un nouveau fonds d'IA appelé Impa Ventures a été créé, rejetant les récits de bulle et adhérant à une stratégie conservatrice "problème d'abord" pour rechercher une véritable valeur commerciale.

L'histoire évolutive des algorithmes de contrats : Une décennie de contrats perpétuels, le rideau n'est pas encore tombé

L’évolution en dix ans des contrats perpétuels : du débranchement de la 312 au choquant short squeeze de la TRB, une plongée en profondeur dans la machine à établir les prix qui rapporte en moyenne 200 milliards de dollars par jour, écrits avec d’innombrables liquidations et de l’argent réel, détaillant le sang et les larmes de la théorie du contrôle des risques.

Actualités sur les ETF Bitcoin aujourd'hui : des entrées de 2,1 milliards de dollars signalent une forte demande institutionnelle pour le BTC

Les actualités sur les ETF Bitcoin ont enregistré des entrées de <g id='1'>2,1 milliards de dollars sur 8 jours consécutifs</g>, marquant l'une des plus fortes séquences d'accumulation récentes. Voici ce que signifient les dernières actualités sur les ETF Bitcoin pour le prix du BTC et si le niveau de rupture de 80 000 $ est le prochain.

Mis à la porte par PayPal, Musk veut faire son retour sur le marché des cryptomonnaies

Cashtags a généré un volume de trading de 1 milliard de dollars quelques jours seulement après son lancement, marquant un bon début pour la stratégie de super application de Musk. Pour le marché des cryptomonnaies, la disposition de X pourrait être l'une des sources de croissance les plus attendues pour le commerce de détail après que la folie des meme coins se sera calmée.

Michael Saylor : L'hiver est terminé – a-t-il raison ? 5 points de données clés (2026)

Michael Saylor a tweeté hier « L'hiver est terminé. » C'est court. C'est audacieux. Et cela fait parler le monde de la crypto.

Mais a-t-il raison ? Ou est-ce juste un autre PDG qui fait monter ses actions ?

Examinons les données. Soyons neutres. Voyons si la glace a vraiment fondu.

Cryptos populaires

Dernières actus crypto

Lire plus