Discurso completo de Huang Renxun en la GTC: Ha llegado la era de la inferencia, con ingresos que se espera que alcancen al menos un billón de dólares para 2027, y la langosta es el nuevo sistema operativo

By: rootdata|2026/03/17 12:53:29
0
Compartir
copy

El 16 de marzo de 2026, la conferencia GTC 2026 de NVIDIA se inauguró oficialmente, con el discurso de apertura del fundador y CEO de NVIDIA, Jensen Huang.

En esta conferencia, considerada la "peregrinación anual de la industria de la IA", Huang explicó la transformación de NVIDIA de una "empresa de chips" a una "empresa de infraestructura y fábrica de IA". Abordando las preocupaciones del mercado sobre la sostenibilidad del rendimiento y el potencial de crecimiento, Huang detalló la lógica empresarial subyacente que impulsa el crecimiento futuro: "Economía de la fábrica de tokens".

La orientación de rendimiento es extremadamente optimista: "Al menos 1 billón de dólares en demanda para 2027".

En los últimos dos años, la demanda mundial de computación de IA ha explotado exponencialmente. A medida que los grandes modelos evolucionan de la "percepción" y la "generación" a la "razonamiento" y la "acción (ejecución de tareas)", el consumo de potencia informática ha aumentado dramáticamente. En respuesta a las preocupaciones del mercado sobre los límites de pedidos e ingresos, Huang ofreció expectativas muy sólidas.

Huang declaró en su discurso:

El año pasado, en esta época, mencioné que veíamos una demanda de alta confianza de $500 mil millones, que cubría a Blackwell y Rubin hasta 2026. Ahora, aquí y ahora, veo una demanda de al menos $1 billón para 2027.

La expectativa de billones de dólares de Huang impulsó el precio de las acciones de NVIDIA en más del 4,3%.

Además, él complementó aún más esta cifra:

¿Es esto razonable? De eso voy a hablar a continuación. De hecho, incluso podríamos enfrentar escasez de suministro. Estoy seguro de que la demanda real de computación será mucho mayor.

Huang señaló que los sistemas de NVIDIA de hoy en día han demostrado ser la "infraestructura de menor coste" del mundo. Debido a que NVIDIA puede ejecutar modelos de IA en casi todos los campos, esta versatilidad garantiza que los 1 billón de dólares invertidos por los clientes puedan utilizarse y mantenerse plenamente durante un ciclo de vida prolongado.

Actualmente, el 60 % del negocio de NVIDIA proviene de los cinco principales proveedores de servicios en la nube de hiperescala, mientras que el 40 % restante está ampliamente distribuido entre nubes soberanas, empresas, industrias, robótica e informática en la periferia.

Economía de la fábrica de tokens, donde el rendimiento por vatio determina la sangre vital del negocio

Para explicar la razonabilidad de esta demanda de 1 billón de dólares, Huang presentó una nueva mentalidad empresarial a los directores ejecutivos de empresas globales. Señaló que los futuros centros de datos ya no serán almacenes para guardar archivos, sino "fábricas" que produzcan Tokens (la unidad básica generada por la IA).

Huang enfatizó:

Cada centro de datos, cada fábrica, está definida como limitada por la energía. Una fábrica de 1 GW (gigavatio) nunca se convertirá en una fábrica de 2 GW; esta es una ley de la física y de los átomos. Con una potencia fija, quien tenga el mayor rendimiento de tokens por vatio tendrá los costos de producción más bajos.

Huang clasificó los futuros servicios de IA en cuatro niveles de negocio:

  • Nivel gratuito (alto rendimiento, baja velocidad)
  • Nivel intermedio (~$3 por millón de tokens)
  • Nivel alto (~$6 por millón de tokens)
  • Nivel de alta velocidad (~$45 por millón de tokens)
  • Nivel de velocidad ultraalta (~$150 por millón de tokens)

Señaló que a medida que los modelos crecen y los contextos se alargan, la IA se volverá más inteligente, pero la tasa de generación de tokens disminuirá. Huang afirmó:

En esta Fábrica de Tokens, su rendimiento y velocidad de generación de tokens se traducirán directamente en sus ingresos precisos para el próximo año.

Huang enfatizó que la arquitectura de NVIDIA permite a los clientes lograr un rendimiento extremadamente alto en el nivel gratuito, mientras que logran una asombrosa mejora del rendimiento de 35 veces en el nivel de inferencia de mayor valor.

Vera Rubin logra una aceleración 350 veces mayor en dos años, Groq cierra la brecha para una inferencia ultra rápida

Bajo las limitaciones de los límites físicos, NVIDIA presentó su sistema de computación de IA más complejo de la historia, Vera Rubin. Huang afirmó:

En el pasado, cuando mencionaba Hopper, mostraba un chip, lo cual era genial. Pero cuando menciono Vera Rubin, todos piensan en todo el sistema. En este sistema con refrigeración líquida al 100 %, que elimina por completo el cableado tradicional, los racks que antes tardaban dos días en instalarse ahora solo tardan dos horas.

Huang señaló que, mediante un diseño extremo de hardware y software de extremo a extremo, Vera Rubin creó un asombroso salto de datos dentro del mismo centro de datos de 1 GW:

En solo dos años, hemos aumentado la tasa de generación de tokens de 22 millones a 700 millones, logrando un crecimiento de 350 veces. La Ley de Moore durante el mismo período solo pudo lograr un aumento de 1,5 veces.

Para abordar el cuello de botella del ancho de banda en condiciones de inferencia ultrarrápida (como 1000 tokens/segundo), NVIDIA proporcionó la solución final mediante la integración de la empresa adquirida Groq: inferencia separada asimétrica. Huang explicó:

Estos dos procesadores tienen características completamente diferentes. El chip Groq tiene 500 MB de SRAM, mientras que un chip Rubin tiene 288 GB de memoria.

Huang señaló que NVIDIA, a través del sistema de software Dynamo, asigna la etapa de "pre-llenado", que requiere una computación masiva y memoria de video, a Vera Rubin, mientras que la etapa de "decodificación", que es extremadamente sensible a la latencia, se asigna a Groq. Huang también proporcionó sugerencias para la configuración de la potencia informática empresarial:

Si su carga de trabajo es principalmente de alto rendimiento, use el 100% de Vera Rubin; si tiene una gran cantidad de necesidades de generación de tokens a nivel de programación de alto valor, asigne el 25% de la capacidad de su centro de datos a Groq.

Se reveló que el chip Groq LP30, fabricado por Samsung, ha entrado en producción masiva y se espera que se envíe en el tercer trimestre, mientras que el primer rack Vera Rubin ya está en funcionamiento en Microsoft Azure.

Además, en cuanto a la tecnología de interconexión óptica, Huang presentó el primer conmutador óptico copacelado (CPO) producido en masa del mundo, Spectrum X, y disipó las preocupaciones del mercado sobre la ruta de "transición de cobre a óptico":

Necesitamos más capacidad de cable de cobre, más capacidad de chip óptico y más capacidad de CPO.

Precio de --

--

El agente pone fin al SaaS tradicional, "salario + Token" se convierte en estándar en Silicon Valley

Además de las barreras de hardware, Huang dedicó una parte significativa de su discurso a la revolución en el software y los ecosistemas de IA, en particular la explosión de los agentes.

Lo describió como el proyecto de código abierto OpenClaw como "el proyecto de código abierto más popular de la historia de la humanidad", afirmando que superó los logros de Linux en los últimos 30 años en solo unas pocas semanas. Huang afirmó sin rodeos que OpenClaw es, en esencia, el "sistema operativo" para las computadoras de agentes.

Huang afirmó:

Todas las empresas de SaaS (Software como servicio) se transformarán en empresas de AaaS (Agente como servicio). No cabe duda de que, para desplegar de forma segura estos agentes, que tienen la capacidad de acceder a datos sensibles y ejecutar código, NVIDIA ha lanzado un diseño de referencia de NeMo Claw a nivel empresarial, que añade un motor de políticas y un enrutador de privacidad.

Para los profesionales comunes, esta transformación también está a la vuelta de la esquina. Huang imaginó una nueva forma de lugar de trabajo en el futuro:

En el futuro, cada ingeniero de nuestra empresa necesitará un presupuesto anual de tokens. Su salario base puede ser de cientos de miles de dólares, y asignaré aproximadamente la mitad de esa cantidad como una cuota de tokens, lo que les permitirá lograr un aumento de eficiencia de 10x. Esto ya se ha convertido en un nuevo chip de contratación en Silicon Valley: ¿cuántos tokens vienen con su oferta?

Al final del discurso, Huang también "spoileó" la arquitectura informática de próxima generación, Feynman, que logrará la primera escalabilidad horizontal conjunta de cables de cobre y CPOs. Más intrigante aún, NVIDIA está desarrollando una computadora para centros de datos espaciales, "Vera Rubin Space-1", que abre completamente la imaginación del poder de la computación de IA que se extiende más allá de la Tierra.

El texto completo del discurso de Jensen Huang en la GTC 2026 es el siguiente (con asistencia de herramientas de IA):

Presentador: Damos la bienvenida al fundador y CEO de NVIDIA, Jensen Huang, al escenario.

Jensen Huang, fundador y director ejecutivo:

Bienvenidos a GTC. Quiero recordar a todos que esta es una conferencia tecnológica. Me complace mucho ver a tanta gente haciendo cola para entrar temprano en la mañana y ver a todos ustedes aquí.

En GTC, nos centraremos en tres temas principales: tecnología, plataforma y ecosistema. NVIDIA cuenta actualmente con tres plataformas principales: la plataforma CUDA-X, la plataforma de sistemas y nuestra plataforma de fábrica de IA recién lanzada.

Antes de comenzar oficialmente, quiero dar las gracias a los anfitriones de nuestra sesión de calentamiento: Sarah Guo de Conviction, Alfred Lin de Sequoia Capital (el primer capital riesgo de NVIDIA) y Gavin Baker, el primer gran inversor institucional de NVIDIA. Estas tres personas tienen una visión profunda de la tecnología y una amplia influencia en todo el ecosistema tecnológico. Por supuesto, también quiero dar las gracias a todos los distinguidos invitados que invité personalmente a asistir hoy. Gracias a este equipo de estrellas.

También quiero dar las gracias a todas las empresas presentes hoy. NVIDIA es una empresa de plataformas y contamos con tecnología, plataformas y un rico ecosistema. Las empresas presentes hoy representan a casi todos los participantes de la industria de 100 billones de dólares, con 450 empresas que patrocinan este evento, por lo que estoy profundamente agradecido.

Esta conferencia cuenta con 1.000 foros técnicos y 2.000 oradores, que cubren todos los niveles de la arquitectura de "cinco capas" de la IA, desde la infraestructura como la tierra, la energía y los centros de datos, hasta los chips, las plataformas, los modelos y las diversas aplicaciones que, en última instancia, impulsan toda la industria hacia adelante.

CUDA: Dos décadas de acumulación tecnológica

Todo comienza aquí. Este año se cumple el 20 aniversario de CUDA.

Durante los últimos veinte años, nos hemos dedicado al desarrollo de esta arquitectura. CUDA es una invención revolucionaria: la tecnología SIMT (Single Instruction Multiple Threads) permite a los desarrolladores escribir programas en código escalar y extenderlos a aplicaciones multihilo, con una dificultad de programación mucho menor que la de las arquitecturas SIMD anteriores. Recientemente hemos añadido la función de baldosas para ayudar a los desarrolladores a programar los núcleos tensor de manera más conveniente, así como diversas estructuras de operaciones matemáticas en las que se basa la IA actual. Actualmente, CUDA cuenta con miles de herramientas, compiladores, marcos y bibliotecas, con cientos de miles de proyectos públicos en la comunidad de código abierto, y se ha integrado profundamente en todos los ecosistemas tecnológicos.

Este gráfico revela la lógica estratégica del 100 % de NVIDIA, que he estado discutiendo desde el principio. El elemento más difícil y central es la "base instalada" en la parte inferior del gráfico. En los últimos veinte años, hemos acumulado cientos de millones de GPU y sistemas informáticos que ejecutan CUDA en todo el mundo.

Nuestras GPU cubren todas las plataformas en la nube y prestan servicio a casi todos los fabricantes de ordenadores y sectores. La gran base instalada de CUDA es la razón fundamental por la que este volante de inercia sigue acelerando. La base instalada atrae a los desarrolladores, los desarrolladores crean nuevos algoritmos e innovaciones, las innovaciones generan nuevos mercados, los nuevos mercados forman nuevos ecosistemas y atraen a más empresas para que se unan, expandiendo así la base instalada: este volante de inercia se acelera continuamente.

El volumen de descargas de las bibliotecas de NVIDIA está creciendo a un ritmo asombroso, a gran escala y con una velocidad cada vez mayor. Este volante de inercia permite que nuestra plataforma informática admita aplicaciones masivas y nuevas innovaciones continuas.

Más importante aún, también les da a estas infraestructuras una vida útil extremadamente larga. La razón es obvia: hay una gran cantidad de aplicaciones que pueden ejecutarse en NVIDIA CUDA, que cubren todas las etapas del ciclo de vida de la IA, varias plataformas de procesamiento de datos y varios solucionadores de principios científicos. Por lo tanto, una vez que se instalan las GPU de NVIDIA, su valor de uso real es extremadamente alto. Esta es también la razón por la que el precio en la nube de la GPU de la arquitectura Ampere que lanzamos hace seis años ha estado aumentando.

La razón fundamental de todo esto es: una gran base instalada, un volante de inercia fuerte y un amplio ecosistema de desarrolladores. Cuando estos factores trabajan juntos, junto con nuestras actualizaciones continuas de software, los costos de computación seguirán disminuyendo. La computación acelerada mejora significativamente el rendimiento de las aplicaciones, y a medida que mantenemos e iteramos el software a largo plazo, los usuarios no solo obtienen saltos de rendimiento inicialmente, sino que también continúan disfrutando de la disminución de los costos de computación. Estamos dispuestos a proporcionar soporte a largo plazo para cada GPU a nivel mundial porque son completamente compatibles a nivel arquitectónico.

Estamos dispuestos a hacer esto porque la base instalada es tan grande: cada vez que se lanza una nueva optimización, beneficia a millones de usuarios. Esta combinación dinámica permite que la arquitectura de NVIDIA expanda continuamente su cobertura, acelere su propio crecimiento y reduzca continuamente los costos de computación, estimulando finalmente un nuevo crecimiento. CUDA está en el centro de todo esto.

De GeForce a CUDA: Una evolución de 25 años

Nuestro viaje con CUDA comenzó hace 25 años.

GeForce, muchos de ustedes han crecido con GeForce. GeForce es el proyecto de marketing más exitoso de NVIDIA. Comenzamos a cultivar a futuros clientes cuando no podían permitirse nuestros productos: sus padres se convirtieron en los primeros usuarios de NVIDIA, comprando nuestros productos año tras año, hasta que un día crecieron y se convirtieron en excelentes científicos informáticos, convirtiéndose en verdaderos clientes y desarrolladores.

Esta es la base establecida por GeForce hace 25 años. Hace veinticinco años, inventamos los shaders programables, una invención obvia pero profundamente significativa que hizo que los aceleradores fueran programables, y el primer acelerador programable del mundo, a saber, los shaders de píxeles. Cinco años después, creamos CUDA, una de nuestras inversiones más importantes de todos los tiempos. En ese momento, la empresa tenía recursos financieros limitados, pero apostamos la mayoría de nuestras ganancias en esto, comprometidos a extender CUDA de GeForce a cada computadora. Estábamos tan decididos porque creíamos en su potencial. A pesar de enfrentar dificultades en las primeras etapas, la empresa mantuvo esta creencia durante 13 generaciones, veinte años completos, y hoy CUDA está en todas partes.

Fue el sombreador de píxeles el que impulsó la revolución de GeForce. Hace unos ocho años, lanzamos RTX, una revisión integral de la arquitectura para la era moderna de los gráficos por computadora. GeForce llevó CUDA al mundo, y debido a esto, muchos académicos como Alex Krizhevsky, Ilya Sutskever, Geoffrey Hinton y Andrew Ng descubrieron que las GPU podrían convertirse en herramientas poderosas para acelerar el aprendizaje profundo, provocando la explosión de la IA hace una década.

Hace una década, decidimos fusionar el sombreado programable con dos nuevos conceptos: uno era el trazado de rayos de hardware, que es técnicamente desafiante; el otro era una idea con visión de futuro: hace unos diez años, preveíamos que la IA transformaría fundamentalmente la informática gráfica. Así como GeForce llevó la IA al mundo, la IA ahora está remodelando la forma en que se implementan los gráficos por computadora.

Hoy quiero mostrarte el futuro. Esta es nuestra tecnología gráfica de próxima generación, a la que llamamos renderizado neuronal: integración profunda de gráficos 3D e inteligencia artificial. Este es DLSS 5, por favor, échale un vistazo.

Renderizado neuronal: La fusión de datos estructurados e IA generativa

¿No es esto impresionante? La informática gráfica se revitaliza así.

¿Qué hicimos? Combinamos gráficos 3D controlables (la base real del mundo virtual) con sus datos estructurados, y luego los infundimos con IA generativa y computación probabilística. Uno es completamente determinista, mientras que el otro es probabilístico pero altamente realista: fusionamos estos dos conceptos en uno, logrando un control preciso a través de datos estructurados mientras generamos en tiempo real. En última instancia, el contenido es visualmente impresionante y completamente controlable.

La idea de fusionar información estructurada con IA generativa continuará manifestándose en diversas industrias. Los datos estructurados son la piedra angular de una IA confiable.

Plataforma acelerada para datos estructurados y no estructurados

Ahora quiero mostrarte un diagrama de arquitectura técnica.

Datos estructurados: SQL, Spark, Pandas, Velox, y plataformas importantes como Snowflake, Databricks, Amazon EMR, Azure Fabric, Google BigQuery, todos manejan marcos de datos. Estos marcos de datos son como hojas de cálculo gigantes, que llevan toda la información del mundo empresarial, sirviendo como los hechos básicos (Ground Truth) de la computación empresarial.

En la era de la IA, necesitamos permitir que la IA utilice datos estructurados y logre una aceleración extrema. En el pasado, la aceleración del procesamiento de datos estructurados tenía como objetivo hacer que las empresas operaran de manera más eficiente. En el futuro, la IA utilizará estas estructuras de datos a velocidades que superan con creces las capacidades humanas, y los agentes de IA dependerán en gran medida de las bases de datos estructuradas.

En cuanto a los datos no estructurados, las bases de datos vectoriales, los PDF, los videos, el audio, etc., constituyen la gran mayoría de las formas de datos en el mundo, aproximadamente el 90% de los datos generados cada año son no estructurados. En el pasado, estos datos eran casi completamente inutilizables: los leíamos, los almacenábamos en sistemas de archivos y eso era todo. No pudimos consultar ni recuperar los datos porque los datos no estructurados carecen de métodos de indexación sencillos y deben entenderse en términos de significado y contexto. Ahora, la IA puede hacer esto, gracias a las tecnologías de percepción y comprensión multimodal, la IA puede leer documentos PDF, comprender sus significados e incorporarlas en estructuras más amplias para consultar.

NVIDIA ha creado dos bibliotecas fundamentales para este propósito:

  • cuDF: para el procesamiento acelerado de marcos de datos y datos estructurados

  • cuVS: para el almacenamiento de vectores, datos semánticos y procesamiento de datos de IA no estructurados

Estas dos plataformas se convertirán en una de las plataformas fundamentales más importantes en el futuro.

Hoy anunciamos asociaciones con varias empresas. IBM, el inventor de SQL, utilizará cuDF para acelerar su plataforma de datos WatsonX. Dell ha colaborado con nosotros para crear la plataforma de datos de IA de Dell, integrando cuDF y cuVS, logrando mejoras significativas en el rendimiento en proyectos reales con NTT Data. En cuanto a Google Cloud, ahora no solo estamos acelerando Vertex AI, sino también BigQuery, y nos hemos asociado con Snapchat para reducir sus costos de computación en casi un 80%.

Los beneficios de la computación acelerada son triples: velocidad, escala y costo. Esto se alinea con la lógica de la Ley de Moore: lograr saltos de rendimiento a través de la computación acelerada mientras se optimizan continuamente los algoritmos, permitiendo que todos disfruten de la disminución continua de los costos de computación.

NVIDIA ha creado una plataforma de computación acelerada que reúne numerosas bibliotecas: RTX, cuDF, cuVS y más. Estas bibliotecas están integradas en servicios en la nube globales y sistemas OEM, llegando a usuarios de todo el mundo.

Colaboración profunda con proveedores de servicios en la nube

Colaboración con los principales proveedores de servicios en la nube

Google Cloud: Aceleramos Vertex AI y BigQuery, integrando profundamente con JAX/XLA, mientras que funcionan de manera excelente en PyTorch: NVIDIA es el único acelerador en el mundo que funciona bien tanto en PyTorch como en JAX/XLA. Hemos incorporado a clientes como Base10, CrowdStrike, Puma y Salesforce al ecosistema de Google Cloud.

AWS: Aceleramos EMR, SageMaker y Bedrock, con una profunda integración con AWS. Este año, estoy especialmente emocionado de que llevaremos OpenAI a AWS, lo que impulsará significativamente el crecimiento del consumo de la nube de AWS y ayudará a OpenAI a expandir las implementaciones regionales y la escala de computación.

Microsoft Azure: La supercomputadora de 100 PFLOPS de NVIDIA es nuestra primera supercomputadora construida y la primera supercomputadora desplegada en Azure, sentando una base importante para la colaboración con OpenAI. Aceleramos los servicios en la nube de Azure y AI Foundry, colaborando para promover la expansión regional de Azure y cooperando estrechamente en la búsqueda de Bing. En particular, nuestra capacidad de computación confidencial, que garantiza que ni siquiera los operadores puedan ver los datos y modelos de los usuarios, hace que las GPU de NVIDIA sean de las primeras en el mundo en admitir la computación confidencial, lo que permite implementaciones confidenciales de los modelos de OpenAI y Anthropic en entornos en la nube en todo el mundo. Por ejemplo, aceleramos todos los flujos de trabajo de EDA y CAD para Synopsys y los implementamos en Microsoft Azure.

Oracle: Somos el primer cliente de IA de Oracle y estoy orgulloso de haber sido el primero en explicar el concepto de la nube de IA a Oracle. Desde entonces, se han desarrollado rápidamente, y hemos incorporado a muchos socios como Cohere, Fireworks y OpenAI.

CoreWeave: La primera nube nativa de IA del mundo, creada para la gestión de GPU y los servicios en la nube de IA, con una excelente base de clientes y un fuerte impulso de crecimiento.

Palantir + Dell: Las tres partes crearon conjuntamente una nueva plataforma de IA basada en la plataforma de ontología y la plataforma de IA de Palantir, capaz de una implementación totalmente localizada de IA en cualquier país y en cualquier entorno aislado de la red, desde el procesamiento de datos (vectorización o estructuración) hasta una pila de computación acelerada completa para IA.

NVIDIA ha establecido esta relación de cooperación especial con proveedores globales de servicios en la nube: llevamos a los clientes a la nube, creando un ecosistema mutuamente beneficioso.

Integración vertical, apertura horizontal: La estrategia central de NVIDIA

NVIDIA es la primera empresa del mundo integrada verticalmente y abierta horizontalmente.

La necesidad de este modelo es muy simple: la computación acelerada no es solo un problema de chip o un problema de sistema; su expresión completa debería ser la aceleración de aplicaciones. Las CPU pueden hacer que las computadoras funcionen más rápido en general, pero este camino ha llegado a un cuello de botella. En el futuro, solo a través de la aceleración específica de aplicaciones o dominios podremos seguir logrando avances en el rendimiento y reducciones de costos.

Esta es precisamente la razón por la que NVIDIA debe cultivar profundamente una biblioteca tras otra, un campo tras otro, una industria vertical tras otra. Somos una empresa de computación integrada verticalmente, y no hay otro camino a seguir. Debemos entender las aplicaciones, entender los dominios, entender profundamente los algoritmos y ser capaces de desplegarlos en cualquier escenario: centros de datos, nube, locales, periféricos e incluso sistemas robóticos.

Al mismo tiempo, NVIDIA sigue siendo horizontalmente abierta, dispuesta a integrar la tecnología en la plataforma de cualquier socio, permitiendo que todo el mundo disfrute de los beneficios de la computación acelerada.

La estructura de los asistentes a esta GTC refleja esto plenamente. La proporción de asistentes de la industria de servicios financieros es la más alta, con la esperanza de atraer a desarrolladores, no a comerciantes. Nuestro ecosistema cubre toda la cadena de suministro ascendente y descendente. Ya sea que una empresa haya sido establecida hace 50, 70 o 150 años, el año pasado marcó su mejor año en la historia. Estamos en el punto de partida de algo muy, muy significativo.

CUDA-X: El motor de computación acelerada para diversas industrias

En varios campos verticales, NVIDIA ha establecido una presencia profunda:

  • Conducción autónoma: Amplia cobertura e impacto de gran alcance

  • Servicios financieros: La inversión cuantitativa está pasando de la ingeniería manual de características a un aprendizaje profundo impulsado por supercomputadoras, lo que marca su "momento Transformer"

  • Atención sanitaria: Está experimentando su propio "momento ChatGPT", que abarca el descubrimiento de fármacos asistido por IA, diagnósticos respaldados por agentes de IA, servicio de atención al cliente médico y más

  • Industria: La mayor ola de construcción a nivel mundial está en marcha, con la creación de fábricas de IA, fábricas de chips y fábricas de centros de datos

  • Entretenimiento y juegos: Las plataformas de IA en tiempo real admiten traducción, transmisión en vivo, interacción en juegos y agentes de compras inteligentes

  • Robótica: Con más de una década de profunda cultivación, se han implementado tres arquitecturas informáticas principales (computadoras de entrenamiento, computadoras de simulación, computadoras de a bordo), con 110 robots presentados en esta exposición

  • Telecomunicaciones: Una industria que vale alrededor de $2 billones, las estaciones base evolucionarán de funciones de comunicación individuales a plataformas de infraestructura de IA, con una plataforma relacionada llamada Aerial, que colabora profundamente con empresas como Nokia y T-Mobile

El núcleo de todos estos campos es nuestra biblioteca CUDA-X, esta es la esencia fundamental de NVIDIA como una empresa de algoritmos. Estas bibliotecas son los activos más fundamentales de la empresa, permitiendo que la plataforma informática entregue un valor real en diversas industrias.

Una de las bibliotecas más importantes es cuDNN (Biblioteca de Redes Neuronales Profundas CUDA), que ha revolucionado por completo la inteligencia artificial, desencadenando la explosión moderna de la IA.

(Reproducir el vídeo de demostración de CUDA-X)

Todo lo que acabas de ver fue una simulación, incluidos los solucionadores basados en física, los modelos físicos de agentes de IA y los modelos de robots de IA física. Todo se simuló, sin animación manual ni vinculación de articulaciones. Este es precisamente el núcleo de la capacidad de NVIDIA: desbloquear estas oportunidades a través de una profunda comprensión de los algoritmos y la integración orgánica con la plataforma informática.

Empresas nativas de IA y la nueva era de la computación

Acaba de ver a gigantes de la industria que definen la sociedad actual, como Walmart, L'Oréal, JPMorgan Chase, Roche y Toyota, así como a un gran número de empresas de las que quizás nunca haya oído hablar: las llamamos empresas nativas de IA. Esta lista es extensa e incluye a OpenAI, Anthropic y muchas empresas emergentes que prestan servicios en diferentes sectores verticales.

En los últimos dos años, esta industria ha experimentado un crecimiento asombroso. La cantidad de capital de riesgo que fluye hacia las startups alcanzó los 150.000 millones de dólares, un récord en la historia de la humanidad. Más importante aún, el tamaño de las inversiones individuales ha pasado de millones de dólares a cientos de millones e incluso miles de millones. La razón es simple: por primera vez en la historia, cada una de estas empresas requiere recursos informáticos masivos y un gran número de tokens. Esta industria está creando y generando tokens o añadiendo valor a los tokens de organizaciones como Anthropic y OpenAI.

Al igual que la revolución de los PC, la revolución de internet y la revolución de la nube móvil dieron lugar a un grupo de empresas que marcaron una época, esta generación de transformación de la plataforma informática también dará lugar a un grupo de empresas muy influyentes, convirtiéndose en una fuerza importante en el mundo futuro.

Tres avances históricos que impulsan todo esto

¿Qué exactamente ha sucedido en los últimos dos años? Tres eventos importantes.

Primero: ChatGPT, inaugurando la era de la IA generativa (finales de 2022 a 2023)

No solo puede percibir y comprender, sino también generar contenido único. Demostré la fusión de la IA generativa con los gráficos por ordenador. La IA generativa cambia fundamentalmente la forma en que funciona la informática: la informática ha pasado de basarse en la recuperación a basarse en la generación, lo que tiene un impacto profundo en la arquitectura informática, los métodos de implementación y la importancia general.

Segundo: IA de razonamiento, representada por o1

Las capacidades de razonamiento permiten a la IA autorreflexionarse, planificar y descomponer problemas, desglosando problemas que no puede entender directamente en pasos manejables. o1 hace que la IA generativa sea fiable, capaz de razonar basándose en información real. Para lograr esto, la cantidad de tokens de contexto de entrada y tokens de salida para el pensamiento ha aumentado significativamente, lo que ha llevado a un aumento sustancial en las demandas de computación.

Tercero: Claude Code, el primer modelo de agente

Puede leer archivos, escribir código, compilar, probar, evaluar e iterar. Claude Code ha revolucionado completamente la ingeniería de software: el 100% de los ingenieros de NVIDIA están utilizando uno o más de Claude Code, Codex y Cursor; no hay un solo ingeniero de software que no aproveche la asistencia de la IA.

Este es un nuevo punto de inflexión: ya no le preguntas a la IA "¿qué es, dónde está, cómo hacerlo", sino que le permites "crear, ejecutar, construir", permitiéndole utilizar herramientas de manera activa, leer archivos, descomponer problemas y tomar medidas. La IA ha evolucionado de la percepción a la generación, al razonamiento y ahora es verdaderamente capaz de completar tareas.

En los últimos dos años, la demanda de computación para el razonamiento ha aumentado aproximadamente 10.000 veces, y el uso ha crecido aproximadamente 100 veces. Siempre he creído que la demanda de computación ha aumentado un millón de veces en los últimos dos años: esta es una sensación compartida entre todos, incluidos OpenAI y Anthropic. Si podemos obtener más potencia de computación, podremos generar más tokens, los ingresos aumentarán y la IA se volverá más inteligente. El punto de inflexión de la razón ha llegado de verdad.

La era de los billones de dólares de la infraestructura de IA

El año pasado, en esta época, afirmé aquí que teníamos una gran confianza en la demanda y las órdenes de compra para Blackwell y Rubin hasta 2026, por un monto de aproximadamente $500 mil millones. Hoy, un año después de la GTC, me presento aquí para decirles: mirando hacia 2027, veo una cifra de al menos $1 billón. Y estoy seguro de que la demanda real de computación será mucho mayor que esto.

2025: El Año de la Inferencia para NVIDIA

2025 es el Año de la Inferencia de NVIDIA. Queremos asegurarnos de que, más allá del entrenamiento y del post-entrenamiento, mantengamos la excelencia en cada etapa del ciclo de vida de la IA, permitiendo que la infraestructura invertida opere de manera eficiente y efectiva durante más tiempo, con menores costos unitarios.

Al mismo tiempo, Anthropic y Meta se han unido oficialmente a la plataforma de NVIDIA, representando juntos un tercio de la demanda global de computación de IA. Los modelos de código abierto se están acercando al estado de la técnica y son omnipresentes.

NVIDIA es actualmente la única plataforma del mundo capaz de ejecutar todos los campos de IA: lenguaje, biología, gráficos por ordenador, visión por ordenador, voz, proteínas y química, robótica, etc. Todos los modelos de IA, ya sea en el borde o en la nube, independientemente del idioma. La arquitectura de NVIDIA es universal en todos estos escenarios, lo que nos convierte en la plataforma de menor coste y mayor confianza.

Actualmente, el 60% del negocio de NVIDIA proviene de los cinco principales proveedores de servicios en la nube de hiperescala, mientras que el 40% restante se distribuye entre nubes regionales, nubes soberanas, empresas, industrias, robótica y computación en la periferia. La amplitud de la cobertura de IA en sí misma es su resiliencia: sin duda, esta es una nueva transformación de la plataforma de computación.

Grace Blackwell y NVLink 72: Innovación arquitectónica en negrita

Mientras la arquitectura Hopper seguía en su apogeo, decidimos rediseñar completamente el sistema, ampliando NVLink de 8 carriles a NVLink 72, descomponiendo y reconstruyendo completamente el sistema informático. Grace Blackwell NVLink 72 es una apuesta tecnológica significativa, no fácil para todos los socios, y les agradezco sinceramente a todos por eso.

Al mismo tiempo, lanzamos NVFP4, no solo un FP4 ordinario, sino un nuevo tipo de núcleo tensor y unidad de cómputo. Hemos demostrado que NVFP4 puede lograr la inferencia sin ninguna pérdida de precisión, al mismo tiempo que ofrece mejoras significativas en el rendimiento y la eficiencia energética, y también es adecuado para la formación. Además, ha surgido una serie de nuevos algoritmos como Dynamo y TensorRT-LLM, e incluso hemos invertido miles de millones de dólares en construir una supercomputadora específicamente para optimizar los núcleos, llamada DGX Cloud.

Los resultados muestran que nuestro rendimiento de inferencia es notable. Los datos de Semi Analysis, la evaluación de rendimiento de inferencia de IA más completa hasta la fecha, muestran que NVIDIA lidera significativamente tanto en tokens por vatio como en coste por token. Originalmente, la Ley de Moore podría haber proporcionado un aumento de rendimiento de 1,5 veces para H200, pero logramos 35 veces. Dylan Patel de Semi Analysis incluso dijo: "Jensen engañó; en realidad es 50 veces". Él tiene razón.

Lo cito: "Jensen engañó".

El costo por token de NVIDIA es el más bajo del mundo, actualmente sin igual. La razón radica en el codiseño extremo.

Por ejemplo, antes de que NVIDIA actualizara todo el conjunto de software y algoritmos, Fireworks tenía una velocidad de token promedio de alrededor de 700 por segundo; después de la actualización, se acercó a 5,000 por segundo, un aumento de aproximadamente 7 veces. Este es el poder del codiseño extremo.

Fábrica de IA: De centros de datos a fábricas de tokens

Los centros de datos solían ser lugares para almacenar archivos; ahora son fábricas para producir tokens. Cada proveedor de servicios en la nube y cada empresa de IA utilizará la "eficiencia de la fábrica de tokens" como una métrica operativa central en el futuro.

Este es mi argumento central:

  • Eje vertical: Rendimiento: número de tokens generados por segundo a potencia fija

  • Eje horizontal: Velocidad de interacción: velocidad de respuesta para cada inferencia; cuanto más rápida sea la velocidad, más grande será el modelo utilizable, más largo será el contexto y más inteligente será la IA

Los tokens son el nuevo producto básico y, una vez maduros, se establecerán precios por niveles:

  • Nivel gratuito (alto rendimiento, baja velocidad)

  • Nivel intermedio (~$3 por millón de tokens)

  • Nivel alto (~$6 por millón de tokens)

  • Nivel de alta velocidad (~$45 por millón de tokens)

  • Nivel de velocidad ultraalta (~$150 por millón de tokens)

En comparación con Hopper, Grace Blackwell ha mejorado el rendimiento en 35 veces en el nivel de valor más alto e introducido un nuevo nivel. Simplificando las estimaciones del modelo, si el 25 % de la potencia se asigna a cada uno de los cuatro niveles, Grace Blackwell podría generar 5 veces más ingresos que Hopper.

Vera Rubin: El sistema de computación de IA de última generación

(Reproducir el video de introducción del sistema Vera Rubin)

Vera Rubin es un sistema completo y optimizado de principio a fin, diseñado para cargas de trabajo con capacidad de toma de decisiones:

  • Núcleo de computación de modelos de lenguaje grandes: Clúster de GPU NVLink 72, manejo de pre-llenado y caché KV

  • Nueva CPU Vera: Diseñada para un rendimiento extremadamente alto en un solo hilo, utilizando memoria LPDDR5, con una excelente eficiencia energética, la única CPU de centro de datos del mundo que utiliza LPDDR5, adecuada para llamadas de herramientas de agentes de IA

  • Sistema de almacenamiento: BlueField 4 + CX 9, una nueva plataforma de almacenamiento para la era de la IA, con una participación del 100% de la industria global de almacenamiento

  • Switch Spectrum X de CPO: El primer switch óptico Ethernet co-empaquetado del mundo, ahora en plena producción masiva

  • Rack Kyber: Un nuevo sistema de rack que admite 144 GPU para formar un único dominio NVLink, con computación de interfaz frontal y conmutación NVLink de interfaz posterior, formando una computadora gigante

  • Rubin Ultra: Nodo de supercomputadora de nueva generación, diseño vertical, emparejado con el bastidor Kyber, compatible con interconexiones NVLink a mayor escala

Vera Rubin está refrigerada al 100% con líquido, lo que reduce el tiempo de instalación de dos días a dos horas, utilizando agua caliente a 45 °C, lo que alivia significativamente la presión de refrigeración en los centros de datos. Esta vez, Satya (Nadella) ha confirmado que el primer bastidor Vera Rubin ya está en funcionamiento en Microsoft Azure, lo que me parece muy emocionante.

Integración de Groq: Extensión extrema del rendimiento de inferencia

Adquirimos el equipo de Groq y obtuvimos su licencia de tecnología. Groq es un procesador de flujo de datos determinista, que utiliza compilación estática y programación del compilador, con una gran cantidad de SRAM, optimizado para la inferencia de una sola carga de trabajo, con una latencia extremadamente baja y una alta velocidad de generación de tokens.

Sin embargo, la capacidad de memoria de Groq es limitada (500 MB de SRAM en el chip), lo que dificulta llevar de forma independiente los parámetros y la caché KV de modelos grandes, lo que limita su aplicación a gran escala.

La solución es Dynamo, un conjunto de software de programación de inferencia. Desagregamos la canalización de inferencia a través de Dynamo:

  • La decodificación del mecanismo de atención y prellenado se completa en Vera Rubin (requiere una gran potencia de computación y almacenamiento en caché KV)

  • La decodificación de la red de propagación directa, es decir, la parte de generación de tokens, se completa en Groq (requiere un ancho de banda extremadamente alto y baja latencia)

Los dos están estrechamente acoplados a través de Ethernet, lo que reduce la latencia en aproximadamente la mitad mediante modos especiales. Bajo la programación unificada de Dynamo, el "sistema operativo de fábrica de IA", el rendimiento general mejora 35 veces, abriendo nuevos niveles de rendimiento de inferencia previamente inalcanzables por NVLink 72.

Recomendaciones para la combinación de Groq y Vera Rubin:

  • Si la carga de trabajo es principalmente de alto rendimiento, use el 100% de Vera Rubin

  • Si un gran número de cargas de trabajo implican la generación de tokens de alto valor, como la generación de código, introduzca Groq, con una proporción recomendada de aproximadamente el 25% de Groq + 75% de Vera Rubin

El Groq LP30, fabricado por Samsung, ha entrado en producción en masa y se espera que comience a enviarse en el tercer trimestre. Gracias a Samsung por su total cooperación.

Salto histórico en el rendimiento de la inferencia

Cuantificación de los avances tecnológicos anteriores: en dos años, la tasa de generación de tokens de una fábrica de IA de 1 GW aumentará de 22 millones de tokens/segundo a 700 millones de tokens/segundo, un aumento de 350 veces. Este es el poder del codiseño extremo.

Hoja de ruta tecnológica

  • Blackwell: Actualmente en producción, sistema de bastidores estándar Oberon, cable de cobre ampliado a NVLink 72, expansión óptica opcional a NVLink 576

  • Vera Rubin (actual): Rack Kyber, NVLink 144 (cable de cobre); rack Oberon, NVLink 72 + óptico, ampliado a NVLink 576; Spectrum 6, el primer conmutador CPO del mundo

  • Vera Rubin Ultra (próximamente): GPU Rubin Ultra de última generación, chip LP35 (primera integración de NVFP4), que mejora aún más el rendimiento varias veces

  • Feynman (próxima generación): Nueva GPU, chip LP40 (desarrollado conjuntamente por NVIDIA y el equipo de Groq, que integra NVFP4); nueva CPU: Rosa (Rosalyn); BlueField 5; CX 10; rack Kyber que admite ambos métodos de expansión de cobre y CPO

La hoja de ruta es clara: la expansión de cobre, la expansión óptica (Scale-Up) y la expansión óptica (Scale-Out) avanzan en paralelo, y necesitamos que todos los socios continúen expandiendo la producción en cables de cobre, fibras ópticas y CPO.

NVIDIA DSX: La plataforma de gemelo digital para fábricas de IA

Las fábricas de IA se están volviendo cada vez más complejas, pero los diversos proveedores de tecnología que las componen nunca han colaborado durante la fase de diseño, solo se "reunían" en el centro de datos, lo cual es claramente insuficiente.

Para abordar esto, creamos Omniverse y la plataforma NVIDIA DSX basada en ella, una plataforma para que todos los socios diseñen y operen de manera colaborativa fábricas de IA a nivel de gigavatios en el mundo virtual. DSX ofrece:

  • Sistemas de simulación mecánica, térmica, eléctrica y de red a nivel de rack

  • Conexión con la red eléctrica para la programación colaborativa de ahorro de energía

  • Optimización dinámica del consumo de energía y la refrigeración basada en Max-Q dentro del centro de datos

De manera conservadora, se estima que este sistema puede mejorar la eficiencia de la utilización de energía en aproximadamente 2 veces, lo que es un beneficio significativo a la escala que estamos discutiendo. Omniverse comienza con la Tierra digital y llevará gemelos digitales de diversas escalas; estamos construyendo la computadora más grande de la historia de la humanidad en colaboración con socios globales.

Además, NVIDIA se está aventurando en el espacio. El chip Thor ha superado la certificación de radiación y está funcionando en satélites. Estamos desarrollando Vera Rubin Space-1 con socios para construir computadoras de centros de datos espaciales. En el espacio, solo podemos confiar en la radiación para la disipación de calor, y la gestión térmica es un desafío fundamental; estamos reuniendo a los mejores ingenieros para abordar esto.

OpenClaw: El sistema operativo para la era de los agentes

Peter Steinberger desarrolló un software llamado OpenClaw. Este es el proyecto de código abierto más popular de la historia de la humanidad, superando los logros de Linux en solo unas pocas semanas.

OpenClaw es esencialmente un sistema agente capaz de:

  • Gestión de recursos, acceso a herramientas, sistemas de archivos y grandes modelos de lenguaje

  • Ejecución de tareas programadas y cronometradas

  • Descomposición gradual de problemas e invocación de subagentes

  • Compatibilidad con modalidades arbitrarias de entrada y salida (voz, vídeo, texto, correo electrónico, etc.)

Si lo describimos en la sintaxis de un sistema operativo, realmente es un sistema operativo: el sistema operativo para ordenadores de agentes. Windows hizo posible la computación personal; OpenClaw hace posible los agentes personales.

Cada empresa necesita formular su propia estrategia de OpenClaw, así como todos necesitamos estrategias de Linux, HTML y Kubernetes.

Remodelación integral de la TI empresarial

Antes de OpenClaw, la TI empresarial implicaba que los datos y archivos ingresaban a los sistemas, fluían a través de herramientas y flujos de trabajo, y finalmente se convertían en herramientas para uso humano. Las empresas de software crearon herramientas, y los integradores de sistemas (GSI) y las firmas de consultoría ayudaron a las empresas a utilizar estas herramientas.

Después de OpenClaw, todas las empresas SaaS se transformarán en empresas AaaS (Agentic as a Service), no solo proporcionando herramientas, sino también agentes de IA especializados en campos específicos.

Pero hay un desafío clave: los agentes internos pueden acceder a datos sensibles, ejecutar código y comunicarse con partes externas. Esto debe controlarse estrictamente en entornos empresariales.

Para abordar esto, colaboramos con Peter para integrar la seguridad en la versión empresarial, lanzando:

  • NeMo Claw (diseño de referencia): Un marco de referencia a nivel empresarial basado en OpenClaw, que integra el conjunto completo de kits de herramientas de IA de agente de NVIDIA

  • Open Shield (capa de seguridad): Integrado en OpenClaw, proporciona motores de políticas, barreras de red y enrutadores de privacidad para garantizar la seguridad de los datos empresariales

  • NeMo Cloud: Disponible para descargar e integrado con los motores de políticas de todas las empresas SaaS

Este es un renacimiento para la TI empresarial, una industria de 2 billones de dólares lista para crecer hasta alcanzar una escala de varios billones de dólares, pasando de proporcionar herramientas a ofrecer servicios especializados de agentes de IA.

Puedo prever completamente que en el futuro, cada ingeniero en una empresa tendrá un presupuesto anual de tokens. Sus salarios pueden ser de cientos de miles de dólares, y además les proporcionaré una cuota de tokens equivalente a la mitad de su salario, lo que permitirá que su producción se multiplique por 10. "¿Cuántos tokens vienen con su oferta de trabajo?" se ha convertido en un nuevo tema de contratación en Silicon Valley.

Cada empresa en el futuro será tanto un usuario de tokens (para ingenieros) como un productor de tokens (proporcionando servicios a sus clientes). La importancia de OpenClaw no puede subestimarse; es tan importante como HTML y Linux.

Iniciativa de Modelo Abierto de NVIDIA

En el área de agentes personalizados (Custom Claw), proporcionamos los modelos de vanguardia desarrollados por NVIDIA:

Modelo Dominio Modelo de Lenguaje Grande Nemotron Modelo de Fundación del Mundo Cosmos Modelo de Robot Humanoide General GROOT Modelo de Conducción Autónoma Alpamayo BioNeMo Biología Digital Phys-AIAI Física

Estamos a la vanguardia de la tecnología en todos los campos y estamos comprometidos con la iteración continua: a Nemotron 3 le seguirá Nemotron 4, a Cosmos 1 le seguirá Cosmos 2, y Groq también iterará hasta su segunda generación.

Nemotron 3 se encuentra entre los tres mejores modelos a nivel mundial en OpenClaw y está a la vanguardia. Nemotron 3 Ultra se convertirá en el modelo fundamental más potente de la historia, apoyando a los países en la construcción de una IA soberana.

Hoy, anunciamos la creación de la Alianza Nemotron, que invertirá miles de millones de dólares para avanzar en el desarrollo de modelos fundamentales de IA. Los miembros de la Alianza incluyen: BlackForest Labs, Cursor, LangChain, Mistral, Perplexity, Reflection, Sarvam (India), Thinking Machines (laboratorio de Mira Murati), y más. Una tras otra, las empresas de software empresarial se están uniendo, integrando el diseño de referencia NeMo Claw y el kit de herramientas de IA de agentes de NVIDIA en sus productos.

IA física y robótica

Los agentes digitales actúan en el mundo digital: escriben código, analizan datos; mientras que la IA física se refiere a agentes encarnados, es decir, robots.

En esta GTC, se presentaron 110 robots, que abarcan casi todas las empresas de desarrollo de robots de todo el mundo. NVIDIA proporciona tres ordenadores (ordenadores de entrenamiento, ordenadores de simulación, ordenadores de a bordo) y una pila de software completa y modelos de IA.

En términos de conducción autónoma, ha llegado el "momento ChatGPT" para la conducción autónoma. Hoy anunciamos que cuatro nuevos socios se unen a la plataforma RoboTaxi Ready de NVIDIA: BYD, Hyundai, Nissan y Geely, con una producción anual total de 18 millones de vehículos. Junto con socios anteriores como Mercedes-Benz, Toyota y General Motors, la gama se ha ampliado aún más. También anunciamos una colaboración significativa con Uber para desplegar e integrar vehículos RoboTaxi Ready en varias ciudades.

En el campo de los robots industriales, numerosas empresas como ABB, Universal Robotics y KUKA están colaborando con nosotros para combinar modelos de IA física con sistemas de simulación, promoviendo el despliegue de robots en líneas de fabricación globales.

En las telecomunicaciones, Caterpillar y T-Mobile también están entre ellas. En el futuro, las estaciones base inalámbricas ya no serán solo nodos de comunicación, sino que se convertirán en NVIDIA Aerial AI RAN, una plataforma de computación inteligente en la periferia capaz de percibir el tráfico en tiempo real y realizar ajustes de formación de haces para lograr capacidades de ahorro de energía y mejora de la eficiencia.

Segmento especial: Apariencia del robot Olaf

(Reproducir el vídeo de demostración del robot Olaf de Disney)

Jensen Huang: ¡El muñeco de nieve está aquí! Newton funciona bien. ¡Omniverse también funciona bien! Olaf, ¿cómo estás?

Olaf: Estoy muy contento de verte.

Jensen Huang: Sí, porque te di una computadora: ¡Jetson!

Olaf: ¿Qué es eso?

Jensen Huang: Está justo dentro de tu barriga.

Olaf: Eso es increíble.

Jensen Huang: Aprendiste a caminar en Omniverse.

Olaf: Me encanta caminar. Es mucho mejor que montar un reno y mirar hacia arriba al hermoso cielo.

Jensen Huang: Eso se debe a la simulación física: el solucionador de Newton que se ejecuta en NVIDIA Warp, desarrollado en colaboración con Disney y DeepMind, lo que te permite adaptarte al mundo físico real.

Olaf: Estaba a punto de decir eso.

Jensen Huang: Esa es tu astucia. Soy un muñeco de nieve, no una bola de nieve.

Jensen Huang: ¿Te lo puedes imaginar? El futuro de Disneyland, todos estos personajes robóticos caminando libremente por el parque. Pero, sinceramente, pensé que serías más alto. Nunca había visto un muñeco de nieve tan pequeño.

Olaf: (sin compromiso)

Jensen Huang: ¿Puedes ayudarme a preparar el discurso de hoy?

Olaf: ¡Eso sería genial!

Resumen de la ponencia principal

Jensen Huang: Hoy, exploramos juntos los siguientes temas centrales:

  1. La llegada del punto de inflexión del razonamiento: el razonamiento se ha convertido en la carga de trabajo central de la IA, los tokens son el nuevo producto básico y el rendimiento de la inferencia determina directamente los ingresos.

  2. La era de las fábricas de IA: los centros de datos han evolucionado de instalaciones de almacenamiento de archivos a fábricas de producción de tokens, y en el futuro, cada empresa medirá su competitividad por la "eficiencia de la fábrica de IA".

  3. La revolución del agente OpenClaw: OpenClaw ha inaugurado la era de la computación de agentes, y la TI empresarial está pasando de la era de las herramientas a la era de los agentes; cada empresa necesita formular una estrategia OpenClaw.

  4. IA física y robótica: La inteligencia encarnada se está ampliando, con la conducción autónoma, los robots industriales y los robots humanoides formando colectivamente la próxima oportunidad significativa para la IA física.

¡Gracias a todos y disfruten de la GTC!

Te puede gustar

Informe matutino | Strategy invirtió 1.570 millones de dólares la semana pasada para aumentar sus carteras en 22.337 bitcoins; Abra planea salir a bolsa mediante una fusión con una SPAC; Metaplanet pretende recaudar aproximadamente 765 millones de dólares

Resumen de los acontecimientos importantes del mercado del 16 de marzo

Ocho velas verdes de BTC alcanzan los 76 000 dólares, ¿cuál es la lógica detrás de superar al oro en medio de la batalla?

Guerra que se enfría, retroceso del petróleo, rebote del mercado de valores: ¿Hacia dónde se dirige Bitcoin esta vez?

CB Insights: Nueve predicciones para el sector fintech en 2026, con la tokenización de activos ya en auge

Los agentes de IA inician operaciones autónomas, los gigantes de las criptomonedas desafían directamente a los bancos tradicionales: un artículo que revela nueve predicciones disruptivas que transformarán el panorama financiero en 2026.

Investigación sobre la moneda estable Dune: El flujo y la demanda de un mercado de 300 000 millones de dólares

En el conjunto de datos, las transferencias ya no se etiquetan simplemente como «volumen de transacciones» puro, sino que se clasifican como diferentes actividades en cadena. Esta es la diferencia entre «simplemente saber que se han transferido 100 billones de dólares» y «entender por qué se han transferido».

Comercia Oro, Plata y Petróleo en WEEX: $300K de Recompensas y 0% de Comisiones

WEEX ha lanzado una campaña de trading de Oro, Plata y Petróleo a gran escala con 0% de comisiones, un fondo de recompensas de $300K y oportunidades de Trade-to-Earn, permitiendo a los traders depositar, comerciar con materias primas tokenizadas como PAXG y XAUT, y competir en las clasificaciones — todo en WEEX.

Carta anual de Stripe: La nueva densidad cognitiva es extremadamente alta, especialmente el modelo de 5 niveles de «IA + Pagos».

Todas las tendencias aquí afectan la supervivencia futura de todos.

Monedas populares

Últimas noticias cripto

Leer más