Discurso completo de Huang Renxun na GTC: A era da inferência chegou, com uma receita prevista de pelo menos um trilhão de dólares até 2027, e o Lobster é o novo sistema operacional

By: dados raiz|2026/03/17 12:55:56
0
Compartilhar
copy

Em 16 de março de 2026, teve início oficial a conferência NVIDIA GTC 2026, com o fundador e CEO da NVIDIA, Jensen Huang, proferindo o discurso de abertura.

Nessa conferência, considerada a “peregrinação anual do setor de IA”, Huang falou detalhadamente sobre a transformação da NVIDIA de uma “empresa de chips” para uma “empresa de infraestrutura e produção de IA”. Ao abordar as preocupações do mercado quanto à sustentabilidade do desempenho e ao potencial de crescimento, Huang detalhou a lógica empresarial subjacente que impulsiona o crescimento futuro — a “Economia da Fábrica de Tokens”.

A previsão de desempenho é extremamente otimista: “Pelo menos US$ 1 trilhão em demanda até 2027”

Nos últimos dois anos, a demanda global por computação para IA cresceu exponencialmente. À medida que os grandes modelos evoluem da "percepção" e da "geração" para o "raciocínio" e a "ação (execução de tarefas)", o consumo de poder de computação aumentou drasticamente. Em resposta às preocupações do mercado sobre os limites máximos de pedidos e receitas, Huang apresentou expectativas bastante otimistas.

Huang afirmou em seu discurso:

Nesta mesma época do ano passado, mencionei que tínhamos uma estimativa de demanda altamente confiável de US$ 500 bilhões, abrangendo a Blackwell e a Rubin até 2026. Neste exato momento, prevejo uma demanda de pelo menos US$ 1 trilhão até 2027.

A previsão de Huang de um trilhão de dólares chegou a impulsionar o preço das ações da NVIDIA em mais de 4,3%.

Além disso, ele complementou ainda mais esse número:

Isso é razoável? É disso que vou falar a seguir. Na verdade, podemos até mesmo enfrentar uma escassez de suprimentos. Tenho certeza de que a demanda real por recursos computacionais será muito maior.

Huang destacou que os sistemas atuais da NVIDIA provaram ser a “infraestrutura de menor custo” do mundo. Como a NVIDIA é capaz de executar modelos de IA em praticamente todas as áreas, essa versatilidade garante que o investimento de US$ 1 trilhão feito pelos clientes possa ser plenamente aproveitado e mantido ao longo de um ciclo de vida prolongado.

Atualmente, 60% dos negócios da NVIDIA provêm dos cinco principais provedores de serviços em nuvem de hiperescala, enquanto os 40% restantes estão amplamente distribuídos entre nuvens soberanas, empresas, setores industriais, robótica e computação de ponta.

A economia da Token Factory, onde o desempenho por watt é o fôlego do negócio

Para explicar a viabilidade dessa demanda de US$ 1 trilhão, Huang apresentou uma nova visão empresarial aos CEOs de empresas globais. Ele destacou que os futuros centros de dados não serão mais meros armazéns para guardar arquivos, mas sim “fábricas” que produzem tokens (a unidade básica gerada pela IA).

Huang enfatizou:

Todo data center, toda fábrica, é definido como estando limitado pela energia. Uma fábrica de 1 GW (gigawatt) nunca se tornará uma fábrica de 2 GW; isso é uma lei da física e da estrutura atômica. Com potência fixa, quem tiver a maior taxa de produção de tokens por watt terá os menores custos de produção.

Huang classificou os futuros serviços de IA em quatro níveis de negócios:

  • Plano gratuito (alto volume de tráfego, baixa velocidade)
  • Nível intermediário (~US$ 3 por milhão de tokens)
  • Nível superior (~US$ 6 por milhão de tokens)
  • Nível de alta velocidade (~US$ 45 por milhão de tokens)
  • Nível de velocidade ultra-alta (~US$ 150 por milhão de tokens)

Ele observou que, à medida que os modelos se tornam maiores e os contextos mais longos, a IA ficará mais inteligente, mas a taxa de geração de tokens diminuirá. Huang afirmou:

Nesta Token Factory, sua produtividade e velocidade de geração de tokens se traduzirão diretamente em sua receita exata para o próximo ano.

Huang destacou que a arquitetura da NVIDIA permite que os clientes alcancem um rendimento extremamente alto no plano gratuito, ao mesmo tempo em que obtêm uma impressionante melhoria de desempenho de 35 vezes no plano de inferência de maior valor.

Vera Rubin alcança uma aceleração de 350 vezes em dois anos; a Groq preenche a lacuna na inferência ultrarrápida

Diante das limitações físicas, a NVIDIA apresentou seu sistema de computação de IA mais complexo de todos os tempos, o Vera Rubin. Huang afirmou:

No passado, quando falava do Hopper, eu mostrava uma ficha, o que era legal. Mas, quando se fala em Vera Rubin, todos pensam no sistema como um todo. Neste sistema 100% refrigerado a líquido, que elimina completamente o cabeamento tradicional, os racks que antes levavam dois dias para serem instalados agora levam apenas duas horas.

Huang destacou que, por meio de um co-design extremo de ponta a ponta entre hardware e software, a Vera Rubin conseguiu um avanço impressionante no processamento de dados dentro do mesmo data center de 1 GW:

Em apenas dois anos, aumentamos a taxa de geração de tokens de 22 milhões para 700 milhões, alcançando um crescimento de 350 vezes. A Lei de Moore, durante o mesmo período, só conseguiu gerar um aumento de 1,5 vez.

Para resolver o gargalo de largura de banda em condições de inferência ultrarrápida (como 1.000 tokens por segundo), a NVIDIA apresentou a solução definitiva ao integrar a empresa adquirida Groq: a inferência assimétrica separada. Huang explicou:

Esses dois processadores têm características completamente diferentes. O chip Groq possui 500 MB de SRAM, enquanto o chip Rubin possui 288 GB de memória.

Huang observou que a NVIDIA, por meio do sistema de software Dynamo, atribui a etapa de “pré-preenchimento” — que exige grande capacidade de computação e memória de vídeo — ao Vera Rubin, enquanto a etapa de “decodificação” — que é extremamente sensível à latência — é atribuída ao Groq. Huang também apresentou sugestões para a configuração da capacidade de computação empresarial:

Se a sua carga de trabalho envolver principalmente alto rendimento, utilize 100% do Vera Rubin; se você tiver um grande número de necessidades de geração de tokens de alto valor no nível de programação, aloque 25% da capacidade do seu data center para o Groq.

Foi revelado que o chip Groq LP30, fabricado pela Samsung, entrou em produção em massa e deve ser comercializado no terceiro trimestre, enquanto o primeiro rack Vera Rubin já está em operação no Microsoft Azure.

Além disso, no que diz respeito à tecnologia de interconexão óptica, Huang apresentou o Spectrum X, o primeiro switch óptico co-empacotado (CPO) produzido em massa do mundo, e dissipou as preocupações do mercado quanto à trajetória da “transição do cobre para a fibra óptica”:

Precisamos de mais capacidade de cabos de cobre, mais capacidade de chips ópticos e mais capacidade de CPO.

Preço de --

--

Agente põe fim ao SaaS tradicional; "salário + token" passa a ser padrão no Vale do Silício

Além das barreiras de hardware, Huang dedicou uma parte significativa de seu discurso à revolução no software e nos ecossistemas de IA, especialmente à explosão dos agentes.

Ele descreveu o projeto de código aberto OpenClaw como “o projeto de código aberto mais popular da história da humanidade”, alegando que ele superou as conquistas do Linux nos últimos 30 anos em apenas algumas semanas. Huang afirmou sem rodeios que o OpenClaw é, essencialmente, o “sistema operacional” para computadores-agentes.

Huang afirmou:

Todas as empresas de SaaS (Software como Serviço) se transformarão em empresas de AaaS (Agente como Serviço). Não há dúvida de que, para implantar com segurança esses agentes — que têm a capacidade de acessar dados confidenciais e executar código —, a NVIDIA lançou um projeto de referência do NeMo Claw voltado para o mercado corporativo, que inclui um mecanismo de políticas e um roteador de privacidade.

Para os profissionais comuns, essa transformação também está prestes a acontecer. Huang imaginou uma nova forma de ambiente de trabalho no futuro:

No futuro, todos os engenheiros da nossa empresa precisarão de um orçamento anual para tokens. O salário-base deles pode chegar a centenas de milhares de dólares, e vou destinar cerca de metade desse valor como uma cota simbólica para eles, permitindo que alcancem um aumento de eficiência de 10 vezes. Isso já se tornou um novo trunfo nas contratações no Vale do Silício: quantos tokens vêm com a sua oferta?

No final do discurso, Huang também “revelou” a arquitetura de computação de última geração, Feynman, que alcançará o primeiro escalonamento horizontal conjunto de fios de cobre e CPOs da história. O mais intrigante é que a NVIDIA está desenvolvendo um computador de data center para o espaço, o “Vera Rubin Space-1”, o que abre totalmente as portas para imaginar o poder de computação da IA indo além da Terra.

O texto completo do discurso de Jensen Huang na GTC 2026 é o seguinte (com a ajuda de ferramentas de IA):

Apresentador: Damos as boas-vindas ao palco ao fundador e CEO da NVIDIA, Jensen Huang.

Jensen Huang, fundador e CEO:

Bem-vindo à GTC. Gostaria de lembrar a todos que esta é uma conferência sobre tecnologia. Estou muito feliz por ver tantas pessoas fazendo fila para entrar logo pela manhã e por ver todos vocês aqui.

Na GTC, vamos nos concentrar em três temas principais: tecnologia, plataforma e ecossistema. Atualmente, a NVIDIA possui três plataformas principais: a plataforma CUDA-X, a plataforma de sistemas e nossa recém-lançada plataforma AI Factory.

Antes de começarmos oficialmente, gostaria de agradecer aos apresentadores da nossa sessão de abertura: Sarah Guo, da Conviction; Alfred Lin, da Sequoia Capital (o primeiro investidor de capital de risco da NVIDIA); e Gavin Baker, o primeiro grande investidor institucional da NVIDIA. Essas três pessoas possuem uma visão profunda sobre tecnologia e exercem grande influência em todo o ecossistema tecnológico. É claro que também gostaria de agradecer a todos os ilustres convidados que convidei pessoalmente para estarem aqui hoje. Obrigado a essa equipe de craques.

Também gostaria de agradecer a todas as empresas presentes hoje. A NVIDIA é uma empresa de plataformas, e contamos com tecnologia, plataformas e um ecossistema diversificado. As empresas aqui presentes representam praticamente todos os participantes desse setor de US$ 100 trilhões, com 450 empresas patrocinando este evento, pelo que estou profundamente grato.

Esta conferência conta com 1.000 painéis técnicos e 2.000 palestrantes, abrangendo todos os níveis da arquitetura em “cinco camadas” da IA — desde infraestruturas como terrenos, energia e centros de dados, até chips, plataformas, modelos e diversas aplicações que, em última instância, impulsionam todo o setor.

CUDA: Duas décadas de avanços tecnológicos

Tudo começa aqui. Este ano marca o 20º aniversário da CUDA.

Nos últimos vinte anos, temos nos dedicado ao desenvolvimento dessa arquitetura. A CUDA é uma invenção revolucionária — a tecnologia SIMT (Single Instruction Multiple Threads) permite que os desenvolvedores escrevam programas em código escalar e os transformem em aplicativos multithread, com uma dificuldade de programação muito menor do que a das arquiteturas SIMD anteriores. Recentemente, adicionamos o recurso Tiles para ajudar os desenvolvedores a programar os núcleos Tensor de forma mais prática, bem como várias estruturas de operações matemáticas nas quais se baseia a IA atual. Atualmente, o CUDA conta com milhares de ferramentas, compiladores, frameworks e bibliotecas, além de centenas de milhares de projetos públicos na comunidade de código aberto, e está profundamente integrado a todos os ecossistemas tecnológicos.

Este gráfico revela a lógica 100% estratégica da NVIDIA, sobre a qual venho falando desde o início. O elemento mais difícil e fundamental é a “base instalada”, na parte inferior do gráfico. Nos últimos vinte anos, acumulamos centenas de milhões de GPUs e sistemas de computação que executam CUDA em todo o mundo.

Nossas GPUs são compatíveis com todas as plataformas de nuvem e atendem a praticamente todos os fabricantes de computadores e setores. A ampla base instalada do CUDA é a razão fundamental pela qual esse efeito de inércia continua a ganhar força. A base instalada atrai desenvolvedores; os desenvolvedores criam novos algoritmos e inovações; as inovações geram novos mercados; os novos mercados formam novos ecossistemas e atraem mais empresas para se juntarem a eles, expandindo assim a base instalada — esse ciclo virtuoso está em constante aceleração.

O volume de downloads das bibliotecas da NVIDIA está crescendo a um ritmo impressionante, em grande escala e cada vez mais rápido. Esse impulso permite que nossa plataforma de computação suporte aplicações de grande porte e novos avanços contínuos.

Mais importante ainda, isso também confere a essas infraestruturas uma vida útil extremamente longa. A razão é óbvia: há uma grande variedade de aplicativos que podem ser executados no NVIDIA CUDA, abrangendo todas as etapas do ciclo de vida da IA, diversas plataformas de processamento de dados e vários solucionadores baseados em princípios científicos. Portanto, uma vez instaladas as GPUs da NVIDIA, seu valor de uso efetivo é extremamente alto. É também por isso que o preço na nuvem da GPU com arquitetura Ampere que lançamos há seis anos tem, na verdade, vindo a subir.

A razão fundamental para tudo isso é: uma grande base instalada, um forte efeito de inércia e um amplo ecossistema de desenvolvedores. Quando esses fatores atuam em conjunto, aliados às nossas atualizações contínuas de software, os custos de computação continuarão a diminuir. A computação acelerada melhora significativamente o desempenho das aplicações e, à medida que mantemos e atualizamos o software ao longo do tempo, os usuários não só obtêm ganhos significativos de desempenho inicialmente, como também continuam a se beneficiar da redução dos custos de computação. Estamos dispostos a oferecer suporte de longo prazo para todas as GPUs em todo o mundo, pois elas são totalmente compatíveis em nível arquitetônico.

Estamos dispostos a fazer isso porque a base instalada é muito grande — sempre que uma nova otimização é lançada, ela beneficia milhões de usuários. Essa combinação dinâmica permite que a arquitetura da NVIDIA amplie continuamente sua cobertura, acelere seu próprio crescimento e reduza constantemente os custos de computação, estimulando, em última instância, um novo crescimento. A CUDA está no centro de tudo isso.

Da GeForce ao CUDA: Uma evolução de 25 anos

Nossa trajetória com a CUDA começou, na verdade, há 25 anos.

GeForce — muitos de vocês cresceram com a GeForce. A GeForce é o projeto de marketing de maior sucesso da NVIDIA. Começamos a conquistar futuros clientes quando vocês ainda não tinham condições de comprar nossos produtos — seus pais foram os primeiros usuários da NVIDIA, adquirindo nossos produtos ano após ano, até que, um dia, vocês cresceram e se tornaram excelentes cientistas da computação, tornando-se verdadeiros clientes e desenvolvedores.

Essa é a base estabelecida pela GeForce há 25 anos. Há vinte e cinco anos, inventamos os shaders programáveis — uma invenção óbvia, mas de grande importância, que tornou os aceleradores programáveis — e o primeiro acelerador programável do mundo: os shaders de pixel. Cinco anos depois, criamos o CUDA — um dos nossos investimentos mais importantes de todos os tempos. Naquela época, a empresa contava com recursos financeiros limitados, mas apostamos a maior parte dos nossos lucros nesse projeto, empenhados em levar a CUDA da GeForce para todos os computadores. Estávamos tão determinados porque acreditávamos no potencial disso. Apesar das dificuldades enfrentadas nos primeiros tempos, a empresa manteve essa convicção por 13 gerações, ao longo de vinte anos, e hoje a CUDA está em toda parte.

Foi o pixel shader que impulsionou a revolução da GeForce. Há cerca de oito anos, lançamos o RTX — uma reformulação completa da arquitetura para a era moderna da computação gráfica. A GeForce trouxe a CUDA ao mundo e, graças a isso, muitos pesquisadores, como Alex Krizhevsky, Ilya Sutskever, Geoffrey Hinton e Andrew Ng, descobriram que as GPUs poderiam se tornar ferramentas poderosas para acelerar o aprendizado profundo, dando início à explosão da IA há uma década.

Há uma década, decidimos combinar o sombreamento programável com dois novos conceitos: um era o ray tracing por hardware, que representa um desafio técnico; o outro era uma ideia visionária — há cerca de dez anos, previmos que a IA transformaria radicalmente a computação gráfica. Assim como a GeForce trouxe a IA ao mundo, a IA está agora transformando a forma como a computação gráfica é implementada.

Hoje, quero mostrar a vocês o futuro. Esta é a nossa tecnologia gráfica de última geração, que chamamos de renderização neural — uma integração profunda entre gráficos 3D e inteligência artificial. Este é o DLSS 5, dê uma olhada.

Renderização neural: A fusão entre dados estruturados e IA generativa

Não é de tirar o fôlego? A computação gráfica é, assim, revitalizada.

O que fizemos? Combinamos gráficos 3D controláveis (a verdadeira base do mundo virtual) com seus dados estruturados e, em seguida, integramos IA generativa e computação probabilística. Um é totalmente determinístico, enquanto o outro é probabilístico, mas altamente realista — unimos esses dois conceitos em um só, alcançando um controle preciso por meio de dados estruturados e, ao mesmo tempo, gerando resultados em tempo real. Em última análise, o conteúdo é visualmente deslumbrante e totalmente controlável.

A ideia de combinar informações estruturadas com IA generativa continuará a se manifestar em diversos setores. Os dados estruturados são a base de uma IA confiável.

Plataforma acelerada para dados estruturados e não estruturados

Agora quero mostrar a vocês um diagrama da arquitetura técnica.

Dados estruturados — linguagens conhecidas como SQL, Spark, Pandas e Velox, além de plataformas importantes como Snowflake, Databricks, Amazon EMR, Azure Fabric e Google BigQuery, todas lidam com data frames. Essas estruturas de dados são como planilhas gigantes, contendo todas as informações do mundo dos negócios e servindo como os dados básicos (Ground Truth) da computação empresarial.

Na era da IA, precisamos permitir que a IA utilize dados estruturados e alcance uma aceleração extrema. No passado, a aceleração do processamento de dados estruturados tinha como objetivo tornar as empresas mais eficientes. No futuro, a IA utilizará essas estruturas de dados a velocidades que excedem em muito as capacidades humanas, e os agentes de IA dependerão fortemente de bancos de dados estruturados.

No que diz respeito aos dados não estruturados, bancos de dados vetoriais, PDFs, vídeos, áudio etc. constituem a grande maioria dos formatos de dados existentes no mundo — cerca de 90% dos dados gerados anualmente são não estruturados. No passado, esses dados eram praticamente inutilizáveis: nós os líamos, os armazenávamos em sistemas de arquivos e pronto. Não conseguimos fazer consultas nem recuperar os dados, pois os dados não estruturados carecem de métodos simples de indexação e devem ser compreendidos em termos de significado e contexto. Hoje, a IA é capaz de fazer isso — graças às tecnologias de percepção e compreensão multimodal, a IA consegue ler documentos em PDF, compreender seu significado e integrá-los em estruturas mais amplas para consultas.

A NVIDIA criou duas bibliotecas fundamentais para esse fim:

  • cuDF: para o processamento acelerado de data frames e dados estruturados

  • cuVS: para armazenamento de vetores, dados semânticos e processamento de dados não estruturados de IA

Essas duas plataformas se tornarão uma das plataformas fundamentais mais importantes no futuro.

Hoje, anunciamos parcerias com várias empresas. A IBM — inventora do SQL — utilizará o cuDF para acelerar sua plataforma WatsonX Data. A Dell colaborou conosco para criar a Dell AI Data Platform, integrando o cuDF e o cuVS, o que resultou em melhorias significativas de desempenho em projetos reais com a NTT Data. No que diz respeito ao Google Cloud, agora estamos acelerando não só o Vertex AI, mas também o BigQuery, e firmamos uma parceria com o Snapchat para reduzir seus custos de computação em quase 80%.

Os benefícios da computação acelerada são três: velocidade, escala e custo. Isso está em consonância com a lógica da Lei de Moore — alcançar avanços significativos no desempenho por meio da computação acelerada, ao mesmo tempo em que se otimizam continuamente os algoritmos, permitindo que todos se beneficiem da redução contínua dos custos de computação.

A NVIDIA desenvolveu uma plataforma de computação acelerada que reúne diversas bibliotecas: RTX, cuDF, cuVS e muito mais. Essas bibliotecas estão integradas a serviços globais em nuvem e a sistemas OEM, alcançando usuários em todo o mundo.

Colaboração estreita com provedores de serviços em nuvem

Colaboração com os principais provedores de serviços em nuvem

Google Cloud: Aceleramos o Vertex AI e o BigQuery, integrando-nos profundamente com o JAX/XLA, ao mesmo tempo em que apresentamos um excelente desempenho no PyTorch — a NVIDIA é o único acelerador do mundo que oferece bom desempenho tanto no PyTorch quanto no JAX/XLA. Incorporamos clientes como Base10, CrowdStrike, Puma e Salesforce ao ecossistema do Google Cloud.

AWS: Aceleramos o EMR, o SageMaker e o Bedrock, com integração profunda com a AWS. Este ano, estou particularmente animado com a integração da OpenAI à AWS, o que impulsionará significativamente o crescimento do consumo de serviços em nuvem da AWS e ajudará a OpenAI a expandir suas implantações regionais e sua capacidade computacional.

Microsoft Azure: O supercomputador de 100 PFLOPS da NVIDIA é o primeiro supercomputador que construímos e o primeiro a ser implantado no Azure, estabelecendo uma base importante para a colaboração com a OpenAI. Aceleramos os serviços em nuvem do Azure e o AI Foundry, colaborando para promover a expansão regional do Azure e cooperando estreitamente na pesquisa do Bing. Vale destacar que nossa capacidade de computação confidencial — que garante que nem mesmo os operadores possam visualizar os dados e modelos dos usuários — torna as GPUs da NVIDIA algumas das primeiras do mundo a oferecer suporte à computação confidencial, possibilitando implantações confidenciais de modelos da OpenAI e da Anthropic em ambientes de nuvem em todo o mundo. Por exemplo, aceleramos todos os fluxos de trabalho de EDA e CAD para a Synopsys e os implantamos no Microsoft Azure.

Oracle: Somos o primeiro cliente de IA da Oracle, e tenho orgulho de ter sido o primeiro a explicar o conceito de nuvem de IA à Oracle. Desde então, eles têm se desenvolvido rapidamente, e apresentamos muitos parceiros, como a Cohere, a Fireworks e a OpenAI.

CoreWeave: A primeira nuvem nativa de IA do mundo, criada para hospedagem de GPUs e serviços de IA em nuvem, com uma excelente base de clientes e um forte impulso de crescimento.

Palantir + Dell: As três partes criaram em conjunto uma nova plataforma de IA baseada na plataforma ontológica e na plataforma de IA da Palantir, capaz de implementar a IA de forma totalmente localizada em qualquer país e em qualquer ambiente isolado — desde o processamento de dados (vectorização ou estruturação) até uma pilha completa de computação acelerada para IA.

A NVIDIA estabeleceu essa relação de cooperação especial com provedores globais de serviços em nuvem — levamos os clientes para a nuvem, criando um ecossistema mutuamente benéfico.

Integração vertical, abertura horizontal: A estratégia central da NVIDIA

A NVIDIA é a primeira empresa do mundo verticalmente integrada e horizontalmente aberta.

A necessidade desse modelo é muito simples: a computação acelerada não é apenas uma questão de chips ou de sistemas; sua expressão completa deve ser a aceleração de aplicativos. Os processadores podem tornar os computadores mais rápidos em geral, mas esse caminho chegou a um impasse. No futuro, somente por meio de aplicações específicas ou de aceleração voltada para determinados domínios poderemos continuar a alcançar avanços significativos em desempenho e reduções de custos.

É exatamente por isso que a NVIDIA precisa se dedicar profundamente a uma biblioteca após a outra, a um campo após o outro, a um setor vertical após o outro. Somos uma empresa de informática verticalmente integrada, e não há outro caminho a seguir. Precisamos compreender as aplicações, compreender os domínios, compreender profundamente os algoritmos e ser capazes de implementá-los em qualquer cenário — centros de dados, nuvem, instalações locais, borda e até mesmo sistemas robóticos.

Ao mesmo tempo, a NVIDIA mantém uma postura de abertura horizontal, disposta a integrar sua tecnologia à plataforma de qualquer parceiro, permitindo que o mundo inteiro desfrute dos benefícios da computação acelerada.

A composição do público presente nesta GTC reflete isso plenamente. A proporção de participantes do setor de serviços financeiros é a mais alta — com o objetivo de atrair desenvolvedores, e não operadores de mercado. Nosso ecossistema abrange toda a cadeia de suprimentos, desde a fase inicial até a fase final. Quer uma empresa tenha sido fundada há 50, 70 ou 150 anos, o ano passado foi o melhor da sua história. Estamos no início de algo muito, muito significativo.

CUDA-X: O mecanismo de computação acelerada para diversos setores

Em diversos setores verticais, a NVIDIA estabeleceu uma presença sólida:

  • Condução autônoma: Ampla cobertura e impacto de longo alcance

  • Serviços financeiros: O investimento quantitativo está passando da engenharia de características manual para o aprendizado profundo impulsionado por supercomputadores, dando início ao seu “momento Transformer”

  • Saúde: A empresa está vivendo seu próprio “momento ChatGPT”, abrangendo a descoberta de medicamentos com auxílio de IA, diagnósticos apoiados por agentes de IA, atendimento ao cliente na área médica e muito mais

  • Setor: Está em curso a maior onda de construção do mundo, com a implantação de fábricas de IA, fábricas de chips e fábricas de centros de dados

  • Entretenimento e jogos: As plataformas de IA em tempo real oferecem suporte à tradução, transmissão ao vivo, interação em jogos e assistentes de compras inteligentes

  • Robótica: Com mais de uma década de intenso desenvolvimento, três grandes arquiteturas de computação (computadores de treinamento, computadores de simulação e computadores de bordo) já estão em funcionamento, com 110 robôs em exibição nesta exposição

  • Telecomunicações: Numa indústria avaliada em cerca de US$ 2 trilhões, as estações base evoluirão de meras funções de comunicação para plataformas de infraestrutura de IA, com uma plataforma relacionada chamada Aerial, que mantém uma estreita colaboração com empresas como a Nokia e a T-Mobile

O cerne de todas essas áreas é a nossa biblioteca CUDA-X — essa é a essência fundamental da NVIDIA como empresa de algoritmos. Essas bibliotecas são os principais ativos da empresa, permitindo que a plataforma de computação agregue valor real em diversos setores.

Uma das bibliotecas mais importantes é a cuDNN (CUDA Deep Neural Network Library), que revolucionou completamente a inteligência artificial, dando início à explosão da IA moderna.

(Reproduzir vídeo de demonstração do CUDA-X)

Tudo o que você acabou de ver foi uma simulação — incluindo solucionadores baseados em física, modelos físicos de agentes de IA e modelos físicos de robôs com IA. Tudo foi simulado, sem animação manual nem vinculação de articulações. É precisamente aí que reside a principal capacidade da NVIDIA: explorar essas oportunidades por meio de um profundo conhecimento de algoritmos e de uma integração orgânica com a plataforma de computação.

Empresas nativas de IA e a nova era da computação

Você acabou de ver gigantes do setor que moldam a sociedade atual, como Walmart, L'Oréal, JPMorgan Chase, Roche e Toyota, além de um grande número de empresas das quais talvez você nunca tenha ouvido falar — chamamos essas empresas de “nativas da IA”. Essa lista é extensa e inclui a OpenAI, a Anthropic e muitas empresas emergentes que atuam em diferentes setores.

Nos últimos dois anos, esse setor registrou um crescimento impressionante. O volume de capital de risco investido em startups atingiu US$ 150 bilhões, um recorde na história da humanidade. Mais importante ainda, o valor dos investimentos individuais saltou de milhões de dólares para centenas de milhões e até bilhões. A razão é simples: pela primeira vez na história, todas essas empresas precisam de enormes recursos computacionais e de um grande número de tokens. Este setor está criando e gerando tokens ou agregando valor a tokens de organizações como a Anthropic e a OpenAI.

Assim como a revolução dos computadores pessoais, a revolução da internet e a revolução da nuvem móvel deram origem a um conjunto de empresas marcantes, esta geração de transformação das plataformas de computação também dará origem a um conjunto de empresas altamente influentes, tornando-se uma força importante no mundo do futuro.

Três avanços históricos que estão impulsionando tudo isso

O que exatamente aconteceu nos últimos dois anos? Três eventos importantes.

Primeiro: ChatGPT, marcando o início da era da IA generativa (final de 2022 a 2023)

Ele não só consegue perceber e compreender, como também gerar conteúdo exclusivo. Demonstração da fusão entre IA generativa e computação gráfica. A IA generativa muda radicalmente a forma como a computação funciona — a computação passou de um modelo baseado na recuperação de informações para um modelo baseado na geração de informações, causando um impacto profundo na arquitetura dos computadores, nos métodos de implantação e na sua importância geral.

Segundo: Reasoning AI, representada pela o1

As capacidades de raciocínio permitem que a IA reflita sobre si mesma, planeje e decomponha problemas — dividindo aqueles que não consegue compreender diretamente em etapas mais fáceis de gerenciar. O o1 torna a IA generativa confiável, capaz de raciocinar com base em informações reais. Para isso, a quantidade de tokens de contexto de entrada e de saída para o raciocínio aumentou significativamente, levando a um aumento substancial nas demandas computacionais.

Terceiro: Claude Code, o primeiro modelo de agente

Ele pode ler arquivos, escrever código, compilar, testar, avaliar e iterar. O Claude Code revolucionou completamente a engenharia de software — 100% dos engenheiros da NVIDIA utilizam pelo menos uma das ferramentas Claude Code, Codex e Cursor; não há um único engenheiro de software que não recorra à assistência de IA.

Este é um novo ponto de inflexão: você não pergunta mais à IA “o que é, onde está, como fazer”, mas sim permite que ela “crie, execute, construa”, permitindo que ela utilize ativamente ferramentas, leia arquivos, decomponha problemas e tome medidas. A IA evoluiu da percepção para a geração, passando pelo raciocínio, e agora é verdadeiramente capaz de realizar tarefas.

Nos últimos dois anos, a demanda computacional para raciocínio aumentou cerca de 10.000 vezes, e o uso cresceu cerca de 100 vezes. Sempre acreditei que a demanda por computação tenha aumentado um milhão de vezes nos últimos dois anos — essa é uma percepção compartilhada por todos, incluindo a OpenAI e a Anthropic. Se conseguirmos obter mais poder de computação, poderemos gerar mais tokens, as receitas aumentarão e a IA ficará mais inteligente. O momento decisivo para a reflexão chegou de fato.

A era da infraestrutura de IA de trilhões de dólares

Nesta mesma época do ano passado, afirmei aqui que tínhamos grande confiança na demanda e nas encomendas para a Blackwell e a Rubin até 2026, totalizando cerca de US$ 500 bilhões. Hoje, um ano após a GTC, estou aqui para lhes dizer: olhando para 2027, prevejo um valor de pelo menos US$ 1 trilhão. E estou confiante de que a demanda real por computação será muito maior do que isso.

2025: O Ano da Inferência para a NVIDIA

2025 é o Ano da Inferência da NVIDIA. Queremos garantir que, além da formação e do acompanhamento pós-formação, mantenhamos a excelência em todas as fases do ciclo de vida da IA, permitindo que a infraestrutura investida funcione de forma eficiente e eficaz por mais tempo, com custos unitários mais baixos.

Ao mesmo tempo, a Anthropic e a Meta aderiram oficialmente à plataforma da NVIDIA, representando juntas um terço da demanda global por computação para IA. Os modelos de código aberto estão se aproximando da vanguarda e são onipresentes.

Atualmente, a NVIDIA é a única plataforma no mundo capaz de executar todos os campos da IA — linguística, biologia, computação gráfica, visão computacional, processamento de fala, proteínas e química, robótica, etc. — e todos os modelos de IA, seja na periferia ou na nuvem, independentemente da linguagem. A arquitetura da NVIDIA é universal em todos esses cenários, o que nos torna a plataforma de menor custo e maior confiabilidade.

Atualmente, 60% dos negócios da NVIDIA provêm dos cinco principais provedores de serviços em nuvem de hiperescala, enquanto os 40% restantes se distribuem entre nuvens regionais, nuvens soberanas, empresas, setores industriais, robótica e computação de ponta. A amplitude da cobertura da IA é, por si só, sua resiliência — trata-se, sem dúvida, de uma nova transformação na plataforma computacional.

Grace Blackwell e NVLink 72: Inovação arquitetônica ousada

Embora a arquitetura Hopper ainda estivesse no auge, decidimos reformular completamente a arquitetura do sistema, expandindo o NVLink de 8 pistas para 72, decompondo e reconstruindo totalmente o sistema de computação. O Grace Blackwell NVLink 72 representa uma aposta tecnológica significativa, que não é fácil para todos os parceiros, e agradeço sinceramente a todos por isso.

Ao mesmo tempo, lançamos o NVFP4 — não apenas um FP4 comum, mas um novo tipo de núcleo tensorial e unidade de computação. Demonstramos que o NVFP4 é capaz de realizar inferências sem qualquer perda de precisão, ao mesmo tempo em que proporciona melhorias significativas no desempenho e na eficiência energética, além de ser adequado para treinamento. Além disso, surgiram uma série de novos algoritmos, como o Dynamo e o TensorRT-LLM, e chegamos a investir bilhões de dólares na construção de um supercomputador destinado especificamente à otimização de kernels, chamado DGX Cloud.

Os resultados mostram que nosso desempenho em inferência é notável. Dados da Semi Analysis — a avaliação mais abrangente do desempenho de inferência de IA até o momento — mostram que a NVIDIA lidera significativamente tanto em tokens por watt quanto em custo por token. Originalmente, a Lei de Moore poderia ter proporcionado um aumento de desempenho de 1,5 vezes para o H200, mas conseguimos 35 vezes mais. Dylan Patel, da Semi Analysis, chegou a dizer: “O Jensen foi modesto; na verdade, são 50 vezes.” Ele está certo.

Cito-o: "O Jensen fingiu que não sabia."

O custo por token da NVIDIA é o mais baixo do mundo, atualmente sem igual. A razão está no co-design extremo.

Por exemplo, antes de a NVIDIA atualizar todo o conjunto de softwares e algoritmos, o Fireworks tinha uma velocidade média de tokens de cerca de 700 por segundo; após a atualização, chegou a 5.000 por segundo, um aumento de cerca de 7 vezes. Esse é o poder do co-design extremo.

AI Factory: De centros de dados a fábricas de tokens

Os data centers costumavam ser locais para armazenar arquivos; agora são fábricas de produção de tokens. No futuro, todos os provedores de serviços em nuvem e todas as empresas de IA utilizarão a “eficiência da fábrica de tokens” como uma métrica operacional fundamental.

Este é o meu argumento principal:

  • Eixo vertical: Rendimento — número de tokens gerados por segundo a uma potência fixa

  • Eixo horizontal: Velocidade de interação — velocidade de resposta para cada inferência; quanto maior a velocidade, maior o modelo utilizável, mais extenso o contexto e mais inteligente a IA

Os tokens são a nova mercadoria e, quando atingirem a maturidade, terão preços diferenciados por faixas:

  • Plano gratuito (alto volume de tráfego, baixa velocidade)

  • Nível intermediário (~US$ 3 por milhão de tokens)

  • Nível superior (~US$ 6 por milhão de tokens)

  • Nível de alta velocidade (~US$ 45 por milhão de tokens)

  • Nível de velocidade ultra-alta (~US$ 150 por milhão de tokens)

Em comparação com o Hopper, o Grace Blackwell aumentou a taxa de processamento em 35 vezes no nível de preço mais alto e introduziu um novo nível. Simplificando as estimativas do modelo, se 25% da potência for alocada a cada um dos quatro níveis, a Grace Blackwell poderia gerar cinco vezes mais receita do que a Hopper.

Vera Rubin: O sistema de computação com IA de última geração

(Reproduzir o vídeo de apresentação do sistema Vera Rubin)

O Vera Rubin é um sistema completo e otimizado de ponta a ponta, projetado para cargas de trabalho de agentes:

  • Núcleo de computação de modelos de linguagem de grande porte: Cluster de 72 GPUs NVLink, responsável pelo pré-preenchimento e pelo cache KV

  • Nova CPU Vera: Projetada para oferecer desempenho extremamente alto em um único thread, utilizando memória LPDDR5 com excelente eficiência energética, é a única CPU para data center do mundo a utilizar LPDDR5, sendo ideal para chamadas de ferramentas de agentes de IA

  • Sistema de armazenamento: BlueField 4 + CX 9, uma nova plataforma de armazenamento para a era da IA, com 100% de participação do setor global de armazenamento

  • Switch CPO Spectrum X: O primeiro switch Ethernet óptico com encapsulamento conjunto do mundo, agora em plena produção em massa

  • Rack Kyber: Um novo sistema de rack capaz de acomodar 144 GPUs para formar um único domínio NVLink, com computação front-end e comutação NVLink back-end, formando um computador gigante

  • Rubin Ultra: Nó de supercomputador de última geração, com design vertical, combinado com o rack Kyber, compatível com interconexões NVLink em maior escala

O Vera Rubin é 100% refrigerado a líquido, reduzindo o tempo de instalação de dois dias para duas horas, utilizando refrigeração por água a 45 °C, o que alivia significativamente a pressão sobre o sistema de refrigeração nos data centers. Desta vez, Satya (Nadella) confirmou que o primeiro rack Vera Rubin já está em operação no Microsoft Azure, o que acho muito empolgante.

Integração com o Groq: Aumento extremo do desempenho da inferência

Adquirimos a equipe da Groq e obtivemos a licença de sua tecnologia. O Groq é um processador determinístico de fluxo de dados que utiliza compilação estática e agendamento de compilação, com uma grande quantidade de SRAM, otimizado para inferência de carga de trabalho única, apresentando latência extremamente baixa e alta velocidade de geração de tokens.

No entanto, a capacidade de memória do Groq é limitada (500 MB de SRAM integrada), o que dificulta o armazenamento independente dos parâmetros e do cache KV de modelos de grande porte, limitando sua aplicação em grande escala.

A solução é o Dynamo — um conjunto de softwares de agendamento de inferência. Desagregamos o fluxo de inferência por meio do Dynamo:

  • O preenchimento prévio e a decodificação do mecanismo de atenção foram concluídos no Vera Rubin (o que exigiu um enorme poder de computação e armazenamento em cache KV)

  • A decodificação da rede feed-forward, ou seja, a parte de geração de tokens, é realizada no Groq (o que exige largura de banda extremamente alta e baixa latência)

Os dois estão fortemente interligados via Ethernet, reduzindo a latência em cerca de metade por meio de modos especiais. Com a programação unificada do Dynamo, o “sistema operacional de fábrica de IA”, o desempenho geral aumenta em 35 vezes, alcançando novos níveis de desempenho de inferência antes inatingíveis com o NVLink 72.

Recomendações para a combinação de Groq e Vera Rubin:

  • Se a carga de trabalho for principalmente de alto rendimento, use 100% Vera Rubin

  • Se um grande número de cargas de trabalho envolver a geração de tokens de alto valor, como a geração de código, utilize o Groq, com uma proporção recomendada de cerca de 25% de Groq + 75% de Vera Rubin

O Groq LP30, fabricado pela Samsung, entrou em produção em massa e deve começar a ser comercializado no terceiro trimestre. Agradecemos à Samsung pela total colaboração.

Avanço histórico no desempenho da inferência

Quantificando os avanços tecnológicos anteriores: em dois anos, a taxa de geração de tokens de uma fábrica de IA de 1 GW aumentará de 22 milhões de tokens por segundo para 700 milhões de tokens por segundo, um aumento de 350 vezes. Esse é o poder do co-design extremo.

Roteiro tecnológico

  • Blackwell: Atualmente em produção: sistema de rack padrão Oberon, com cabo de cobre expandido para NVLink 72 e expansão óptica opcional para NVLink 576

  • Vera Rubin (atual): Rack Kyber, NVLink 144 (cabo de cobre); rack Oberon, NVLink 72 + óptico, expandido para NVLink 576; Spectrum 6, o primeiro switch CPO do mundo

  • Vera Rubin Ultra (em breve): GPU Rubin Ultra de última geração, chip LP35 (primeira integração do NVFP4), aumentando ainda mais o desempenho em várias vezes

  • Feynman (próxima geração): Nova GPU, chip LP40 (desenvolvido em conjunto pela NVIDIA e pela equipe da Groq, integrando o NVFP4); nova CPU — Rosa (Rosalyn); BlueField 5; CX 10; rack Kyber compatível com métodos de expansão tanto por cobre quanto por CPO

O plano de ação é claro: a expansão da rede de cobre, a expansão da rede óptica (Scale-Up) e a expansão da rede óptica (Scale-Out) estão avançando em paralelo, e precisamos que todos os parceiros continuem expandindo a produção de cabos de cobre, fibras ópticas e CPO.

NVIDIA DSX: A plataforma de gêmeos digitais para fábricas com IA

As fábricas de IA estão se tornando cada vez mais complexas, mas os diversos fornecedores de tecnologia que as compõem nunca colaboraram durante a fase de projeto, apenas “se encontrando” no data center — o que é claramente insuficiente.

Para resolver essa questão, criamos o Omniverse e a plataforma NVIDIA DSX, baseada nele — uma plataforma que permite a todos os parceiros projetar e operar, de forma colaborativa, fábricas de IA com capacidade de gigawatts no mundo virtual. A DSX oferece:

  • Sistemas de simulação mecânica, térmica, elétrica e de rede em nível de rack

  • Conexão com a rede elétrica para o planejamento colaborativo de economia de energia

  • Otimização dinâmica do consumo de energia e da refrigeração com base no Max-Q no centro de dados

Segundo estimativas conservadoras, esse sistema pode melhorar a eficiência na utilização de energia em cerca de duas vezes, o que representa um benefício significativo na escala que estamos discutindo. O Omniverse tem como ponto de partida a Terra digital e abrigará gêmeos digitais em várias escalas; estamos construindo o maior computador da história da humanidade em colaboração com parceiros globais.

Além disso, a NVIDIA está se aventurando no espaço. O chip Thor obteve a certificação de resistência à radiação e está em operação em satélites. Estamos desenvolvendo o Vera Rubin Space-1 em parceria com outras empresas para a construção de computadores para centros de dados espaciais. No espaço, só podemos contar com a radiação para dissipar o calor, e o gerenciamento térmico é um desafio fundamental; estamos reunindo os melhores engenheiros para enfrentar esse desafio.

OpenClaw: O sistema operacional para a era dos agentes

Peter Steinberger desenvolveu um software chamado OpenClaw. Este é o projeto de código aberto mais popular da história da humanidade, superando as conquistas do Linux em apenas algumas semanas.

O OpenClaw é, essencialmente, um sistema autônomo capaz de:

  • Gerenciamento de recursos, acesso a ferramentas, sistemas de arquivos e grandes modelos de linguagem

  • Execução de tarefas agendadas e programadas

  • Decompor problemas gradualmente e invocar subagentes

  • Compatível com diversos tipos de entrada e saída (voz, vídeo, texto, e-mail, etc.)

Se descrevermos isso na linguagem de um sistema operacional, trata-se, de fato, de um sistema operacional — o sistema operacional para computadores-agentes. O Windows tornou possível a informática pessoal; o OpenClaw torna possíveis os agentes pessoais.

Toda empresa precisa definir sua própria estratégia para o OpenClaw, assim como todos nós precisamos de estratégias para o Linux, HTML e Kubernetes.

Reestruturação abrangente da TI corporativa

Antes do OpenClaw, a TI corporativa envolvia a entrada de dados e arquivos nos sistemas, que circulavam por ferramentas e fluxos de trabalho, tornando-se, por fim, ferramentas para uso humano. As empresas de software criaram ferramentas, e os integradores de sistemas (GSI) e as empresas de consultoria ajudaram as empresas a utilizar essas ferramentas.

Após o OpenClaw, todas as empresas de SaaS se transformarão em empresas de AaaS (Agentic as a Service) — não apenas fornecendo ferramentas, mas também agentes de IA especializados em áreas específicas.

Mas há um grande desafio: os agentes internos podem acessar dados confidenciais, executar códigos e se comunicar com terceiros. Isso deve ser rigorosamente controlado em ambientes corporativos.

Para resolver essa questão, colaboramos com o Peter para integrar a segurança à versão empresarial, lançando:

  • NeMo Claw (projeto de referência): Uma estrutura de referência de nível empresarial baseada no OpenClaw, que integra o conjunto completo de kits de ferramentas de IA para agentes da NVIDIA

  • Open Shield (camada de segurança): Integrado ao OpenClaw, fornecendo mecanismos de políticas, barreiras de rede e roteadores de privacidade para garantir a segurança dos dados corporativos

  • NeMo Cloud: Disponível para download e integrado aos mecanismos de políticas de todas as empresas de SaaS

Trata-se de um renascimento para a TI corporativa, um setor de US$ 2 trilhões prestes a atingir uma escala de vários trilhões de dólares, passando do fornecimento de ferramentas para a oferta de serviços especializados de agentes de IA.

Posso imaginar perfeitamente que, no futuro, todo engenheiro de uma empresa terá um orçamento anual para tokens. Seus salários podem chegar a centenas de milhares de dólares, e eu lhes darei, além disso, uma cota simbólica equivalente a metade do salário, permitindo que sua produção aumente dez vezes. "Quantos tokens vêm com a sua oferta de emprego?" tornou-se um novo tema de contratação no Vale do Silício.

No futuro, todas as empresas serão tanto usuárias de tokens (para os engenheiros) quanto produtoras de tokens (prestando serviços aos seus clientes). A importância do OpenClaw não pode ser subestimada; ele é tão importante quanto o HTML e o Linux.

Iniciativa de Modelos Abertos da NVIDIA

Na área de agentes personalizados (Custom Claw), oferecemos modelos de ponta desenvolvidos pela própria NVIDIA:

Modelo de domínio Nemotron Modelo de linguagem de grande escala Cosmos Modelo de base Cosmos GROOT Modelo geral de robô humanóide Alpamayo Condução autônoma BioNeMo Biologia digital Phys-AIAI Física

Estamos na vanguarda da tecnologia em todas as áreas e estamos comprometidos com o aperfeiçoamento contínuo — o Nemotron 3 será sucedido pelo Nemotron 4, o Cosmos 1 será sucedido pelo Cosmos 2, e o Groq também evoluirá para sua segunda geração.

O Nemotron 3 está entre os três principais modelos do mundo no OpenClaw e está na vanguarda. O Nemotron 3 Ultra se tornará o modelo de base mais poderoso de todos os tempos, apoiando os países na construção de uma IA soberana.

Hoje, anunciamos a criação da Aliança Nemotron, que investirá bilhões de dólares para impulsionar o desenvolvimento de modelos fundamentais de IA. Os membros da aliança incluem: BlackForest Labs, Cursor, LangChain, Mistral, Perplexity, Reflection, Sarvam (Índia), Thinking Machines (laboratório de Mira Murati) e outros. Uma após a outra, as empresas de software empresarial estão aderindo à iniciativa, integrando o projeto de referência NeMo Claw e o kit de ferramentas de IA para agentes da NVIDIA aos seus produtos.

IA Física e Robótica

Os agentes digitais atuam no mundo digital — escrevendo códigos, analisando dados; enquanto a IA física se refere a agentes corpóreos, ou seja, robôs.

Nesta GTC, foram apresentados 110 robôs, abrangendo praticamente todas as empresas de desenvolvimento de robôs do mundo. A NVIDIA fornece três computadores (computadores de treinamento, computadores de simulação e computadores de bordo), além de uma pilha de software completa e modelos de IA.

No que diz respeito à direção autônoma, o “momento ChatGPT” para a direção autônoma chegou. Hoje, anunciamos a adesão de quatro novos parceiros à plataforma RoboTaxi Ready da NVIDIA: BYD, Hyundai, Nissan e Geely, com uma produção anual total de 18 milhões de veículos. Além de parceiros anteriores, como Mercedes-Benz, Toyota e General Motors, a linha de produtos se expandiu ainda mais. Também anunciamos uma importante parceria com a Uber para implantar e integrar veículos RoboTaxi Ready em várias cidades.

No setor de robôs industriais, diversas empresas, como a ABB, a Universal Robotics e a KUKA, estão colaborando conosco para combinar modelos físicos de IA com sistemas de simulação, promovendo a implantação de robôs em linhas de produção em todo o mundo.

No setor de telecomunicações, a Caterpillar e a T-Mobile também estão entre elas. No futuro, as estações base sem fio deixarão de ser apenas nós de comunicação para se tornarem a NVIDIA Aerial AI RAN — uma plataforma inteligente de computação de ponta capaz de perceber o tráfego em tempo real e ajustar a formação de feixes, a fim de proporcionar economia de energia e maior eficiência.

Seção especial: Aparência do robô Olaf

(Reproduzir o vídeo de demonstração do robô Olaf da Disney)

Jensen Huang: O boneco de neve chegou! O Newton está funcionando bem! O Omniverse também está funcionando bem! Olaf, como você está?

Olaf: Estou muito feliz em te ver.

Jensen Huang: Sim, porque eu te dei um computador — Jetson!

Olaf: O que é isso?

Jensen Huang: Está bem ali dentro da sua barriga.

Olaf: Isso é incrível.

Jensen Huang: Você aprendeu a andar no Omniverse.

Olaf: Adoro caminhar. É muito melhor do que andar de rena e contemplar o lindo céu.

Jensen Huang: Isso se deve à simulação física — o solucionador Newton rodando no NVIDIA Warp, desenvolvido em colaboração com a Disney e a DeepMind, permitindo que você se adapte ao mundo físico real.

Olaf: Eu estava prestes a dizer exatamente isso.

Jensen Huang: Essa é a sua perspicácia. Sou um boneco de neve, não uma bola de neve.

Jensen Huang: Dá para acreditar? A futura Disneylândia — todos esses personagens robóticos circulando livremente pelo parque. Mas, sinceramente, achei que você fosse mais alto. Nunca vi um boneco de neve tão baixinho.

Olaf: (sem se comprometer)

Jensen Huang: Você pode me ajudar a encerrar o discurso de hoje?

Olaf: Isso seria incrível!

Resumo da palestra principal

Jensen Huang: Hoje, exploramos juntos os seguintes temas centrais:

  1. A chegada do ponto de inflexão do raciocínio: o raciocínio tornou-se a principal carga de trabalho da IA, os tokens são a nova mercadoria e o desempenho da inferência determina diretamente a receita.

  2. A era das fábricas de IA: os data centers evoluíram de instalações de armazenamento de arquivos para fábricas de produção de tokens e, no futuro, todas as empresas medirão sua competitividade pela “eficiência da fábrica de IA”.

  3. A revolução do agente OpenClaw: O OpenClaw deu início à era da computação por agentes, e a TI corporativa está passando da era das ferramentas para a era dos agentes; todas as empresas precisam definir uma estratégia para o OpenClaw.

  4. IA física e robótica: A inteligência incorporada está ganhando cada vez mais espaço, com a direção autônoma, os robôs industriais e os robôs humanóides representando, em conjunto, a próxima grande oportunidade para a IA física.

Obrigado a todos e aproveitem a GTC!

Você também pode gostar

5 minutos para transformar a IA no seu segundo cérebro

É hora de delegar a tarefa de memorização à IA

O mistério de 17 anos será desvendado: quem é Satoshi Nakamoto?

O New York Times investiga o mistério de Satoshi Nakamoto, com pistas que apontam para Adam Back

A Uniswap está presa em um dilema de inovação

As diversas versões do Uniswap são uma das fontes de vitalidade do mercado DeFi, mas, desde 2023, o Uniswap não propôs nenhuma inovação substancial, limitando-se a explorar áreas tradicionais de negócios, como cadeias de aplicativos, Launchpads etc., o que levou a uma queda nos preços dos tokens e no mercado...

Qual é o segredo da competitividade no setor bancário de criptomoedas?

Os bancos digitais, cartões de criptomoedas, carteiras digitais, superapps e protocolos DeFi estão todos convergindo para o mesmo objetivo: tornar-se o principal ponto de acesso para suas economias, gastos, rendimentos e transferências nesta nova era.

O fluxo de stablecoins e os efeitos colaterais no mercado de câmbio

A pesquisa descobriu que um aumento exógeno nas entradas líquidas de stablecoins amplia significativamente a divergência de preços entre stablecoins e câmbio tradicional, leva à depreciação da moeda local e piora as condições de financiamento para dólares sintéticos (ou seja, aumenta o prêmio do dólar)

Após dois anos, o primeiro lote de licenças de stablecoin de Hong Kong finalmente emitido: HSBC, Standard Chartered são aprovados

A entidade regulamentada está pronta para lançar uma stablecoin na primeira metade deste ano.

Populares

Últimas notícias sobre cripto

Leia mais