O Último Podcast de Huang Renxun: A NVIDIA Alcançará $1 Trilhão? O Número de Programadores Aumentará em vez de Diminuir? Como Lidar com a Ansiedade em Relação à IA?
Título Original: Jensen Huang: NVIDIA - A Empresa de $4 Trilhões e a Revolução da IA | Podcast Lex Fridman
Autor Original: Lex Fridman
Tradução: Peggy, BlockBeats
Nota do Editor:
Contra o pano de fundo da contínua evolução da IA generativa e a entrada de Agentes em processos de produção reais, o foco das discussões da indústria está mudando de "quão poderoso é o modelo" para "como o sistema pode suportar a inteligência." À medida que o treinamento de modelos em larga escala se torna gradualmente padronizado, uma questão mais fundamental está surgindo: o que apoia a expansão contínua da IA não são mais apenas as inovações algorítmicas, mas todo o sistema computacional em si.

Este artigo é uma tradução de uma conversa entre Jensen Huang e Lex Fridman. Lex Fridman é um renomado pesquisador de IA e apresentador de podcast de tecnologia cujo programa há muito se concentra em discussões aprofundadas sobre tecnologia, indústria e tendências futuras. Nesta conversa, Jensen Huang não se concentrou nas capacidades do modelo em si, mas, em vez disso, a partir da arquitetura computacional e da evolução da indústria, apresentou um julgamento mais estrutural: A IA está passando de um "problema de chip" para um "problema de engenharia de sistemas."
Esta conversa pode ser compreendida de forma aproximada a partir de cinco aspectos.
Transição da Computação de "Chip" para "Fábrica"
O primeiro julgamento central da conversa é que a competição da IA não se concentra mais no desempenho de um único ponto, mas evoluiu para uma competição de capacidades de sistema. De GPUs, a máquinas inteiras, até "fábricas de IA" em nível de data center, os limites das unidades de computação continuam a se expandir. Ao mesmo tempo, o papel dos computadores também mudou—de um "armazém" para armazenar e recuperar informações para um "sistema de produção" que gera continuamente tokens. Isso significa que a IA não é mais apenas uma ferramenta, mas está diretamente envolvida na infraestrutura econômica da produção.
Quatro Camadas de Escalonamento: Por que a IA está se tornando "mais pesada"
Além disso, houve uma mudança estrutural no caminho de escalonamento da IA. O crescimento não depende mais de um único escalonamento de pré-treinamento, mas sim do empilhamento de quatro tipos de escalonamento: pré-treinamento, pós-treinamento, inferência e Agente, formando um sistema cíclico. O Agente gera dados, que entram no treinamento, e o treinamento retroalimenta a inferência, que então suporta Agentes mais complexos. Todos os caminhos, em última análise, convergem em uma variável—poder computacional. A mudança mais crucial é que a inferência está se tornando o núcleo do consumo computacional, e o "pensar" em si se tornou o elo mais caro.
O Gargalo da IA Muda de Algoritmos para Energia
À medida que o escalonamento continua a se acumular, a questão mudou do nível do modelo para o nível da infraestrutura. Uma observação direta apresentada na discussão é que o gargalo de longo prazo da IA não é mais dados ou algoritmos, mas sim o sistema de energia e potência. No entanto, a verdadeira limitação não é apenas a oferta inadequada, mas sim o agendamento da rede, a arquitetura do data center e a dependência das empresas em relação à "alta disponibilidade." Isso transforma o problema da IA de uma questão técnica para um problema abrangente de engenharia, energia e arranjo institucional.
A Essência do CUDA: Participação de Mercado em vez de Vantagem Tecnológica
No campo competitivo, a discussão também fornece uma visão chave: O diferencial da NVIDIA não é apenas a liderança tecnológica, mas a participação de mercado e o ecossistema de desenvolvedores estabelecido através do CUDA. Ao incorporar o CUDA nas GeForce e sacrificar lucros de curto prazo em prol da escala, a NVIDIA realmente construiu uma "plataforma de computação." Quando a escala, o ecossistema e a velocidade de execução são combinados, a tecnologia em si se torna uma variável secundária. Isso significa que a competição em IA está mudando de capacidade de modelo para capacidade de plataforma e sistema.
Nota: CUDA (Arquitetura Unificada de Dispositivos de Computação) é uma plataforma de computação paralela lançada pela NVIDIA, permitindo que GPUs sejam utilizadas por desenvolvedores para computação de propósito geral, em vez de apenas renderização gráfica.
A IA Tomará Empregos? Não, mas Mudará a Definição de Trabalho
No nível da aplicação, a discussão também faz uma avaliação importante: A IA não substituirá simplesmente profissões, mas sim remodelará a estrutura do trabalho. A automação em nível de tarefa aumentará a eficiência geral, aumentando a demanda por habilidades profissionais. O cerne do trabalho não é mais "execução de tarefas", mas sim "definição de problemas, invocação de ferramentas e resolução colaborativa de problemas," onde a inteligência gradualmente se torna uma capacidade acessível, enquanto as diferenças humanas são mais refletidas no julgamento e nas habilidades organizacionais.
Se esta discussão fornece um ponto de entrada claro, ele reside em transformar a IA de "competição em capacidade de modelo" para um problema sistêmico: à medida que a computação se torna um sistema de produção, o que irá restringi-la não será mais apenas a tecnologia em si, mas sim energia, cadeias de suprimento e métodos organizacionais. Sob essa perspectiva, a questão não é mais se um determinado caminho tecnológico é superior, mas sim que o mundo inteiro está sendo reorganizado em torno de uma infraestrutura central baseada em computação.
A seguir está o conteúdo original (reorganizado para clareza):
TL;DR
· A IA evoluiu de "chips mais rápidos" para uma "fábrica de computação," onde a competição não é mais o desempenho de um único ponto, mas sim a eficiência sinérgica de toda a capacidade do sistema (poder computacional, rede, energia, software)
· O sucesso do CUDA não reside na tecnologia, mas em sua ubiquidade: A NVIDIA sacrificou lucro em prol da escala, estabelecendo um ecossistema de plataforma de computação quase inabalável.
·O crescimento da IA não se trata mais apenas de modelos maiores; em vez disso, envolve a escalabilidade simultânea em pré-treinamento, inferência, Agentes e mais, tudo convergindo em uma variável: poder computacional.
·A inferência está se tornando uma parte central do consumo de computação; "pensar" é mais custoso do que "treinar", e a IA está mudando de modelos offline para sistemas em execução contínua.
·O verdadeiro gargalo para a IA não é o algoritmo, mas sim a energia e a infraestrutura; a capacidade de agendamento de energia se tornará a próxima restrição crítica.
·A computação está passando de um "armazém de informações" para uma "fábrica de produção"; os tokens se tornam mercadorias negociáveis, e a infraestrutura de IA participará diretamente da produção econômica.
·A IA não substituirá simplesmente o trabalho, mas elevará as capacidades de todas as profissões; a futura competência central mudará de "executar tarefas" para "definir problemas e colaborar para resolvê-los."
Conteúdo da Entrevista
Lex Fridman: A seguir, uma conversa com Jensen Huang, o CEO da NVIDIA, uma empresa que pode ser considerada uma das mais significativas e influentes da história humana. A NVIDIA é o motor central que impulsiona a revolução da IA, e seu sucesso se deve em grande parte a uma série de julgamentos-chave e decisões ousadas tomadas por Jensen como líder, engenheiro e inovador. Este é o Podcast Lex Fridman. Então, por favor, dê as boas-vindas a Jensen Huang.
De "Chips Mais Rápidos" a "Fábrica de IA"
Lex Fridman: Você liderou a NVIDIA em uma nova fase da IA, passando de um foco no design em nível de chip no passado para o design em nível de rack hoje. Pode-se dizer que as vitórias passadas da NVIDIA foram amplamente baseadas na construção da GPU mais poderosa, e você ainda está fazendo isso, mas isso se expandiu para um co-design extremo: GPU, CPU, memória, rede, armazenamento, energia, refrigeração, software, o próprio rack, os pods que você lançou e até mesmo todo o data center. Então, vamos começar com "co-design extremo." Com tantos componentes e variáveis complexas, qual é a parte mais desafiadora do co-design de sistemas?
Jensen Huang: Essa é uma ótima pergunta. Primeiramente, a razão pela qual devemos fazer co-design extremo é que os problemas que estamos resolvendo agora não podem mais ser acelerados por um único computador ou mesmo por uma única GPU. O que você realmente deseja é—que a aceleração da computação exceda a taxa na qual você está adicionando computadores. Você adiciona 10.000 computadores, mas deseja uma melhoria de 1.000.000x no desempenho. Portanto, você precisa repensar os algoritmos, desmembrar os algoritmos, reconstruí-los, quebrar os pipelines, quebrar os dados, quebrar o modelo. Quando você distribui o problema dessa maneira, não se trata apenas de "escalar para fora", mas de "distribuir o problema", e então tudo se torna um gargalo.
Esse é essencialmente o problema da Lei de Amdahl: a aceleração geral do sistema depende da proporção do trabalho que pode ser acelerado. Se a computação representa apenas 50% do problema, mesmo que você aumente a velocidade de computação em um milhão de vezes, a aceleração geral será de apenas duas vezes. Portanto, não apenas você precisa distribuir a computação, mas também precisa abordar a divisão de pipelines, problemas de conectividade de rede, porque todos esses computadores precisam se interconectar. Na nossa escala de computação distribuída, a CPU é um problema, a GPU é um problema, a rede é um problema, o switch é um problema, e o balanceamento de carga em si é um problema. Esse é um problema de ciência da computação extremamente complexo. Portanto, precisamos usar todas as tecnologias juntas; caso contrário, você só pode escalar linearmente ou depender da Lei de Moore, que também está desacelerando.
Nota: A Lei de Amdahl pode ser entendida como a expressão matemática do efeito do balde em um sistema computacional. Neste artigo, ela é usada para ilustrar que a computação em IA não é apenas uma questão de melhorar o desempenho da GPU; aspectos como rede, armazenamento e agendamento se tornarão gargalos que devem ser otimizados em nível de sistema.
Lex Fridman: Devem haver muitos trade-offs envolvidos, e isso envolve especialistas de campos completamente diferentes, como memória de alta largura de banda, redes, NVLink, NICs, óptica, interconexões de cobre, energia, refrigeração, e assim por diante. Cada campo tem especialistas de classe mundial. Como você reuniu essas pessoas para colaborar?
Jensen Huang: É por isso que minha equipe é tão grande.
Lex Fridman: Você pode falar sobre esse processo? Como especialistas e generalistas colaboram? Qual é o processo de design geral quando você precisa encaixar todas essas coisas em um rack?
Jensen Huang:
Você pode responder com três perguntas. A primeira pergunta é: O que é "Co-Design Extremo"? Essencialmente, trata-se de otimização holística em toda a pilha de software e hardware, desde a arquitetura, chip, sistema, software de sistema, algoritmos até aplicações; esta é a primeira camada. A segunda camada é, como mencionamos, não apenas chips de CPU, GPU e rede, mas também sistemas de comutação de escalonamento vertical e horizontal, assim como energia e refrigeração, pois esses sistemas computacionais consomem muita energia. Eles são de fato muito eficientes, mas ainda consomem uma quantidade significativa de eletricidade no total.
Portanto, a primeira pergunta é "o que é isso", a segunda pergunta é "por que fazer isso", como mencionamos, é necessário distribuir as cargas de trabalho para alcançar benefícios além de simplesmente aumentar o número de computadores.
A terceira pergunta é "como fazer isso". Esta é, na verdade, a parte mais mágica desta empresa. Quando você está projetando um computador, precisa de um sistema operacional; quando está projetando uma empresa, deve primeiro pensar sobre o que essa empresa vai produzir. Eu vi os organogramas de muitas empresas, e todos parecem semelhantes—estruturas como hambúrguer, como empresas de software, como empresas de automóveis, mas na minha opinião, isso não faz sentido. O objetivo de uma empresa é se tornar uma máquina que produz produtos, é um mecanismo, um sistema usado para produzir continuamente os produtos que desejamos.
A estrutura organizacional de uma empresa deve refletir o ambiente em que opera. Até certo ponto, isso também determina como a organização deve funcionar. Minha equipe de relatórios diretos é composta por cerca de 60 pessoas. Eu não me comunico com eles um a um porque isso é impossível. Se você tem 60 relatórios diretos e trabalho a fazer, não pode realizar isso por meio de interações individuais.
Lex Fridman: Mas você ainda tem 60 relatórios diretos?
Jensen Huang: Mais do que isso. E essas pessoas, em sua maioria, têm formação em engenharia, com especialistas em memória, especialistas em CPU, especialistas em óptica, especialistas em GPU, arquitetos, algoritmistas, especialistas em design.
Lex Fridman: Isso é incrível.
Jensen Huang: Sim.
Lex Fridman: Então, você tem essencialmente supervisionado toda a pilha de tecnologia e participado de discussões profundas sobre o design geral?
Jensen Huang: E nós não temos "reuniões individuais." Nós fazemos uma pergunta e, em seguida, todos resolvem juntos. Como estamos fazendo um design colaborativo extremo, a empresa faz isso todos os dias.
Lex Fridman: Então, mesmo que você esteja discutindo um componente específico, como refrigeração ou rede, todos estão envolvidos?
Jensen Huang: Sim, isso mesmo.
Lex Fridman: Todos podem dizer: "Essa solução não funciona para energia," "Isso não funciona para memória?"
Jensen Huang: Isso está correto. Qualquer um que queira participar participa, e aqueles que não querem podem optar por não participar. Mas todos na equipe sabem quando devem participar. Se houver um problema onde alguém deveria ter contribuído, mas não contribuiu, eu os chamo para se juntar.
Lex Fridman: Então, como a NVIDIA evoluiu com ambientes em mudança? De inicialmente fabricar GPUs para jogos a aprendizado profundo e agora a "fábrica de IA" — como essa transição aconteceu?
Jensen Huang:
Isso pode ser deduzido logicamente. Começamos como uma empresa de aceleradores. No entanto, o problema com aceleradores é que eles são muito aplicáveis de forma restrita. Sua força reside na alta otimização, como todos os sistemas especializados, mas o problema é que quanto mais especializado é, mais restrito é o mercado. Isso, por si só, não é o maior problema. O aspecto mais crítico é que o tamanho do mercado determina suas capacidades de P&D e, em última análise, sua influência no espaço computacional.
Então, quando inicialmente fizemos o acelerador, sabíamos que isso era apenas o primeiro passo. Tivemos que encontrar um caminho para o que chamamos de 'computação acelerada.' Mas o problema é que, uma vez que você se torna uma empresa de computação, você se torna muito genérica, enfraquecendo assim sua capacidade especializada. Eu coloquei deliberadamente essas duas palavras de tensão juntas: Computação vs Especializada. Quanto mais você se parece com uma empresa de computação, menos você se parece com um sistema especializado; quanto mais especializado você é, mais difícil é cobrir todo o panorama da computação.
Portanto, as empresas precisam encontrar um caminho muito estreito, expandindo gradualmente os limites da capacidade de computação sem perder a capacidade especializada mais essencial.
Nosso primeiro passo foi inventar o shader de pixel programável, que foi o primeiro passo em direção à 'programabilidade.' No segundo passo, colocamos FP32 no shader, que é compatível com ponto flutuante de precisão simples com o padrão IEEE, um passo crucial que fez muitos que trabalham com processadores de fluxo e computação de fluxo de dados nos notarem. Eles começaram a perceber que essa GPU altamente capaz e compatível com padrões poderia potencialmente ser usada para computação de propósito geral. Então, eles começaram a tentar migrar software originalmente escrito para a CPU para a GPU.
Em seguida, introduzimos a linguagem C sobre o FP32, formando o Cg, que evoluiu ainda mais para o CUDA. Colocar o CUDA na GeForce foi uma decisão extremamente crítica, mas a empresa na verdade não podia arcar com o custo na época. A razão pela qual ainda fizemos isso é que queríamos nos tornar uma empresa de computação. E uma empresa de computação deve ter uma arquitetura de computação unificada que permaneça consistente em todos os chips.
Uma decisão que quase afundou a empresa uma vez, sustentou toda a era da IA.
Lex Fridman: Você poderia falar sobre essa decisão? Naquela época, quando o custo era claramente inaceitável, por que você ainda colocou o CUDA na GeForce?
Jensen Huang: Essa foi uma decisão próxima de 'vida ou morte.' Eu diria que foi nossa primeira decisão estratégica próxima a uma 'ameaça existencial.'
Lex Fridman: Para aqueles que podem não saber, isso foi posteriormente provado como uma das maiores decisões na história da empresa. CUDA se tornou a plataforma de computação central de toda a infraestrutura de IA.
Jensen Huang:
Sim, mais tarde foi provado que era a decisão certa. A lógica na época era a seguinte: nós inventamos o CUDA, que expandiu a gama de aplicações que nosso acelerador poderia cobrir. Mas a questão era: como atrair desenvolvedores? Porque o núcleo de uma plataforma de computação são os desenvolvedores, e os desenvolvedores não viriam apenas porque uma plataforma é 'interessante'; eles escolhem plataformas com um grande número de implementações.
A taxa de adoção é o fator mais crítico. Os desenvolvedores, como todos os outros, querem que seu software alcance mais usuários. Portanto, a taxa de adoção é um determinante chave do sucesso. Uma arquitetura pode ser fortemente criticada, como o x86 sendo considerado inelegante, no entanto, continua sendo a arquitetura dominante hoje devido à sua enorme adoção.
Em contraste, muitas arquiteturas RISC são elegantemente projetadas pelos melhores cientistas da computação, mas acabaram falhando. Isso ilustra um ponto: a taxa de adoção define a arquitetura, e todo o resto é secundário.
Naquela época, o CUDA enfrentava concorrência, como o OpenCL, e assim por diante. A decisão chave que tomamos foi: uma vez que a taxa de adoção é primordial, devemos encontrar uma maneira de levar rapidamente essa nova arquitetura ao mercado.
Naquela época, a GeForce já era muito bem-sucedida, enviando milhões de GPUs anualmente. Portanto, decidimos incorporar o CUDA em todas as GeForce, tornando-o parte de todos os PCs—independentemente de os usuários o utilizarem ou não. Essa foi a maneira mais rápida de construir a adoção.
Simultaneamente, fomos às universidades, escrevemos livros didáticos e oferecemos cursos para levar o CUDA a todos os lugares. Naquela era, os PCs eram as principais plataformas de computação, antes da nuvem. Nós essencialmente colocamos um "supercomputador" nas mãos de cada estudante, cada pesquisador.
No entanto, isso aumentou significativamente o custo das GPUs, consumindo quase toda a margem bruta da empresa. Naquela época, a empresa estava avaliada em cerca de seis a sete bilhões de dólares. Após a introdução do CUDA, a avaliação caiu para cerca de 15 bilhões de dólares devido ao aumento de custos. Passamos por uma fase muito difícil, mas perseveramos.
Eu sempre digo que a NVIDIA é uma casa construída sobre a GeForce. Porque foi a GeForce que trouxe o CUDA para todos. Pesquisadores, cientistas, engenheiros, todos descobriram o CUDA através da GeForce. Muitas pessoas eram gamers, montando seus próprios PCs, construindo clusters em laboratórios com componentes de PC—esse foi o ponto de partida para o CUDA decolar.
Lex Fridman: E isso então se tornou a plataforma fundamental para a revolução do aprendizado profundo.
Jensen Huang: Exatamente, essa é uma observação muito importante.
Lex Fridman: Você se lembra de como foram as discussões internas durante aquele momento quase "vida ou morte"?
Jensen Huang: Eu tive que explicar ao conselho o que estávamos fazendo, e a equipe de gestão entendeu que nossa margem bruta seria severamente comprimida. Você pode imaginar um cenário: A GeForce arcou com o custo do CUDA, mas os gamers não pagariam por isso. Eles estavam dispostos a pagar apenas um preço fixo e não pagariam mais porque seus custos aumentaram.
Aumentamos o custo em 50%, enquanto a margem bruta da empresa é de apenas 35%, então essa foi uma decisão muito difícil. Mas podíamos vislumbrar um futuro: O CUDA entraria em estações de trabalho, entraria em supercomputadores, e nessas áreas, poderíamos alcançar lucros maiores. Logicamente, você pode se convencer de que isso é viável, mas realizá-lo de fato levou dez anos.
Lex Fridman: Mas isso é mais sobre comunicação com o conselho. Da sua perspectiva pessoal, como você tomou essa decisão de "apostar no futuro"? A NVIDIA sempre tomou decisões ousadas para prever o futuro, até mesmo para defini-lo, como vocês conseguiram isso?
Jensen Huang: Antes de tudo, eu tenho uma forte curiosidade. Depois, há um processo de raciocínio que me convence muito de que um certo resultado definitivamente acontecerá. Quando eu realmente acredito em algo na minha mente, esse tipo de futuro se torna muito claro, quase impossível de não acontecer. Haverá muita dor no meio do caminho, mas você precisa acreditar no que acredita.
Lex Fridman: Então, você primeiro constrói o futuro na sua mente e depois o engenheira?
Jensen Huang:
Sim. Você irá raciocinar sobre como chegar lá, por que isso deve existir. Nós iremos raciocinar repetidamente, e a equipe de gestão também participará, nós passaremos muito tempo nisso.
O próximo é uma habilidade muito crucial. Muitos líderes primeiro ficarão em silêncio, aprenderão e então, um dia, de repente farão uma "declaração", como no ano novo, um grande ajuste, uma grande demissão, reestruturação organizacional, nova missão, novo logotipo. Eu não faço assim.
Quando começo a perceber que algo é importante, eu imediatamente digo às pessoas ao meu redor: isso é importante e terá um impacto. Eu explicarei passo a passo. Muitas vezes eu já tomei a decisão, mas eu usarei cada oportunidade—novas informações, novas percepções, novos avanços na engenharia—para moldar continuamente a compreensão de todos.
Eu faço isso todos os dias, com o conselho, com a gestão, com os funcionários. Eu estou constantemente moldando os sistemas de crença deles. Então, quando um dia eu digo: "Nós vamos adquirir a Mellanox," todos sentirão que essa é uma decisão óbvia.
Quando eu digo: "Nós estamos apostando tudo em aprendizado profundo," na verdade, eu já preparei o terreno há muito tempo. Quando eu anuncio isso, muitas pessoas na verdade dirão: "Por que você só está dizendo isso agora?"
De certa forma, isso é como "liderar de trás," mas na realidade, você tem moldado o consenso o tempo todo. Você quer que todos andem juntos, em vez de anunciar de repente uma decisão que ninguém entende.
Lex Fridman: E você não está apenas moldando a cognição dentro da empresa, você está moldando toda a indústria.
Jensen Huang:
Na verdade, não vendemos computadores diretamente, nem vendemos a nuvem diretamente. Nós somos uma empresa de plataforma de computação. Fazemos design de integração vertical em cada camada, mas ao mesmo tempo, estamos abertos em cada camada para permitir que outras empresas integrem isso em seus próprios produtos, serviços, nuvens e supercomputadores.
Portanto, se eu não conseguir convencer toda a indústria primeiro, meu produto não será aceito. É por isso que a GTC é tão importante—é sobre "prever o futuro." Quando realmente lançarmos o produto, todos dirão: "Por que você está fazendo isso só agora?"
Por que a IA está se tornando mais "queimadora de dinheiro"? Quatro tipos de escalonamento estão se acumulando.
Lex Fridman: Você sempre acreditou na lei de escalonamento. Você ainda acredita nela agora?
Nota: A lei de escalonamento, geralmente referida em chinês como a lei de escalonamento, refere-se a: quando você aumenta continuamente certas variáveis-chave, o desempenho do sistema melhorará de acordo com um padrão relativamente estável e previsível. Na IA, geralmente se refere a: quanto maior o modelo, mais dados, mais forte o poder computacional, mais fortes as capacidades do modelo.
Jensen Huang: Claro, e agora existem mais leis de escalonamento.
Lex Fridman: Você mencionou quatro tipos antes: pré-treinamento, pós-treinamento, estágio de inferência e escalonamento agente. Quando você olha para o futuro, seja a curto ou a longo prazo, quais "gargalos" potenciais você realmente se preocupa? Quais são os problemas que você sente que devem ser abordados, mesmo que isso o mantenha acordado à noite?
Jensen Huang: Vamos olhar para trás nos "gargalos" percebidos do passado.
Inicialmente, era o escalonamento de pré-treinamento, onde as pessoas acreditavam que dados limitados de alta qualidade restringiriam a melhoria da inteligência da IA. Ilya Sutskever até disse: "Estamos ficando sem dados," criando pânico na indústria. Mas a realidade provou o contrário. Continuaremos a expandir as fontes de dados, sendo uma grande parte dela dados sintéticos. Na verdade, a informação transmitida entre humanos é fundamentalmente "sintética" também. Você cria conteúdo, eu o consumo, depois o processo e o transmito. Agora a IA pode começar a partir de dados reais, expandir, aprimorar e gerar uma grande quantidade de dados. Portanto, a fase pós-treinamento ainda está se expandindo. A limitação futura do treinamento de modelos não será mais os dados, mas sim o poder computacional.
Nota: Ilya Sutskever é cofundador da OpenAI e ex-Cientista Chefe, uma figura chave no campo do aprendizado profundo, envolvido em descobertas importantes como o AlexNet, com um impacto profundo em grandes modelos e na escalabilidade da IA.
Em seguida, vem a fase de inferência. Muitas pessoas costumavam pensar que a inferência era simples e o treinamento era difícil. Mas isso é, na verdade, irracional, porque a inferência é essencialmente "pensar," o que é muito mais difícil do que "ler." O treinamento é mais parecido com memorização e reconhecimento de padrões, enquanto a inferência envolve raciocínio, planejamento, busca, decomposição de problemas, tudo isso requer muita computação. Acontece que nossa avaliação inicial estava correta, e a computação de inferência é muito intensiva.
Avançando, temos a escalabilidade agente. Agora não somos apenas um modelo, mas um "sistema agente" que pode chamar ferramentas, acessar bancos de dados e gerar sub-agentes. Semelhante a uma empresa, em vez de aprimorar a capacidade de uma única pessoa, é mais fácil expandir as capacidades adicionando à equipe. A IA funciona da mesma maneira, capaz de replicar e escalar rapidamente. Portanto, esta é uma nova lei de escalabilidade.
Esses processos formarão um ciclo: o agente gera dados, os dados retornam ao pré-treinamento, depois entram no pós-treinamento, depois entram na inferência, e então entram no sistema agente, ciclando continuamente. No final das contas, o crescimento da inteligência se resume a uma variável central: poder de computação.
Lex Fridman: Mas aqui está um desafio; você deve antecipar essas mudanças com antecedência, pois diferentes estágios exigem diferentes hardwares, como a arquitetura MoE, esparsidade e assim por diante. E o ciclo de hardware é de alguns anos, então você não pode ajustar sempre que quiser.
Jensen Huang: Exatamente. As arquiteturas de modelos de IA mudam a cada 6 meses, enquanto as arquiteturas de sistema e hardware mudam a cada 3 anos. Portanto, você deve antecipar o futuro de dois a três anos com antecedência. Temos três métodos: primeiro, fazemos nossa própria pesquisa, incluindo pesquisa básica e pesquisa aplicada, construímos nossos modelos; segundo, colaboramos com quase todas as empresas de IA para entender seus desafios; terceiro, construímos uma arquitetura suficientemente flexível, como CUDA, que é eficiente e flexível.
Por exemplo, quando o MoE surgiu, introduzimos o NVLink 72, que pode executar um modelo de 100 trilhões de parâmetros como se fosse uma única GPU. Outro exemplo é o rack Grace Blackwell e o rack Vera Rubin, seus designs são completamente diferentes porque o primeiro é projetado para inferência de LLM, enquanto o último é projetado para sistemas de agentes.
Nota: O rack Grace Blackwell é um sistema de computação em IA de ponta a ponta lançado pela NVIDIA para treinamento e inferência de modelos em larga escala, com a CPU Grace e a GPU Blackwell profundamente integradas por meio de interconexões de alta largura de banda, servindo como a unidade computacional central da "fábrica de IA"; o rack Vera Rubin é a arquitetura de infraestrutura de IA de próxima geração da NVIDIA (seguindo Blackwell), voltada para sistemas de agentes mais complexos e cenários de inferência em larga escala, enfatizando a colaboração em nível de sistema e maior eficiência energética.
Lex Fridman: Mas esses designs foram concluídos antes do surgimento do Claude Code, Codex e OpenClaw. Como você antecipou isso?
Jensen Huang: Na verdade, não é tão difícil, você só precisa usar o raciocínio. Suponha que o LLM deva se tornar um "empregado digital", ele deve acessar dados reais, realizar pesquisas, usar ferramentas. Portanto, ele deve ter um sistema de I/O, fazer chamadas de ferramentas. Alguns dizem que a IA substituirá o software, mas isso não está correto. Assim como um robô, ele não transformará sua mão em um martelo ou bisturi, mas sim usará ferramentas. Está tudo bem se ele não souber como usá-las da primeira vez, ele pode ler o manual e aprender rapidamente. Portanto, essas capacidades são inevitáveis.
Quando você raciocina assim, descobrirá que na verdade reinventamos o computador. A arquitetura de agentes da qual falei na GTC há dois anos corresponde quase exatamente ao OpenClaw hoje. A importância do OpenClaw para os agentes é semelhante ao que o ChatGPT significa para a IA generativa.
Lex Fridman: De fato, é um momento especial.
Jensen Huang: Sim.
Lex Fridman: Mas também há um problema aqui; quando a tecnologia se torna tão poderosa, ela também traz riscos de segurança. Nós, como indivíduos e como sociedade, estamos tentando encontrar um equilíbrio.
Jensen Huang: Sim, imediatamente envolvemos um grande número de especialistas em segurança para estudar essa questão. Criamos um sistema chamado OpenShell, que agora está integrado ao OpenClaw. Ao mesmo tempo, a NVIDIA também apresentou o NemoClaw.
Lex Fridman: Sim, sua instalação também é muito simples e pode garantir a segurança do sistema.
Jensen Huang: Propusemos um princípio: a qualquer momento, pode-se possuir apenas duas das três capacidades—acesso a dados sensíveis, execução de código, comunicação externa. Se as três capacidades estiverem presentes simultaneamente, isso representa um risco. Portanto, garantimos a segurança por meio dessa abordagem de "escolher duas entre três". Além disso, incorporamos controle de acesso em nível empresarial e um mecanismo de políticas, permitindo que as empresas gerenciem com base em seus próprios sistemas de permissão. Faremos o nosso melhor para tornar o OpenClaw mais seguro e controlável.
O Limite da IA não é o Algoritmo, mas a Eletricidade.
Lex Fridman: Você acabou de falar sobre muitas coisas que foram consideradas gargalos no passado, mas que foram superadas posteriormente. Então, olhando para isso agora, em um futuro onde os agentes serão onipresentes, qual será o verdadeiro gargalo?
erroLex Fridman: Mas você não parece ver a cadeia de suprimentos como o gargalo mais preocupante?
Jensen Huang: Porque abordei sistematicamente essas questões uma a uma, agora posso dormir tranquilo. Vamos raciocinar a partir de princípios fundamentais: O que implica uma mudança na arquitetura do sistema? Como o software mudará? Como os processos de engenharia mudarão? Como a cadeia de suprimentos mudará? Por exemplo, o rack NVLink 72 deslocou a integração da supercomputação de dentro do data center para a borda da cadeia de suprimentos. Anteriormente, os componentes eram entregues ao data center para montagem, mas agora são montados em sistemas completos diretamente na cadeia de suprimentos e, em seguida, transportados.
Isso significa que a própria cadeia de suprimentos precisa ter capacidades de fabricação mais robustas, como suportar testes de potência em larga escala. Precisamos até que a cadeia de suprimentos tenha capacidade de potência em nível de gigawatt para testar esses sistemas. Portanto, eu me comunicarei pessoalmente com os fornecedores, informarei sobre as necessidades futuras e os farei investir bilhões de dólares. Eles confiam em mim, e eu lhes darei informações e tempo suficientes para entender essas mudanças.
Lex Fridman: Então, você está preocupado com gargalos específicos? Como EUV, capacidade de embalagem e assim por diante?
Jensen Huang: Eu não estou. Porque eu lhes disse o que preciso, e eles me disseram como farão isso. Eu confio neles.
Lex Fridman: Agora, vamos voltar à questão da energia. Como você vê a questão energética?
Jensen Huang: Eu gostaria que todos prestassem atenção a um fato: Nossa rede elétrica é projetada com base no "pior cenário possível", como a demanda máxima durante condições climáticas extremas. Mas, na realidade, 99% do tempo, estamos longe de alcançar esse pico, na maioria das vezes operando apenas em torno de 60%. Isso significa que, na maior parte do tempo, a rede elétrica tem muita capacidade ociosa, mas essa capacidade deve existir porque infraestruturas críticas, como hospitais e aeroportos, precisam ter energia em momentos cruciais.
Então, o que estou pensando é: podemos projetar um mecanismo onde, quando a rede elétrica precisa operar em plena capacidade, os data centers reduzam o consumo de energia; e durante a maior parte do tempo, utilizem essa energia ociosa? Por exemplo, os data centers podem reduzir o desempenho, migrar tarefas ou até mesmo rebaixar temporariamente os serviços durante os horários de pico. Dessa forma, podemos usar a rede elétrica de maneira mais eficiente.
Mas o problema atual reside em três áreas: Primeiro, os clientes exigem que os data centers estejam 100% disponíveis; segundo, os projetos dos data centers devem suportar essa redução dinâmica; e terceiro, as empresas de energia também precisam fornecer modos de fornecimento de energia mais flexíveis. Se todos os três pontos forem alcançados, podemos melhorar significativamente a eficiência da utilização de energia.
Então, eu acho que o futuro de como usamos computadores e construímos data centers não deve apenas visar 100% de disponibilidade. Esses contratos muito rigorosos realmente colocam muita pressão na rede elétrica, pois exigem que a rede não apenas atenda à demanda de pico, mas também continue se expandindo além disso. O que realmente quero aproveitar é apenas aquela parte do excedente de energia ociosa.
Lex Fridman: Esse ponto, de fato, não é discutido o suficiente. O que você acha que é atualmente o principal obstáculo?
Jensen Huang: Eu acho que esse é um problema tripartite.
Primeiro, está o cliente final. O cliente final faz exigências ao data center: você absolutamente não pode ficar offline, absolutamente não pode estar indisponível. Em outras palavras, o que o cliente espera é perfeição. E para alcançar essa perfeição, você precisa de geradores de backup, e o fornecedor da rede elétrica também precisa ser quase perfeito. Portanto, cada elo precisa se esforçar para alcançar os "seis noves."
Nota: "Seis noves" refere-se a 99,9999% de disponibilidade.
Então, eu acho que a primeira coisa é fazer com que todos os clientes, todos os CEOs, estejam realmente cientes do que estão pedindo. Muitas vezes, as pessoas que assinam esses contratos são apenas alguém da equipe de operações do data center, distantes do CEO. Aposto que muitos CEOs não têm ideia do que são esses termos contratuais. Estou pronto para conversar com todos eles.
Esses CEOs provavelmente nem estão prestando atenção a esses contratos que estão sendo assinados. Todos querem assinar o melhor contrato, o que é compreensível, é claro. E então esses requisitos são repassados camada por camada para os provedores de nuvem, que os repassam para as utilidades, então toda a cadeia está exigindo "seis noves." Portanto, o primeiro passo é fazer com que clientes e CEOs realmente entendam o que estão pedindo.
A segunda coisa é que devemos construir data centers que possam "degradar graciosamente." Em outras palavras, se a rede nos disser: "Você precisa reduzir seu consumo de energia para 80%", devemos ser capazes de dizer: "Sem problemas."
Podemos reprogramar as cargas de trabalho. Vamos garantir que os dados nunca sejam perdidos, mas podemos reduzir a taxa de computação, usar um pouco menos de energia. A qualidade do serviço diminuirá ligeiramente. Para as cargas de trabalho mais críticas, eu as migrarei imediatamente para outro lugar para que não sejam afetadas. Portanto, qualquer data center que ainda puder manter 100% de tempo de atividade, que cuide da parte mais crítica.
Lex Fridman: Quão desafiadora é essa alocação de energia inteligente e dinâmica para data centers do ponto de vista da engenharia?
Jensen Huang: Desde que você possa definir o problema claramente, você pode engenheirá-lo. Você levantou a questão excepcionalmente bem. Desde que esteja alinhado com as leis físicas no nível dos primeiros princípios, acredito que podemos alcançá-lo.
Lex Fridman: Você acabou de mencionar três coisas, qual era a terceira?
Jensen Huang: O segundo é o próprio data center, e o terceiro é que as empresas de utilidade também precisam perceber que isso é, na verdade, uma oportunidade.
Elas não podem sempre dizer: "Você tem que esperar cinco anos para eu expandir a rede para esse nível de capacidade." Se você estiver disposto a aceitar esse nível de garantia de energia, então eu realmente posso fornecer energia a você por esse preço no próximo mês.
Portanto, se as empresas de utilidade também puderem fornecer compromissos de energia mais variados, eu acho que o mercado encontrará soluções correspondentes por conta própria. Atualmente, há muito desperdício na rede elétrica, e devemos aproveitá-lo.
Lex Fridman: Você anteriormente elogiou muito a capacidade de Elon Musk de construir o supercomputador Colossus em Memphis. O que você acha que vale a pena aprender com a abordagem dele?
Jensen Huang: Elon está envolvido em uma gama muito ampla de áreas, mas ele é um pensador de sistemas muito forte. Ele pergunta continuamente: Isso é realmente necessário? Deve ser feito dessa maneira? Por que está demorando tanto? Ele comprime o sistema para a complexidade mínima necessária, mantendo as capacidades essenciais.
Ele também é extremamente prático; onde quer que haja um problema, ele vai até lá. Ele quebra muitas "convenções" e "processos" para realmente fazer as coisas avançarem. Além disso, seu senso de urgência permeia toda a cadeia de suprimentos. Ele faz com que todos os fornecedores o priorizem, o que é crucial.
Lex Fridman: Você tem uma abordagem semelhante no co-design da NVIDIA?
Jensen Huang: O co-design em si é a forma máxima de engenharia de sistemas. Nós também temos um conceito chamado "pensamento na velocidade da luz." Isso não é apenas velocidade, é o limite físico. Nós avaliamos todos os problemas em relação ao limite físico: velocidade da memória, velocidade de processamento, consumo de energia, custo, tempo, ciclo de fabricação, e assim por diante. Primeiro perguntamos: No limite físico, o que pode ser alcançado? E então fazemos concessões na realidade.
Eu realmente não gosto da abordagem de "otimização contínua". Se um processo atualmente leva 74 dias, e alguém diz que pode ser otimizado para 72 dias, eu não aceito isso. Eu prefiro começar do zero e perguntar: Por que leva 74 dias? Se começando do zero, quão rapidamente pode ser feito agora? Muitas vezes a resposta pode ser 6 dias. Então você entende por que os 68 dias restantes existem.
Lex Fridman: Em um sistema tão complexo, o princípio da "simplicidade" ainda é importante?
Jensen Huang: Claro. O que buscamos é "complexidade necessária" e "simplicidade sempre que possível." Devemos perguntar continuamente: Essa complexidade é necessária? Se não, remova-a.
Lex Fridman: Mas seu sistema já é extremamente complexo, como o pod Vera Rubin, com trilhões de transistores e milhares de GPUs.
Jensen Huang: Sim, este é o sistema de computador mais complexo do mundo.
Lex Fridman: Isso é muito interessante. Você visitou a China recentemente. Então, estou muito curioso para te fazer uma pergunta: A impressionante ascensão da China na indústria de tecnologia na última década tem sido notável. Como você vê a construção de tantas empresas de classe mundial, equipes de engenharia de classe mundial e um ecossistema tecnológico que produz consistentemente produtos incríveis em um período tão curto?
Jensen Huang:
Existem muitas razões. Vamos começar com alguns fatos básicos. Globalmente, cerca da metade dos pesquisadores em IA são chineses, grosso modo, e a maioria deles ainda está na China. Temos muitos aqui também, mas a própria China ainda possui um grande número de excelentes pesquisadores. A indústria de tecnologia da China surgiu em um momento crítico—na era da internet móvel e da computação em nuvem. O principal caminho de contribuição deles é o software, e este país tem uma base muito forte em educação em ciências e matemática; os jovens são altamente educados. Crescendo na era do software, eles estão muito familiarizados com sistemas modernos de software.
Além disso, a China não é uma única entidade econômica, mas é composta por várias províncias e cidades que competem entre si. É por isso que você vê um grande número de empresas de veículos de energia nova, inúmeras empresas de IA, e quase toda indústria tem muitas empresas fazendo coisas semelhantes ao mesmo tempo. Essa competição interna é muito feroz, e tipicamente, apenas empresas excelentes sobrevivem.
Além disso, a cultura social deles é "família em primeiro lugar, amigos em segundo, empresa em terceiro." Nessa estrutura, a troca de informações entre diferentes empresas é muito frequente e essencialmente cria um ambiente aberto a longo prazo. Portanto, o maior investimento deles em código aberto segue naturalmente porque eles pensam, "O que estamos realmente protegendo?" Há uma sobreposição significativa de relacionamentos entre engenheiros—parentes, amigos, colegas de classe, sendo que "colegas de classe" é quase um relacionamento para a vida toda. Essa rápida disseminação de conhecimento torna o código aberto mais eficiente, pois há uma falta de forte motivação proprietária na tecnologia em si. A comunidade de código aberto amplifica e acelera ainda mais o processo de inovação.
Assim, você verá que a combinação de talentos de alto nível, inovação rápida impulsionada por código aberto, relacionamentos altamente interconectados e intensa competição produz, em última análise, resultados técnicos muito fortes. Sob essa perspectiva, a China é atualmente o país que mais inova no mundo. Por trás de tudo isso estão os fatores fundamentais: o sistema educacional, a ênfase na aprendizagem dentro das famílias, a estrutura cultural e o posicionamento fortuito dentro de uma janela chave de desenvolvimento tecnológico exponencial.
Lex Fridman: Culturalmente, ser engenheiro é uma coisa muito "legal".
Jensen Huang: Sim, é um "país de engenheiros." Muitos líderes nos EUA têm formação jurídica, que é voltada para a governança e a estabilidade institucional; enquanto muitos líderes na China são eles mesmos engenheiros excepcionais.
Lex Fridman: Você mencionou código aberto anteriormente, e eu gostaria de aprofundar isso. Você sempre teve uma alta consideração pela Perplexity.
Jensen Huang: Eu adoro isso.
Lex Fridman: Além disso, obrigado por tornar o Nemotron 3 Super um projeto de código aberto, um modelo MoE de 1,2 trilhões de parâmetros que agora pode ser usado na Perplexity. Como você vê a importância do código aberto a longo prazo? Empresas como a DeepSeek e a MiniMax da China estão impulsionando a IA de código aberto, e a NVIDIA também está trabalhando em modelos de código aberto quase SOTA. Qual é a sua avaliação geral?
Jensen Huang: Primeiro, se quisermos ser uma excelente empresa de computação em IA, devemos entender como os modelos evoluíram. O que eu realmente gosto no Nemotron 3 é que não é um Transformer puro, mas uma combinação de Transformer e SSM. Nós também fomos pioneiros em traçar caminhos em GANs condicionais e GANs progressivos, que gradualmente evoluíram para difusão. É essa acumulação em arquitetura de modelos e pesquisa fundamental que nos permite antecipar desde cedo que tipo de sistemas computacionais os modelos futuros exigirão. Isso, por si só, faz parte do nosso "co-design extremo."
Em segundo lugar, por um lado, precisamos ter modelos de classe mundial como produtos, que podem ser proprietários; mas, por outro lado, também esperamos que a IA possa se espalhar por todas as indústrias, países, pesquisadores e estudantes. Se tudo estiver fechado, é desafiador conduzir pesquisas e inovar ainda mais com base nisso. Portanto, para muitas indústrias, o código aberto é uma condição necessária para participar da revolução da IA. A NVIDIA tem a escala e a motivação para construir continuamente esses modelos a longo prazo, e também temos a capacidade de impulsionar todo o ecossistema para envolver mais pessoas.
O terceiro ponto é que a IA não é apenas linguagem. A IA do futuro irá utilizar ferramentas, submodelos e envolver diferentes modalidades, como biologia, química, física, fluidos, termodinâmica, que não existem apenas na forma de linguagem. Portanto, deve haver esforços contínuos para avançar em direções como IA meteorológica, IA biológica, IA física, etc., e constantemente se aproximar da fronteira. Nós não fabricamos carros, mas esperamos que cada fabricante de automóveis possa usar os melhores modelos; não nos envolvemos no desenvolvimento de medicamentos, mas esperamos que empresas como a Gilead possam ter o melhor sistema de IA biológica.
Assim, ao olhar para a IA na sua amplitude, a popularidade da IA e a evolução colaborativa da IA e da arquitetura de computação, o código aberto é necessário.
Lex Fridman: Mais uma vez, obrigado por tornar o Nemotron 3 de código aberto.
Jensen Huang: Nós não apenas tornamos o modelo de código aberto, mas também os pesos, dados e métodos de construção.
Lex Fridman: Realmente notável.
Jensen Huang: Obrigado.
Lex Fridman: Você nasceu em Taiwan, China, e tem uma parceria de longo prazo com a TSMC. Gostaria de perguntar, como você entende a cultura da TSMC e como ela alcançou um sucesso tão único?
Jensen Huang: A maior concepção errônea que os de fora têm sobre a TSMC é que seu núcleo é apenas tecnologia. Claro, a tecnologia deles é realmente muito forte, incluindo transistores, camadas metálicas, embalagem avançada, embalagem 3D e fotônica de silício. Mas o que realmente os diferencia são suas capacidades de coordenação em resposta às demandas de toda a indústria.
Eles precisam atender simultaneamente às necessidades em constante mudança de centenas de clientes globais: aumentos ou diminuições de pedidos, mudanças de clientes, adições de emergência, pausas na produção, reinícios, e assim por diante. Apesar de um ambiente tão dinâmico, eles ainda conseguem manter alta produtividade, alta taxa de rendimento, baixo custo e um nível de serviço extremamente alto.
Eles levam os compromissos extremamente a sério. Quando dizem que um wafer será entregue em um determinado horário, ele será entregue, e isso afeta diretamente as operações das empresas clientes. Portanto, o próprio sistema de fabricação deles pode ser descrito como um milagre.
O segundo ponto é a cultura. Por um lado, eles continuam a impulsionar a fronteira tecnológica e, por outro lado, são altamente centrados no cliente. Muitas empresas conseguem fazer apenas uma dessas coisas bem, mas elas conseguiram fazer ambas em um nível de classe mundial.
O terceiro ponto é um ativo intangível, a confiança. Isso é muito importante. Eu poderia construir completamente minha empresa em cima da deles, e essa confiança é acumulada através de uma cooperação de longo prazo.
Lex Fridman: Essa confiança vem tanto da colaboração de longo prazo quanto das relações interpessoais.
Jensen Huang: Sim. Estamos colaborando há trinta anos, envolvendo dezenas, senão centenas de bilhões de dólares em negócios, mas não temos nem mesmo um contrato entre nós.
Lex Fridman: Realmente incrível. Há um ditado que em 2013, o fundador da TSMC, Morris Chang, o convidou para ser o CEO, e você recusou. Isso é verdade?
Jensen Huang: Isso é verdade. Fiquei muito honrado, mas naquela época, também estava muito claro para mim que o que a NVIDIA estava fazendo era extremamente importante. Eu tinha visto o que isso se tornaria no futuro e o impacto que poderia ter. Era minha responsabilidade, e eu tinha que fazer isso acontecer. Então eu recusei, não porque a oportunidade não era importante, mas porque eu não poderia me afastar dela.
Lex Fridman: Acho que a NVIDIA e a TSMC são ambas uma das maiores empresas da história humana.
Jensen Huang: Obrigado.
Lex Fridman: Eu tenho que fazer uma pergunta. Usando as palavras comumente ouvidas na indústria de tecnologia, qual é a sua maior "barreira", ou seja, qual é a vantagem central que ajuda você a se defender da concorrência?
Jensen Huang:
No cerne, está a escala de nossa plataforma de computação, que é a base instalada do CUDA. Não tínhamos essa vantagem há vinte anos, mas hoje, a situação é completamente diferente. Mesmo que alguém desenvolvesse uma tecnologia semelhante ao CUDA, seria desafiador mudar o cenário atual. Porque a chave nunca foi apenas a tecnologia em si, mas a vantagem sistêmica formada por investimento de longo prazo, iteração contínua e expansão constante.
O sucesso do CUDA não foi alcançado por um punhado de pessoas, mas foi o resultado de 43.000 funcionários e milhões de desenvolvedores trabalhando juntos. Os desenvolvedores escolhem desenvolver no CUDA porque acreditam que manteremos essa plataforma a longo prazo e continuaremos a impulsionar seu desenvolvimento. Portanto, a "base instalada" em si é a vantagem mais crucial.
Quando essa vantagem de escala é combinada com nossa velocidade de execução, cria uma barreira mais forte. Historicamente, poucas empresas conseguiram construir um sistema tão complexo a essa velocidade, quanto mais iterar continuamente em uma cadência anual.
Do ponto de vista de um desenvolvedor, se você optar por apoiar o CUDA, pode esperar que ele seja mais forte seis meses depois e, ao mesmo tempo, pode alcançar centenas de milhões de dispositivos em todo o mundo, cobrindo todas as plataformas de nuvem, quase todas as indústrias e vários países. Se você abrir um projeto e priorizar o suporte ao CUDA, não apenas ganha escala, mas também velocidade de crescimento.
Adicionando a isso está o aspecto da "confiança", onde os desenvolvedores acreditam que a NVIDIA manterá esse ecossistema a longo prazo. Se eu fosse um desenvolvedor, priorizaria a escolha do CUDA.
A segunda vantagem é nosso ecossistema. Estamos altamente integrados no sistema de computação verticalmente e incorporados horizontalmente em quase todos os produtos das empresas. Existimos no Google Cloud, Amazon, Azure e também em novas plataformas de nuvem como CoreWeave, cobrindo supercomputadores, sistemas empresariais, dispositivos de borda, carros, robôs, satélites e até mesmo o espaço.
Em outras palavras, uma arquitetura de computação unificada que penetrou em quase todas as indústrias.
Lex Fridman: Então, com o desenvolvimento das fábricas de IA, como essa vantagem de instalação do CUDA irá evoluir? O futuro da NVIDIA se tornará essencialmente uma "empresa de fábricas de IA"?
Jensen Huang: No passado, nossa unidade de computação era a GPU; depois se tornou um computador inteiro, então um cluster; agora, é uma fábrica de IA completa. No passado, quando eu lançava um novo produto de geração como o "lançamento do Ampere de hoje", eu segurava um chip. Esse era meu "modelo mental" na época. Mas hoje é diferente. Segurar um chip se tornou um tanto "fofo" até certo ponto—não representa mais o que realmente construímos.
Agora, o modelo na minha mente é um enorme sistema: ele se conecta à rede, tem geração de energia, sistemas de refrigeração, estruturas de rede extremamente complexas, dezenas de milhares de pessoas instalando no local e dezenas de milhares de engenheiros apoiando nos bastidores. Iniciar um sistema assim não é uma questão de apertar um botão; requer milhares de pessoas trabalhando juntas.
Lex Fridman: Então, quando você pensa em "uma unidade de computação" agora, você está realmente pensando em um conjunto inteiro de racks, um pod, em vez de um único chip?
Jensen Huang: É toda a infraestrutura. E eu espero que meu próximo salto cognitivo seja entender o ato de "construir um computador" como uma questão de "escala planetária." Esse seria o próximo passo.
Lex Fridman: Você acha que a NVIDIA poderia potencialmente alcançar um valor de mercado de $1 trilhão no futuro? Ou olhando por um ângulo diferente, se isso acontecesse, como seria o mundo?
Jensen Huang: Eu acredito que o crescimento da NVIDIA é altamente provável, até inevitável na minha visão. Deixe-me explicar a razão.
Primeiro, já somos uma das maiores empresas de computação da história. Isso por si só vale a pena refletir: Por que isso acontece?
Há duas razões, ambas mudanças tecnológicas fundamentais.
Primeiro, houve uma mudança no paradigma da computação. A computação do passado era fundamentalmente um "sistema de recuperação." Nós pré-escrevemos conteúdo, gravamos conteúdo, geramos arquivos e, em seguida, recuperamos esse conteúdo por meio de um sistema de recomendação ou sistema de busca. Em outras palavras, era um sistema de "pré-geração humana + recuperação de arquivos." Agora, a computação de IA é baseada em contexto, exigindo processamento em tempo real e geração de tokens. Nós fizemos a transição de "computação baseada em recuperação" para "computação baseada em geração."
No sistema antigo, precisávamos de muito armazenamento; no novo sistema, precisamos de muita computação. Portanto, a demanda computacional aumentará significativamente. O único cenário que poderia mudar essa tendência é se essa computação generativa se mostrar ineficaz. Mas nos últimos 10 a 15 anos de pesquisa em aprendizado profundo, e o progresso recente nos últimos 5 anos, estou mais confiante do que nunca.
A segunda mudança é que o papel dos computadores no mundo mudou. No passado, os computadores eram mais como um armazém; agora, eles são mais como uma fábrica. Um armazém em si não gera receita diretamente, enquanto uma fábrica está diretamente ligada à receita. Os computadores não são mais apenas sistemas de armazenamento, mas sistemas de produção. Os "produtos" que eles produzem são tokens. E esses tokens estão sendo consumidos por diferentes grupos de pessoas, mostrando camadas, assim como o iPhone: há os gratuitos, os de alta gama e os de médio porte.
A inteligência, fundamentalmente, tornou-se um produto escalável. No futuro, em breve haverá uma situação em que alguém estará disposto a pagar $1.000 por cada milhão de tokens. Não é uma questão de saber se isso vai acontecer, é apenas uma questão de tempo.
Então a pergunta se torna: Quantas "fábricas de IA" o mundo precisa? Quantos tokens são necessários? Quanto a sociedade está disposta a pagar por esses tokens? Se a produtividade aumentar significativamente como resultado, que mudanças ocorrerão na economia global? Descobriremos novos medicamentos, novos produtos, novos serviços?
Quando você considera todos esses fatores juntos, estou muito certo: O PIB global acelerará. Ao mesmo tempo, a parte da despesa com computação será uma ordem de magnitude maior do que no passado.
Nesse contexto, voltando à NVIDIA: nosso papel nesta nova economia será muito maior do que é agora. Quanto aos números, como se é possível alcançar $3 trilhões em receita no futuro? A resposta é, claro, possível. Porque isso não é limitado por nenhum limite físico óbvio.
A cadeia de suprimentos da NVIDIA é apoiada por 200 empresas trabalhando juntas, e estamos expandindo por todo o ecossistema. A única verdadeira limitação é: energia. E eu acredito que a questão da energia pode, em última análise, ser resolvida.
Portanto, esses números em si são apenas "números." Lembro-me de quando a NVIDIA ultrapassou pela primeira vez $1 bilhão em receita, alguém me disse: "Uma empresa de semicondutores sem fábrica não pode ultrapassar $1 bilhão." Mais tarde, alguém disse: "Você não pode ultrapassar $25 bilhões."
Essas avaliações não são baseadas em princípios fundamentais. A verdadeira pergunta a se fazer é: O que estamos criando? Quão grande é essa oportunidade?
A NVIDIA não está competindo por participação de mercado existente. Muito do que fazemos é para um mercado que ainda não existe. É por isso que é difícil para os de fora imaginar nosso limite, pois não há um ponto de referência pronto. Mas eu tenho tempo suficiente. Continuarei a deduzir e articular. Cada GTC tornará esse futuro mais concreto. No final, daremos esse passo. Estou 100% certo disso.
Lex Fridman: Olhando pela perspectiva de uma "fábrica de tokens", todo o sistema pode ser entendido como: gerando tokens por watt, por segundo, e cada token tem valor, com valores diferentes para pessoas diferentes. Dessa forma, o mundo inteiro é composto por inúmeras "fábricas de tokens." Partindo de princípios básicos, enquanto os problemas que a IA pode resolver continuarem a aumentar, podemos deduzir que a demanda por essas "fábricas" no futuro crescerá exponencialmente.
Jensen Huang: Sim. Uma coisa que me empolga muito é que o "momento do iPhone dos tokens" chegou.
Lex Fridman: O que você quer dizer?
Jensen Huang: Agente. Agente está se tornando a forma de aplicação que mais cresce na história.
Lex Fridman: Então, a partir de dezembro passado, as pessoas realmente começaram a perceber as capacidades de sistemas como Claude Code, Codex e OpenClaw? Honestamente, sinto um pouco de vergonha em admitir: quando estava no aeroporto, comecei a "falar com o computador para codificar" pela primeira vez, assim como me comunicando com colegas. Não tenho certeza de como será para todos interagir com a IA assim no futuro, mas a eficiência é realmente muito alta.
Jensen Huang: O que é mais provável é que sua IA o "interrompa" constantemente. Porque ela completa tarefas muito rapidamente, continuará a lhe dar feedback: "Isso está feito, qual é o próximo passo?"
Lex Fridman: Este é realmente um futuro incrível.
Lex Fridman: Eu vi você mencionar que seu sucesso se deve em grande parte a trabalhar mais duro do que os outros e a ser capaz de suportar mais dor do que os outros.
Essa "dor" na verdade abrange muitos aspectos, como lidar com o fracasso, os desafios de engenharia e as questões de custo que acabamos de discutir, assim como questões interpessoais, incerteza, responsabilidade, fadiga, constrangimento e aqueles momentos que você mencionou quando a empresa estava à beira do colapso.
Mas além disso, também há pressão. Como CEO de uma empresa cercada por governos e economias ao redor do mundo, moldando a alocação de recursos e o planejamento da infraestrutura de IA, como você lida com esse tipo de pressão? Com tantos países e pessoas dependendo de você, de onde vem sua força?
Jensen Huang: Estou ciente de que o sucesso da NVIDIA é importante para os Estados Unidos. Geramos uma quantidade significativa de receita tributária, estabelecemos uma posição tecnológica de liderança, e a liderança tecnológica em si é parte da segurança nacional. Uma nação mais rica pode impulsionar melhor as políticas sociais. Ao mesmo tempo, também estamos impulsionando a reindustrialização, criando um grande número de oportunidades de emprego, reconstruindo as capacidades de fabricação doméstica, incluindo chips, computadores e fábricas de IA. Estou também muito ciente de que muitos investidores comuns—professores, policiais—ganharam riqueza ao investir na NVIDIA. Além disso, a NVIDIA faz parte de um vasto ecossistema, com muitos parceiros a montante e a jusante dependendo de nós.
Diante de tudo isso, minha abordagem é muito simples: decompor o problema.
Eu me pergunto, qual é a situação atual? O que mudou? Quais são os desafios? O que posso fazer? Uma vez que o problema é decomposto, ele se torna uma série de tarefas acionáveis.
Então, resta apenas uma pergunta: Você fez isso? Ou você pediu para outra pessoa fazer? Se você acredita que algo deve ser feito, mas não fez isso você mesmo nem incentivou outros a fazê-lo, então não há sentido em reclamar sobre isso.
Sou bastante rigoroso comigo mesmo. Mas, ao mesmo tempo, também evito o pânico dividindo os problemas. Posso dormir em paz sabendo que identifiquei todos os pontos de risco e informei as partes responsáveis relevantes. Enquanto as coisas estiverem progredindo como deveriam, não há necessidade de ficar ansioso.
Lex Fridman: Você já passou por momentos psicológicos baixos nesse processo?
Jensen Huang: Claro, muitas vezes.
Lex Fridman: E seu método ainda é dividir o problema?
Jensen Huang: Sim. Outro ponto é "aprender a esquecer." Em aprendizado de máquina, há uma habilidade importante chamada "esquecimento seletivo." É o mesmo para os humanos—você não pode carregar tudo com você. Eu rapidamente divido um problema e depois distribuo a pressão. Qualquer coisa que me preocupe, eu informo as pessoas relevantes o mais rápido possível, em vez de carregar isso sozinho. Claro, você também precisa ser rigoroso consigo mesmo—não se deixe levar pelas emoções, apenas continue avançando.
Outra coisa é que você será atraído pelo "futuro." Como os atletas, eles se concentram apenas no próximo ponto, não no erro do anterior.
Lex Fridman: Você disse uma vez que se soubesse o quão difícil a NVIDIA seria desde o início, talvez não tivesse feito isso.
Jensen Huang: Sim. Mas o que quero expressar é: isso quase se aplica a tudo que vale a pena fazer. Você precisa de uma "mentalidade infantil"—quando vê algo, sua primeira reação deve ser: "Quão difícil é isso?" em vez de simular todas as dificuldades antecipadamente. Você não deve ensaiar todos os contratempos antes mesmo de começar. Você deve entrar com a expectativa de que "isso será ótimo." No entanto, uma vez que você entra, precisa ser resiliente. Contratempos, falhas e humilhações acontecerão, muitas vezes de forma inesperada. Neste ponto, o que você precisa fazer é: esquecer isso e continuar avançando. Enquanto seu julgamento básico sobre o futuro não tiver mudado, você deve continuar.
Lex Fridman: Depois de experimentar tanto sucesso, fica mais difícil permanecer humilde?
Jensen Huang: Muito pelo contrário. Porque muitas coisas que faço são públicas, uma vez que ocorre um erro de julgamento, todos podem ver. Além disso, meu estilo de gestão é "raciocínio aberto." Eu não dou conclusões diretamente; explico o processo de raciocínio e deixo que todos julguem sua validade.
Continuo dizendo: "Este é meu caminho atual de entendimento," e então explico o processo de raciocínio. Isso dá a todos a oportunidade de levantar diferentes opiniões em qualquer etapa. Eles não precisam negar a conclusão, apenas apontar um problema em um certo passo do raciocínio, e podemos continuar a dedução a partir daí. Isso é essencialmente uma forma de "encontrar um caminho coletivamente," e é muito eficaz.
Lex Fridman: Quando você explica um problema, sempre mantém um estado aberto, fazendo as pessoas sentirem que podem participar e até influenciar seu pensamento. Na verdade, é muito difícil manter esse estado após experimentar tanto sucesso e pressão. Muitas pessoas se fecham por causa da dor.
Jensen Huang: Acho que uma chave é a tolerância para "fazer papel de tolo."
Lex Fridman: Sim, esta é de fato uma habilidade muito real. Ao longo dos anos, experimentar repetidamente "fazer um julgamento em uma reunião que acabou sendo errado" e ainda conseguir admitir isso francamente e crescer a partir disso é, na verdade, muito difícil a nível psicológico.
Jensen Huang: Sim. Você sabe, meu primeiro emprego foi, na verdade, limpar o banheiro.
Lex Fridman: Fico feliz que você sempre tenha mantido essa mesma atitude que tinha quando trabalhava no Denny's. A experiência de começar no Denny's é muito emocionante. Quero falar sobre jogos. Sou um grande jogador e tenho que agradecer à NVIDIA pela ótima experiência gráfica que eles proporcionaram ao longo dos anos.
Jensen Huang: A propósito, até hoje, a GeForce continua sendo nosso ponto de entrada mais importante no marketing. Muitas pessoas conheceram a NVIDIA através dos jogos na adolescência. Então, eles foram para a faculdade já sabendo o que era a NVIDIA. Eles começaram apenas jogando "Call of Duty", jogando "Fortnite", depois começaram a usar CUDA e, eventualmente, usaram ferramentas dentro do ecossistema da NVIDIA como Blender, Dassault, Autodesk, e assim por diante.
Lex Fridman: Sim. Eu disse a um amigo que ia ter uma conversa com você, e a primeira reação dele foi: "Eles fazem GPUs de jogos realmente boas."
Jensen Huang: Isso mesmo (risos).
Lex Fridman: Claro, há muito mais do que isso. Mas, de fato, muitas pessoas realmente amam esses produtos, e eles trazem muita diversão. O hardware em si realmente traz esses mundos virtuais à vida. No entanto, houve alguma controvérsia recentemente sobre o DLSS 5. Alguns jogadores estão preocupados que isso fará com que os jogos pareçam "conteúdo barato gerado por IA." Como você vê essa discussão?
Jensen Huang: Posso entender a perspectiva deles e de onde vem essa preocupação. Porque muito do conteúdo gerado por IA hoje em dia está, de fato, se tornando cada vez mais homogêneo, embora todo muito "bonito," mas carente de personalidade. Eu mesmo não gosto desse tipo de "conteúdo formulaico de IA."
Mas isso não é o que o DLSS 5 está tentando fazer. Eu mostrei alguns exemplos. O DLSS 5 é baseado em restrições de condição 3D, impulsionado por dados estruturais reais. A estrutura geométrica da cena é inteiramente determinada pelo artista, e o sistema adere estritamente a essas estruturas em cada quadro.
Ao mesmo tempo, também é restringido por texturas e estilo artístico. Portanto, cada quadro está sendo "aprimorado," não "mudado." Em relação ao "aprimoramento," o DLSS 5 em si é um sistema aberto. Os desenvolvedores podem treinar seus próprios modelos e, no futuro, podem até definir estilos por meio de comandos, como renderização de cartoon, ou fornecer amostras de referência para o sistema gerar em um determinado estilo.
No entanto, todos os resultados devem estar alinhados com o estilo e a intenção criativa do artista. A existência dessas ferramentas é para auxiliar os artistas na criação de conteúdos mais bonitos, mantendo o estilo que desejam.
Muitos jogadores interpretam mal, pensando que o jogo é primeiro criado como está, e depois processado através do DLSS. Mas não é assim que o DLSS é projetado. O DLSS está profundamente integrado ao processo criativo; ele essencialmente fornece ferramentas de IA para os artistas. Se utilizá-lo é totalmente uma decisão deles.
Lex Fridman: Eu acho que os humanos são particularmente sensíveis ao "rosto." Agora, as pessoas também se tornaram sensíveis ao conteúdo gerado por IA, o que eu considero uma coisa boa. É como um espelho que nos faz perceber que o que os humanos realmente buscam não é necessariamente a perfeição, mas às vezes uma espécie de "imperfeição." Isso nos ajuda a entender que tipo de mundo é atraente. Enquanto essas ferramentas nos ajudarem a criar esses mundos, é algo bom.
Jensen Huang: Exatamente. Esta é apenas mais uma ferramenta. Se os desenvolvedores desejarem gerar conteúdo em estilo não realista, o modelo também pode fazer isso. De certa forma, isso é semelhante a quando introduzimos shaders de pele no passado. Uma vez, adicionamos dispersão subsuperficial para tornar a pele mais realista. Toda a indústria tem buscado mais ferramentas para expressar arte, e o DLSS é apenas uma delas. A decisão final sempre cabe ao criador.
Lex Fridman: Uma pergunta um tanto casual. Na perspectiva da NVIDIA, qual você acha que é o maior ou mais influente jogo da história?
Jensen Huang: Doom.
Lex Fridman: Doom, sem dúvida. Ele deu início à era 3D.
Jensen Huang: Do ponto de vista da arte, influência cultural e pontos de virada na indústria, Doom é crucial. Ele transformou o PC de uma ferramenta de automação de escritório em um computador pessoal para lares e gamers, o que foi um marco significativo. Claro, havia jogos de simulação de voo antes disso, mas eles não tiveram o impacto generalizado como Doom. De uma perspectiva puramente técnica, eu escolheria Virtua Fighter. Temos bons relacionamentos com as equipes por trás dessas duas obras.
Lex Fridman: Há também algumas obras mais novas, como "Cyberpunk 2077", que são excelentes em aceleração de GPU.
Jensen Huang: Sim, é totalmente traçado por raios.
Lex Fridman: Eu pessoalmente amo "The Elder Scrolls V: Skyrim". Embora tenha sido lançado há muitos anos, através de vários mods, cada jogada parece um jogo completamente novo.
Jensen Huang: Nós também amamos a comunidade de modding. Nós introduzimos o RTX Mod, que é uma ferramenta de modding que permite à comunidade injetar a mais recente tecnologia gráfica em jogos antigos.
Lex Fridman: Claro, um grande jogo não se resume apenas aos gráficos, mas também à história e aos personagens. No entanto, gráficos excelentes podem realmente aumentar a imersão e fazer você sentir que está sendo transportado para outro mundo.
Jensen Huang: Eu concordo completamente.
Lex Fridman: Um ponto que você mencionou e que eu acho muito preciso: a linha do tempo para a AGI depende essencialmente de como você define AGI.
Lex Fridman: Eu quero fazer uma pergunta sobre o tempo. Podemos discutir a AGI com uma definição talvez um pouco extrema — imagine um sistema de IA que pode fazer o seu trabalho: ou seja, começando do zero, criar, desenvolver e operar uma empresa de tecnologia de sucesso com um valor de mercado superior a 1 bilhão de dólares.
Jensen Huang: Estamos falando de "empresas de sucesso" ou "apenas uma é suficiente"?
Lex Fridman: Deve ser uma empresa de sucesso com um valor de mercado superior a 1 bilhão de dólares. Como você sabe, isso envolve muitos fatores complexos. Então, quanto tempo você acha que essa capacidade pode levar? 5 anos, 10 anos, 15 anos ou 20 anos? Estamos falando de um sistema como o OpenClaw que pode realizar um conjunto completo de tarefas complexas, como inovação, encontrar clientes, vender produtos, gerenciar equipes (incluindo colaboração entre IA e humanos), e assim por diante.
Jensen Huang: Eu acredito que isso pode ser feito agora. Eu acho que já alcançamos a AGI.
Lex Fridman: Você está dizendo que é possível agora ter uma empresa administrada por IA?
Jensen Huang: É possível. A razão é, como você disse, "alcançar $1 bilhão", mas não há exigência de "sustentabilidade a longo prazo." Por exemplo, uma IA poderia muito bem desenvolver um serviço ou aplicativo de rede, sendo de repente utilizado por bilhões de pessoas, cada uma pagando $0,5, e então desaparecer rapidamente em um curto espaço de tempo. Na era da internet, na verdade, já houve muitas empresas assim. E a complexidade tecnológica delas naquela época não era maior do que o que a OpenClaw pode alcançar hoje.
Lex Fridman: Portanto, a chave é alcançar uma disseminação viral e monetizá-la.
Jensen Huang: Sim. Nós apenas não sabemos exatamente qual produto será. Assim como naquela época, não podíamos prever quais empresas de internet teriam sucesso.
Lex Fridman: Sua afirmação animaria muitas pessoas—parece que: tudo o que eu preciso fazer é implantar um agente e posso ganhar muito dinheiro.
A IA vai tirar empregos? Não, mas vai mudar a definição de trabalho.
Jensen Huang: Na verdade, isso já está acontecendo. Se você for à China, verá muitas pessoas treinando seus agentes para encontrar empregos, realizar tarefas ou até mesmo ganhar dinheiro diretamente. Se um aplicativo social de repente explodir no futuro, eu não ficaria surpreso. Por exemplo, um personagem digital muito fofo, ou um produto semelhante a um Tamagotchi, poderia se tornar extremamente popular por alguns meses com uma grande base de usuários, e então desaparecer rapidamente. Claro, a probabilidade de sucesso se 100.000 agentes tentarem "construir uma NVIDIA" é zero.
Mas quero enfatizar uma coisa: muitas pessoas estão se sentindo ansiosas em relação ao trabalho neste momento.
Quero lembrar a todos que o "propósito" do trabalho e as "tarefas e ferramentas" para realizar o trabalho estão relacionados, mas não são a mesma coisa. Estou neste trabalho há 33 anos, o que me torna o CEO mais antigo da indústria de tecnologia (34 anos). Ao longo desses 34 anos, as ferramentas que usei sempre mudaram, às vezes de forma dramática.
Há uma história que eu quero que todos ouçam. Inicialmente, cientistas da computação e pesquisadores de IA previram que a primeira profissão a desaparecer seria a de radiologista. Porque a visão computacional alcançaria ou superaria os níveis humanos, e de fato, isso aconteceu. Por volta de 2019 a 2020, a visão computacional já havia superado os níveis humanos. A previsão então era: uma vez que a IA pode realizar análise de imagens, a profissão de radiologista desapareceria.
Mas o oposto aconteceu. Hoje, todas as plataformas de radiologia são impulsionadas por IA, no entanto, o número de radiologistas aumentou, e ainda há uma escassez global.
Por que isso acontece? Porque o "propósito" de um radiologista é diagnosticar doenças, ajudar médicos e pacientes a tomar decisões. Quando a IA tornou a análise de imagens mais rápida: pudemos analisar mais imagens, diagnosticar com mais precisão, atender mais pacientes, aumentar a receita hospitalar, atrair mais pacientes e, assim, a demanda por radiologistas aumentou.
Esse é um resultado muito intuitivo. A mesma lógica se aplica aos engenheiros de software. O número de engenheiros de software na NVIDIA aumentará, não diminuirá. Porque o "propósito" dos engenheiros de software é resolver problemas, e programar é apenas um meio para esse fim.
O trabalho deles inclui: resolução de problemas, trabalho em equipe, diagnóstico de problemas, avaliação de resultados, identificação de problemas, impulsionamento da inovação e estabelecimento de conexões. Essas habilidades não desaparecerão.
Lex Fridman: Você acha que o número de programadores aumentará em vez de diminuir?
Jensen Huang: Sim. A chave é como definimos "programação." Eu acho que, fundamentalmente, programar é "especificar." Você pode dar instruções claras, até mesmo definir a arquitetura do sistema.
Então a pergunta é: quantas pessoas podem fazer isso? Essencialmente, é "dizer ao computador o que fazer." No passado, talvez cerca de 30 milhões de pessoas pudessem fazer isso; no futuro, talvez haja 1 bilhão de pessoas. No futuro, todo carpinteiro se tornará um "programador." E com a IA, eles também são "arquitetos." Eles podem aumentar significativamente o valor que criam para os clientes, e sua capacidade expressiva é grandemente aprimorada. Da mesma forma, os contadores do futuro também terão habilidades de análise financeira e consultoria.
Todas as profissões serão "elevadas." Se eu fosse um carpinteiro, estaria extremamente empolgado com a IA porque ela pode me permitir oferecer serviços em um nível completamente diferente; e se eu fosse um encanador, também estaria.
Lex Fridman: Os engenheiros de software atuais ainda podem estar em uma posição de liderança na compreensão de como interagir com a IA em linguagem natural e como projetar sistemas.
Jensen Huang: Isso está correto.
Lex Fridman: Mas a longo prazo, essa habilidade se tornará gradualmente disseminada. No entanto, ainda acredito que aprender programação tradicional, linguagens, princípios de design e arquitetura de sistemas em larga escala ainda tem valor.
Jensen Huang: Sim. Porque "como definir um problema" é, em si, uma habilidade. A forma como uma especificação é expressa depende do problema que você está tentando resolver. Por exemplo, em nível de empresa, ao formular uma estratégia, eu fornecerei uma direção clara o suficiente para que a equipe execute; mas também deixo deliberadamente espaço para 43.000 pessoas fazerem melhor do que eu imaginei com base nisso. Portanto, o nível de detalhe na especificação é diferente em diferentes cenários. No futuro, todos precisam encontrar seu lugar nesse "espectro de programação." Escrever uma especificação é programação em si.
Às vezes, você precisa de instruções muito claras; às vezes, você precisa de uma exploração mais aberta, interagindo com a IA repetidamente, expandindo sua criatividade. Este é o futuro da programação.
Lex Fridman: No entanto, sob uma perspectiva mais ampla, muitas pessoas estão ansiosas em relação ao emprego, especialmente entre os trabalhadores de colarinho branco. Sempre que a automação e novas tecnologias surgem, elas provocam agitação. Acredito que precisamos ter empatia por essa ansiedade, pois a dor do desemprego é uma experiência real para indivíduos e famílias. Espero que essas tecnologias, em última análise, tragam mais oportunidades, tornem as pessoas mais eficientes e façam o trabalho mais interessante, como está acontecendo atualmente no campo da programação. Mas, no processo de transição, haverá, de fato, muita dor.
Jensen Huang: Meu primeiro conselho a todos é sobre como lidar com a ansiedade. Como acabamos de discutir, eu primeiro dividiria o problema.
Quais são as coisas que você pode controlar? Quais são as coisas que você não pode controlar? Para as partes controláveis, analise e tome uma atitude.
Se eu fosse contratar um recém-formado e tivesse que escolher entre dois candidatos, um que não tem entendimento de IA e outro que é proficiente em IA, eu definitivamente escolheria o último. Seja na contabilidade, marketing, cadeia de suprimentos, atendimento ao cliente, vendas, desenvolvimento de negócios ou até mesmo direito, eu escolheria a pessoa que entende melhor de IA.
Portanto, meu conselho é este: Todo estudante deve aprender a usar IA; todo professor deve incentivar os alunos a usar IA; todo graduado deve se tornar proficiente em IA. Se você é um carpinteiro, eletricista, agricultor ou farmacêutico, deve experimentar a IA e ver como ela pode aprimorar suas habilidades profissionais.
Ao mesmo tempo, devemos também reconhecer que a tecnologia automatizará muitas tarefas. Se o seu trabalho consiste essencialmente nessas "tarefas", então você está em alto risco de ser substituído. Se suas aspirações profissionais são mais altas, então você deve aprender a usar IA para realizar essas tarefas.
Lex Fridman: Outro ponto crucial é que a própria IA pode ajudá-lo a dividir problemas. Você pode perguntar diretamente: "Como posso melhorar minhas habilidades?" "Como posso usar a IA?" Ela pode fornecer passos muito específicos. Ela pode até se tornar um "coach de vida."
Jensen Huang: Sim. Se você não souber como usar a IA, ela irá te ensinar.
Lex Fridman: Esta é de fato uma experiência muito "meta", mas também muito poderosa.
Jensen Huang: Você não pode dizer ao Excel: "Eu não sei como te usar", mas pode dizer à IA.
Lex Fridman: Existem coisas que são fundamentalmente "não computáveis"? Em outras palavras, não importa quão poderoso seja o chip, ele não pode replicar?
Jensen Huang: Não tenho certeza se um chip pode "sentir estresse." Claro, condições que levam à ansiedade, estresse ou outras emoções podem ser reconhecidas e compreendidas pela IA, mas não acho que o chip em si possa "sentir." Portanto, como essas emoções, como ansiedade, excitação e medo, afetam o desempenho humano é uma dimensão completamente diferente.
Por exemplo, sob as mesmas condições, pessoas diferentes mostrarão desempenhos completamente diferentes: algumas se destacam enquanto outras têm um desempenho médio ou até abaixo da média. Essa diferença decorre em grande parte da experiência subjetiva de uma pessoa.
E em um sistema computacional, se dois sistemas são apresentados exatamente com a mesma entrada, pode haver, é claro, diferenças estatísticas, mas essas diferenças não se devem a "diferenças de percepção."
Lex Fridman: Sim, de fato, a experiência subjetiva humana é verdadeiramente única. Por exemplo, enquanto falava com você agora há pouco, senti nervosismo, com expectativas, medos, ansiedades e a riqueza da vida em si—amor, desilusão, o medo da morte, a dor de perder entes queridos—tudo isso, é difícil imaginar um sistema computacional realmente incorporando.
Jensen Huang: De fato, é difícil imaginar. Mas ainda sabemos tão pouco sobre tudo isso, e há muitos mistérios não resolvidos. Portanto, também mantenho a mente aberta e estou disposto a abraçar surpresas futuras. Nos últimos anos, especialmente nos meses recentes, o desenvolvimento da IA me surpreendeu várias vezes. A "escala" em si pode, de fato, trazer algumas mudanças quase miraculosas.
Jensen Huang: Além disso, acho que um ponto é muito importante, que é desconstruir o conceito de "inteligência." Frequentemente usamos a palavra "inteligência," mas não é um conceito misterioso.
Inteligência, fundamentalmente, é um conjunto de capacidades do sistema, incluindo: percepção, compreensão, inferência, planejamento e o ciclo de ação. Isso é inteligência.
Mas "inteligência" não é equivalente a "humano." Esses são dois conceitos diferentes, e devemos diferenciá-los. Não vou mitificar excessivamente a "inteligência." Na minha visão, inteligência é uma "capacidade funcional." Pode-se até dizer que a inteligência está se tornando uma "mercadoria."
Estou cercado por muitas pessoas muito inteligentes que são mais excelentes e profissionais em suas respectivas áreas do que eu. Elas receberam uma educação melhor e são mais especializadas em suas áreas respectivas. Mas ainda assim, desempenho um papel neste sistema.
Isso, por si só, é muito interessante.
Você pode perguntar: Por que alguém que uma vez lavou pratos em um restaurante pode coordenar o trabalho entre um grupo de indivíduos "superhumanos"?
Isso apenas ilustra que "inteligência" é apenas uma dimensão. "Humanidade" é o conceito maior. Nossas experiências de vida, capacidade de suportar dor, força de vontade — isso é diferente de "inteligência."
Jensen Huang: Se eu pudesse dar a todos um conselho, seria este: Não eleve a palavra "inteligência" muito alto.
O que deve ser verdadeiramente valorizado são: caráter, humanidade, empatia, generosidade. Essas são as "habilidades sobre-humanas." A inteligência, por outro lado, gradualmente se tornará comum e mercantilizada.
Lex Fridman: Então, o que você está dizendo é que devemos nos concentrar mais na "humanidade."
Jensen Huang: Sim. Humanidade, caráter, empatia, generosidade – essas são as coisas mais importantes. A sociedade há muito comprime tudo na palavra 'inteligência', mas a vida é muito mais do que isso. Pela minha experiência, mesmo que eu não seja tão inteligente quanto muitas pessoas ao meu redor, ainda assim fui bem-sucedido. Portanto, espero que todos não se sintam ansiosos sobre a 'ubiquidade da inteligência', mas sim inspirados por ela.
Lex Fridman: Eu também acredito que a IA nos fará valorizar mais a humanidade.
Jensen Huang: Exatamente. A IA tornará a humanidade mais poderosa.
Lex Fridman: O sucesso da NVIDIA e a vida de inúmeras pessoas, em certa medida, dependem de você. Mas você também é apenas uma pessoa comum e, no final, enfrentará a morte. Você pensa sobre essa questão? Você tem medo da morte?
Jensen Huang: Eu não quero morrer.
Eu tenho uma boa vida, uma boa família e estou fazendo um trabalho muito importante. Isso não é apenas 'a experiência de vida de uma pessoa', mas uma experiência de 'nível de história humana'. A NVIDIA é uma das empresas de tecnologia mais importantes da história, e o que estamos fazendo é profundamente significativo, e eu levo isso muito a sério.
Claro, também existem algumas questões práticas, como o planejamento de sucessão. Eu costumo dizer que não acredito muito em 'planejamento de sucessão'. Não porque eu ache que não vou sair, mas porque: se você realmente se importa com o futuro da empresa após a sua saída, a coisa mais importante que você deve fazer hoje é transferir conhecimento continuamente. Transfira continuamente informações, percepções, experiências e capacidades para a equipe.
É por isso que continuo raciocinando diante da equipe. Cada reunião é essencialmente sobre transferir cognição.
Eu não vou manter nenhuma informação 'nas minhas mãos'. Assim que aprendo algo, quase imediatamente compartilho. Mesmo quando não entendi completamente, já estou dizendo aos outros: 'Isso é importante; você deve pesquisar sobre isso.' Continuo a capacitar aqueles ao meu redor, ajudando-os a melhorar suas habilidades. Meu estado ideal é: Eu saio do meu trabalho, e é instantâneo, sem agonia prolongada.
Lex Fridman: Como observador e fã, claro, espero que você possa continuar trabalhando para sempre (risos). O ritmo de inovação da NVIDIA é impressionante e é, em si, uma homenagem à engenharia.
Então, a pergunta final: ao olhar para o futuro, 10, 20, 50 ou até mesmo 100 anos a partir de agora, o que lhe dá esperança no futuro da humanidade?
Jensen Huang: Sempre estive confiante na bondade, generosidade e empatia da humanidade. Às vezes, até mais confiante do que deveria, e é por isso que ocasionalmente fico decepcionado. Mas isso não mudará meu julgamento. Sempre acredito que as pessoas estão dispostas a fazer o bem, dispostas a ajudar os outros. E na maioria das vezes, esse julgamento está correto, superando até mesmo minhas expectativas.
Jensen Huang: O que me enche de esperança é que, quando vejo o que está acontecendo agora e extrapolo isso para o futuro, muitos problemas estão se tornando "solucionáveis."
Temos problemas demais para resolver, coisas demais para criar, e essas estão se tornando alcançáveis, possivelmente realizáveis em minha vida. É difícil não se sentir romântico sobre um futuro assim. Por exemplo, o fim das doenças é uma expectativa razoável; uma redução significativa na poluição é uma expectativa razoável; e até mesmo alguma forma de "teletransporte" a quase a velocidade da luz é um futuro concebível.
Jensen Huang: Estou até contemplando uma maneira: no futuro, poderemos transmitir a "consciência" em forma digital. Podemos gradualmente destilar todas as informações de uma pessoa, e-mails, pensamentos, comportamentos em uma IA. Quando as condições forem favoráveis, enviar esse "eu digitalizado" para o espaço para se fundir com um robô.
Lex Fridman: Essa é, de fato, uma ideia muito chocante. Mas, do ponto de vista científico, ainda existem muitas questões não resolvidas, como a própria consciência.
Jensen Huang: Sim. Mas entender o "sistema da vida" pode estar bem diante de nós, talvez um avanço dentro de cinco anos.
Lex Fridman: Seja a consciência ou os profundos problemas da física, todos esses fatores tornam o futuro muito empolgante.
Lex Fridman: Jensen, muito obrigado por tudo que você fez e obrigado por compartilhar hoje.
Jensen Huang: Obrigado, Lex. Eu realmente gostei desta conversa. Eu também aprecio as entrevistas que você conduz; sua profundidade, respeito e pesquisa nos permitem entender melhor essas figuras e ideias.
Lex Fridman: Isso significa muito para mim, obrigado.
Lex Fridman: Obrigado a todos por ouvirem esta conversa com Jensen Huang. Como Alan Kay disse: "A melhor maneira de prever o futuro é inventá-lo com suas próprias mãos." Obrigado por ouvir, e nos vemos na próxima vez.
Você também pode gostar

Como funciona a autocustódia de ativos digitais? Lista de verificação em 15 etapas do cofundador da OpenAI

Diretor de Gestão de Produtos da Circle: O futuro da interoperabilidade entre cadeias: Construindo uma pilha de tecnologias de interoperabilidade para sistemas financeiros na Internet
Guia de Tokens de Torcedores do UCL 2026: Como Negociar Criptomoedas da Liga dos Campeões da UEFA com Taxas Zero no WEEX
Descubra tokens de torcedores do UCL como PSG, Barcelona e Man City. Aprenda a negociar criptomoedas da Liga dos Campeões da UEFA com taxas zero e ganhe recompensas no WEEX.
WEEX Poker Party 2ª Temporada: Veja agora como ganhar recompensas em criptomoedas!
Saiba como funciona a 2ª temporada do WEEX Poker Party (Evento Joker Card). Descubra as regras, a pontuação, as recompensas e as estratégias para ganhar recompensas em criptomoedas por meio da negociação gamificada.

Yu Weiwen: Desenvolvimento constante do ecossistema de stablecoins em conformidade com a regulamentação de Hong Kong

Após o cessar-fogo do TACO, a guerra contra o Irã está apenas em pausa

5 minutos para transformar a IA no seu segundo cérebro

O mistério de 17 anos será desvendado: quem é Satoshi Nakamoto?

A Uniswap está presa em um dilema de inovação

Qual é o segredo da competitividade no setor bancário de criptomoedas?

O fluxo de stablecoins e os efeitos colaterais no mercado de câmbio

Após dois anos, o primeiro lote de licenças de stablecoin de Hong Kong finalmente emitido: HSBC, Standard Chartered são aprovados

A pessoa que ajudou o TAO a subir 90% foi a mesma que, sozinha, fez o preço despencar novamente hoje

Guia de 3 minutos para participar da oferta pública inicial (IPO) da SpaceX na Bitget

Como ganhar US$ 15.000 com USDT ocioso antes da temporada de altcoins de 2026
Você está se perguntando se a temporada das altcoins chegará em 2026? Fique por dentro das últimas novidades do mercado e descubra como transformar suas stablecoins ociosas, que estão à espera de serem investidas, em recompensas extras de até 15.000 USDT.

Você pode vencer o Joker Returns sem um grande volume de negociação? 5 Erros que Novos Jogadores Cometem na Temporada 2 do WEEX Joker Returns
Os pequenos traders podem vencer o WEEX Joker Returns 2026 sem um volume enorme? Sim, se você evitar esses 5 erros dispendiosos. Aprenda a maximizar os sorteios de cartas, usar os Jokers com sabedoria e transformar pequenos depósitos em 15.000 USDT em recompensas.

Será que a “Alt Season” vai acontecer em 2026? 5 dicas para identificar as próximas oportunidades de criptomoedas com potencial de valorização de 100 vezes
Será que a temporada das altcoins chegará em 2026? Descubra as 5 fases de rotação, os sinais precoces que os traders experientes observam e os principais setores de criptomoedas onde podem surgir as próximas oportunidades de altcoins com potencial de valorização de 100 vezes.

Temporada das Altcoins de 2026: 4 etapas para obter lucro (antes que a galera entre na onda do FOMO)
A Temporada das Altcoins de 2026 está começando — descubra as quatro etapas principais da rotação de capital (da ETH para a PEPE) e como se posicionar antes do pico. Descubra quais tokens vão liderar cada fase e não perca a recuperação.
Como funciona a autocustódia de ativos digitais? Lista de verificação em 15 etapas do cofundador da OpenAI
Diretor de Gestão de Produtos da Circle: O futuro da interoperabilidade entre cadeias: Construindo uma pilha de tecnologias de interoperabilidade para sistemas financeiros na Internet
Guia de Tokens de Torcedores do UCL 2026: Como Negociar Criptomoedas da Liga dos Campeões da UEFA com Taxas Zero no WEEX
Descubra tokens de torcedores do UCL como PSG, Barcelona e Man City. Aprenda a negociar criptomoedas da Liga dos Campeões da UEFA com taxas zero e ganhe recompensas no WEEX.
WEEX Poker Party 2ª Temporada: Veja agora como ganhar recompensas em criptomoedas!
Saiba como funciona a 2ª temporada do WEEX Poker Party (Evento Joker Card). Descubra as regras, a pontuação, as recompensas e as estratégias para ganhar recompensas em criptomoedas por meio da negociação gamificada.
