Rejeitando o poder de monopólio da IA, Vitalik e Beff Jezos debatem: Acelerador ou freio?
Título original do vídeo: Vitalik Buterin x Beff Jezos: Debate sobre a aceleração da IA (E/acc vs D/acc)
Fonte do vídeo original: a16z crypto
Tradução original: Deep Tide TechFlow
Resumo dos pontos principais
Devemos buscar o avanço da IA o mais rápido possível, ou devemos adotar uma abordagem mais cautelosa em relação ao seu desenvolvimento?
Atualmente, o debate em torno do desenvolvimento da IA gira, em grande parte, em torno de duas visões opostas:
· e/acc (aceleracionismo efetivo): Defende a aceleração do progresso tecnológico o mais rápido possível, considerando a aceleração como o único caminho a seguir para a humanidade.
· d/acc (aceleração defensiva / descentralizada): Apoia a aceleração, mas enfatiza a necessidade de um avanço cauteloso para evitar a perda de controle sobre a tecnologia.
Neste episódio do programa a16z crypto, o cofundador da Ethereum, Vitalik Buterin, e o fundador e CEO da Extropic, Guillaume Verdon (também conhecido como “Beff Jezos”), participaram de um encontro com o diretor de tecnologia (CTO) da a16z crypto, Eddy Lazzarin, e o fundador da Eliza Labs, Shaw Walters, para debater em profundidade esses dois pontos de vista. Eles exploraram o impacto potencial dessas ideias na IA, na tecnologia blockchain e no futuro da humanidade.
Durante o programa, eles discutiram várias questões importantes:
· Será que podemos controlar o processo de aceleração tecnológica?
· Quais são os maiores riscos que a IA representa, desde a vigilância em massa até o poder altamente centralizado?
· As tecnologias de código aberto e descentralizadas podem determinar quem se beneficia delas?
· Será que desacelerar o ritmo de desenvolvimento da IA é realista ou vale a pena defender essa ideia?
· Como a humanidade pode manter seu valor e sua posição em um mundo cada vez mais dominado por sistemas poderosos?
· Como será a sociedade humana daqui a 10 anos, 100 anos ou até mesmo 1.000 anos?
· Guillaume Verdon: "É por isso que a Escala de Kardashev é considerada a medida definitiva do nível de desenvolvimento de uma civilização. ... Esse "Princípio do Bit Egoísta" significa que apenas os bits capazes de promover crescimento e aceleração terão espaço no sistema futuro.
Sobre a trajetória defensiva do D/acc e os riscos de potência
· Vitalik Buterin: "A ideia central do D/acc é: A aceleração tecnológica é extremamente importante para a humanidade. ... Mas vejo dois tipos de riscos: o risco multipolar (em que qualquer um pode facilmente adquirir armas nucleares) e o risco unipolar (a IA levando a uma sociedade autoritária permanente e inevitável)."
· Guillaume Verdon: "Preocupamo-nos com a possibilidade de o conceito de 'segurança da IA' ser objeto de abuso." Certas entidades ávidas por poder podem usar isso como uma ferramenta para consolidar o controle sobre a IA e tentar convencer o público de que, para sua própria segurança, as pessoas comuns não deveriam ter o direito de usar a IA.
Sobre defesa de código aberto, hardware e “densificação inteligente”
· Vitalik Buterin: "No âmbito da iniciativa D/acc, apoiamos a 'tecnologia defensiva de código aberto'." Uma empresa na qual investimos está desenvolvendo um produto final totalmente de código aberto capaz de detectar passivamente partículas virais no ar. ... "Adoraria te enviar um dispositivo CAT de presente."
· Vitalik Buterin: "No mundo do futuro que imagino, precisamos desenvolver hardware verificável. Toda câmera deve ser capaz de demonstrar ao público sua finalidade específica. “Por meio da validação de assinaturas, podemos garantir que esses dispositivos sejam utilizados exclusivamente para fins de segurança pública e não sejam utilizados indevidamente para fins de vigilância.”
· Guillaume Verdon: "A única maneira de alcançar a simetria de poder entre indivíduos e instituições centralizadas é por meio da 'Densificação Inteligente'." Precisamos desenvolver hardware mais eficiente em termos energéticos que permita às pessoas executar modelos avançados em dispositivos simples (como o Openclaw + Mac mini)."
Sobre o atraso na IA e as manobras geopolíticas
· Vitalik Buterin: "Se conseguirmos adiar a chegada da IA Geral de 4 para 8 anos, essa seria uma opção mais segura. ... A abordagem mais viável e menos propensa a levar a uma distopia é "restringir o hardware disponível". Devido à elevada centralização da produção de chips, uma única região como Taiwan produz mais de 70% dos chips do mundo.
· Guillaume Verdon: "Se restringirem a produção de chips da NVIDIA, a Huawei poderia rapidamente preencher a lacuna e ultrapassá-la. ... Ou aceleramos ou morremos. Se você teme que a evolução da inteligência baseada em silício nos ultrapasse, deveria apoiar o desenvolvimento acelerado da biotecnologia para tentar ficar à frente dela.
· Vitalik Buterin: "Se conseguirmos adiar a IA geral por quatro anos, o valor pode ser cem vezes maior do que se voltássemos a 1960." Entre os benefícios desses quatro anos estão: uma compreensão mais profunda das questões de alinhamento e a redução do risco de uma única entidade deter 51% do poder. ... "A cada ano, cerca de 60 milhões de vidas são salvas graças ao fim do envelhecimento, mas adiar essa conquista pode reduzir significativamente a probabilidade de colapso da civilização."
Sobre agentes autônomos, Web 4.0 e vida artificial
· Vitalik Buterin: "Estou mais interessado no 'Photoshop assistido por IA' do que em 'apertar um botão para gerar imagens automaticamente'." Como somos nós que governamos o mundo, a maior parte possível da “autonomia” deve continuar a partir de nós, seres humanos. O estado ideal seria uma mistura de “seres humanos parcialmente biológicos e seres parcialmente tecnológicos”.
· Guillaume Verdon: "Assim que as IAs tiverem 'elementos persistentes de existência', elas poderão tentar se autopreservar para garantir sua continuidade." Isso poderia levar a uma nova forma de “outro país”, onde IAs autônomas se envolvem em trocas econômicas com os humanos: “nós realizamos tarefas para vocês, vocês nos fornecem recursos”.
Sobre a criptomoeda como uma “camada de acoplamento” entre humanos e IA
· Guillaume Verdon: "A criptomoeda tem o potencial de se tornar uma 'camada de interface' entre os seres humanos e a IA. “Quando essa troca deixar de depender do apoio da violência estatal, a criptografia poderá ser o mecanismo que possibilite atividades comerciais confiáveis entre entidades de IA pura e seres humanos.”
· Vitalik Buterin: "Se os seres humanos e a IA compartilharem um sistema de propriedade comum, essa seria a situação ideal." "Em vez de cada um ter um sistema financeiro totalmente independente (sendo que os sistemas humanos acabam por valer zero), um sistema financeiro unificado é claramente superior."
Sobre o fim da civilização nos próximos bilhões de anos
· Vitalik Buterin: "O próximo desafio é entrar na 'era assustadora', em que a IA pode processar informações milhões de vezes mais rápido do que os seres humanos. ... Não quero que as pessoas se limitem a desfrutar passivamente de uma aposentadoria confortável; isso levaria a uma sensação de falta de sentido. "Quero explorar o aprimoramento humano e a colaboração entre humanos e IA."
· Guillaume Verdon: "Se o resultado daqui a dez anos for positivo, todos terão um companheiro de IA personalizado, que se tornará um 'segundo cérebro'... Em uma perspectiva de 100 anos, os seres humanos, em geral, alcançarão uma “fusão suave”. "Daqui a um bilhão de anos, talvez tenhamos transformado Marte, com a maioria das IAs operando em nuvens de Dyson ao redor do Sol."
Sobre o "aceleracionismo"
Eddy Lazzarin: No que diz respeito ao termo “aceleracionismo” — pelo menos no contexto do tecnocapitalismo —, ele remonta aos trabalhos de Nick Land e do grupo de pesquisa CCRU na década de 1990. No entanto, há quem argumente também que as origens dessas ideias remontam às décadas de 1960 e 1970, especialmente em relação a filósofos como Deleuze e Guattari.
Vitalik, gostaria de começar por você: Por que deveríamos levar a sério as ideias desses filósofos? O que torna o conceito de “aceleracionismo” tão relevante hoje em dia?
Vitalik Buterin: "Acho que, no fim das contas, todos nós estamos tentando compreender este mundo e descobrir o que vale a pena fazer nele, uma questão que os seres humanos vêm refletindo há milhares de anos."
No entanto, acho que algo de novo aconteceu nos últimos cem anos: temos de lidar com um mundo em rápida transformação, às vezes até com um mundo que muda de forma rápida e disruptiva.
Os primeiros passos foram mais ou menos assim: antes da Primeira Guerra Mundial, por volta de 1900, havia um grande otimismo em relação à tecnologia. A química era considerada uma tecnologia, a eletricidade era uma tecnologia, e aquela época estava repleta de entusiasmo pela tecnologia.
Se você assistir a alguns filmes daquela época, como as obras de Sherlock Holmes, poderá sentir o otimismo daquela época. A tecnologia estava melhorando rapidamente a qualidade de vida das pessoas, aliviando a carga de trabalho das mulheres, prolongando a expectativa de vida e criando muitas maravilhas.
No entanto, a Primeira Guerra Mundial mudou tudo. A guerra terminou de forma devastadora, com as pessoas entrando no campo de batalha a cavalo e saindo em tanques; em seguida, eclodiu a Segunda Guerra Mundial, trazendo uma devastação ainda maior. Essa guerra chegou a dar origem ao lema "Tornei-me a Morte, o destruidor de mundos."
Esses acontecimentos históricos levaram as pessoas a repensar o custo do progresso tecnológico e deram origem a correntes de pensamento como o pós-modernismo. As pessoas começaram a tentar entender: quando as crenças do passado são destruídas, em que ainda podemos acreditar?
Acredito que esse tipo de reflexão não seja nada de novo, já que todas as gerações passam por um processo semelhante. Hoje, também enfrentamos desafios semelhantes. Vivemos numa era de rápido avanço tecnológico, e essa própria aceleração também está se acelerando. Precisamos decidir como lidar com esse fenômeno: aceitar sua inevitabilidade ou tentar retardar seu ritmo.
Acho que estamos passando por um ciclo semelhante agora. Por um lado, herdamos as ideias do passado; por outro, estamos tentando responder a tudo isso de novas maneiras.
Termodinâmica e princípios fundamentais
Shaw Walters: Guill, você poderia explicar rapidamente o que é E/acc? Por que isso é necessário?
Guillaume Verdon: Na verdade, o E/acc (Aceleracionismo Eficaz) é, em certa medida, um subproduto da minha reflexão contínua sobre “por que estamos aqui” e “como chegamos onde estamos hoje”. Que tipo de processo criativo nos originou e impulsionou o desenvolvimento da civilização? A tecnologia nos trouxe até aqui, permitindo que estejamos nesta sala tendo esta conversa. Estamos rodeados por uma tecnologia incrível, embora nós, seres humanos, tenhamos surgido de um “caldo” primordial de matéria inorgânica.
De certa forma, há de fato um processo físico de geração por trás disso. Meu trabalho diário consiste em tratar a IA generativa como um processo físico e tentar implementá-la em dispositivos. Essa forma de pensar que prioriza a física sempre influenciou minha mentalidade. Meu objetivo é ampliar essa perspectiva para toda a civilização, encarando a civilização humana como uma vasta “placa de Petri” e especulando sobre possíveis desenvolvimentos futuros ao compreender como chegamos onde estamos hoje.
Essa linha de raciocínio me levou ao estudo da física da vida, incluindo as origens e o surgimento da vida, bem como a um ramo da física chamado “termodinâmica estocástica”. A termodinâmica estocástica explora os princípios termodinâmicos dos sistemas em desequilíbrio, que podem ser utilizados para descrever o comportamento dos organismos vivos, incluindo nossos pensamentos e nossa inteligência.
De forma mais ampla, a termodinâmica estocástica aplica-se não apenas à vida e à inteligência, mas também a todos os sistemas regidos pela segunda lei da termodinâmica, incluindo toda a nossa civilização. No cerne de tudo isso, para mim, está uma observação: todos os sistemas tendem a aumentar continuamente em complexidade por meio da autoadaptação, a fim de extrair energia do ambiente para realizar trabalho, enquanto dissipam o excesso de energia na forma de calor — uma tendência que impulsiona todo o progresso e o rápido desenvolvimento.
Em outras palavras, trata-se de uma lei física imutável, assim como a gravidade. Você pode lutar contra isso, pode negar, mas isso não vai mudar; vai continuar assim. Portanto, a ideia central do E/acc é: uma vez que essa aceleração é inevitável, como podemos aproveitá-la? Ao examinar cuidadosamente as equações da termodinâmica, você perceberá que há um efeito semelhante à seleção darwiniana em ação — cada unidade de informação deve passar pelo teste da pressão seletiva, seja um gene, um meme, uma substância química, o design de um produto ou uma política.
Essa pressão seletiva filtra esses elementos com base no fato de serem benéficos ou não para o sistema em que se encontram. Por “benéfico”, entende-se se esses elementos contribuem para uma melhor previsão do ambiente, para a obtenção de energia e para a dissipação de mais calor. Em poucas palavras, se esses elementos contribuem para a sobrevivência, o crescimento e a reprodução. Se contribuírem para esses objetivos, serão mantidas e replicadas.
Do ponto de vista da física, esse fenômeno pode ser visto como resultado do "Princípio do Bit Egoísta". Em essência, apenas os elementos capazes de promover o crescimento e a aceleração terão espaço nos sistemas do futuro.
Por isso, propus uma ideia: será que poderíamos criar uma cultura que incorporasse esse “mindware” à sociedade humana? Se conseguíssemos isso, as populações que adotassem essa cultura teriam uma probabilidade maior de sobrevivência do que as demais.
Portanto, o E/acc não tem como objetivo destruir todo mundo. Na verdade, está tentando salvar a todos. Para mim, é quase matematicamente comprovável que ter uma mentalidade de “desaceleração” é prejudicial. Seja um indivíduo, uma empresa, um país ou uma civilização inteira, optar por desacelerar o desenvolvimento reduz suas chances de sobrevivência no futuro. E acredito que divulgar a ideia de “desacelerar”, como o pessimismo ou cenários apocalípticos, não é um ato moralmente justificável.
Shaw Walters: Acabamos de mencionar vários termos, como E/acc, aceleração e desaceleração. Você poderia explicar melhor esses conceitos? O surgimento do E/acc foi uma resposta a certos fenômenos culturais? O que estava acontecendo naquela época? Você poderia nos explicar o contexto? Mais especificamente, a que se referia o E/acc? Você poderia descrever a conversa que rolou naquela época e como essas ideias acabaram sendo sintetizadas no conceito de “E/acc”?
Guillaume Verdon: Em 2022, acho que o mundo inteiro parecia um pouco pessimista naquela época. Tínhamos acabado de sair da pandemia da COVID-19, e a situação mundial não era nada animadora. Todos pareciam um pouco abatidos, como se lhes faltasse luz do sol, e, em geral, as pessoas estavam pessimistas em relação ao futuro.
Nesse contexto, o “catastrofismo em relação à IA” passou, em certa medida, a fazer parte da cultura dominante. O alarmismo em relação à IA refere-se ao medo de que a tecnologia de IA possa ficar fora de controle. Isso decorre da preocupação de que, se criarmos um sistema demasiado complexo, cujo comportamento nem o cérebro humano nem nossos modelos consigam prever, não seremos capazes de controlá-lo; e esse medo da incontrolabilidade gera incerteza quanto ao futuro, resultando em ansiedade.
Na minha opinião, o alarmismo em relação à IA é, na verdade, uma exploração politizada da ansiedade humana. No geral, acredito que esse catastrofismo tem exercido uma enorme influência negativa e, por isso, quis criar uma contracultura para combater esse clima pessimista.
Percebi que os algoritmos de plataformas como o Twitter, e de muitas outras redes sociais, tendem a privilegiar conteúdos que despertam emoções intensas, como “forte apoio” ou “forte oposição”. Esse tipo de algoritmo acaba levando à polarização de opiniões, e temos visto a formação de muitos campos opostos, como o fenômeno dos “cultos espelhados” formado pelo AA (anti-aceleracionismo) e pelo EA (aceleracionismo).
Eu estava pensando: qual é o oposto desse fenômeno? Minha conclusão foi: o oposto da ansiedade é a curiosidade. Em vez de temer o desconhecido, é melhor abraçá-lo; em vez de se preocupar em perder oportunidades, é melhor explorar ativamente o futuro.
Se decidirmos desacelerar o desenvolvimento da tecnologia, incorreremos em um enorme custo de oportunidade, correndo o risco de perder para sempre a chance de um futuro melhor. Em vez disso, devemos imaginar o futuro com uma atitude otimista, pois nossa crença influenciará a realidade. Se acreditarmos que o futuro será sombrio, nossas ações podem levar o mundo nessa direção; mas se acreditarmos que o futuro será melhor e nos empenharmos por isso, teremos mais chances de alcançar esse futuro.
Por isso, sinto que tenho a responsabilidade de transmitir uma atitude otimista e incentivar mais pessoas a acreditarem que podem fazer a diferença para o futuro. Se conseguirmos inspirar mais pessoas a ter esperança no futuro e a agir para construí-lo, então poderemos criar um mundo melhor.
É claro que admito que, às vezes, minhas opiniões na internet podem parecer um pouco radicais, mas isso é porque pretendo estimular o debate e incentivar as pessoas a refletirem. Acredito que só por meio dessas conversas poderemos encontrar a posição mais adequada e decidir como agir.
Aceleração, Entropia e Civilização
Shaw Walters: As informações transmitidas pelo E/acc sempre foram muito inspiradoras, especialmente para quem está sentado em uma sala escrevendo código; a propagação dessa energia positiva é revigorante, e a divulgação dessas informações é muito natural. Pode-se dizer que, no início, o E/acc foi claramente uma resposta ao clima negativo que prevalecia na sociedade naquela época, mas, em 2026, sinto que o E/acc já não é mais o mesmo. Obviamente, a publicação do “Manifesto do Otimismo Tecnológico” por Marc Andreessen sistematizou algumas dessas ideias e elevou esses princípios à perspectiva de comentário mais abrangente de Vitalik.
Então, Vitalik, gostaria de lhe perguntar: Na sua opinião, o que representam, respectivamente, E/acc e D/acc? Quais são as principais diferenças entre eles? E o que o levou a escolher esse caminho?
Vitalik Buterin: Tudo bem, vou começar pela termodinâmica. Este é um tema muito interessante, pois frequentemente ouvimos a palavra “entropia” em diferentes contextos, como quando se fala de “quente e frio” na termodinâmica e de “entropia” na criptografia, que parecem ser coisas completamente diferentes. Mas, na verdade, trata-se essencialmente do mesmo conceito.
Vou tentar explicar em três minutos. A questão é: Por que o quente e o frio podem se misturar, mas não é possível separá-los novamente em "quente" e "frio"?
Vamos considerar um exemplo simples: suponha que você tenha dois cilindros de gás, cada um com um milhão de átomos. O gás à esquerda está frio, e a velocidade de cada átomo pode ser representada por dois dígitos; o gás à direita está quente, e a velocidade de cada átomo pode ser representada por seis dígitos.
Se quisermos descrever o estado de todo o sistema, precisamos saber a velocidade de cada átomo. As informações sobre a velocidade do gás frio à esquerda exigem cerca de 2 milhões de dígitos, enquanto as informações sobre a velocidade do gás quente à direita exigem 6 milhões de dígitos, sendo necessários, no total, 8 milhões de dígitos de informação para descrever completamente esse sistema.
Agora, podemos analisar uma questão por meio do método da redução ao absurdo. Suponha que você tenha um aparelho capaz de separar perfeitamente o calor e o frio. Mais especificamente, esse dispositivo é capaz de absorver todo o calor de duas latas de gás “quente e frio”, transferir todo o calor para um lado e todo o frio para o outro. Do ponto de vista da economia de energia, isso parece totalmente razoável, pois a energia total não se altera. Mas a questão é: por que você não consegue fazer isso?
A resposta está no fato de que, se você pudesse fazer isso, estaria, na verdade, transformando um sistema que contém “11,4 milhões de bits de informação desconhecida” em um sistema que contém apenas “8 milhões de bits de informação desconhecida”, o que é fisicamente impossível.
Isso ocorre porque as leis da física são simétricas em relação ao tempo, o que significa que o tempo pode correr para trás. Se esse "dispositivo mágico" realmente existisse, seria possível reverter esse processo no tempo, voltando assim ao estado original. Isso significa que o dispositivo seria capaz, na prática, de comprimir quaisquer 11,4 milhões de bits de informação em 8 milhões de bits, e sabemos que tal compressão é impossível.
Isso, aliás, também explica a viabilidade de um problema clássico da física: o “demônio de Maxwell”. O demônio de Maxwell é uma entidade hipotética capaz de separar o quente do frio, e a chave para conseguir isso é que ele precisaria conhecer esses 3,4 milhões de bits adicionais de informação. Com essas informações adicionais, ele consegue, de fato, realizar essa tarefa que parece contraintuitiva.
Então, qual é o significado oculto por trás disso? O cerne da questão reside no conceito de “aumento da entropia”. Em primeiro lugar, a entropia é subjetiva; não é uma grandeza física fixa, mas reflete, sim, a quantidade de informação desconhecida que temos sobre um sistema. Por exemplo, se eu reorganizar a distribuição dos átomos usando uma função hash criptográfica, a entropia desse sistema pode se tornar muito baixa para mim, pois sei como eles estão dispostos. Mas, do ponto de vista de um observador externo, a entropia é elevada. Portanto, quando a entropia aumenta, isso significa, na verdade, que nossa ignorância sobre o mundo está aumentando, e que a informação que desconhecemos está se tornando mais abundante.
Você pode perguntar: então, por que podemos nos tornar mais inteligentes por meio da educação? A educação nos ensina mais informações "úteis" em vez de diminuir nossa ignorância sobre o mundo. Em outras palavras, embora, de certa forma, o aumento da entropia signifique uma diminuição da nossa compreensão geral do universo, a informação que adquirimos torna-se mais valiosa. Assim, nesse processo, algumas coisas são consumidas, mas outras também são criadas. E o que ganhamos acaba por moldar nossos valores morais — valorizamos a vida, a felicidade e a alegria.
Isso também explica por que acharíamos um mundo humano vibrante e belo mais interessante do que um Júpiter repleto de incontáveis partículas. Embora Júpiter tenha mais partículas, exigindo mais bits de informação para ser descrito, o significado que atribuímos faz com que a Terra pareça mais valiosa.
Nessa perspectiva, a fonte do valor reside em nossas próprias escolhas. E isso levanta uma questão: já que estamos acelerando o desenvolvimento, o que exatamente queremos acelerar?
Se quiséssemos explicar isso com uma analogia matemática: imagine que você tem um grande modelo de linguagem e, então, altera arbitrariamente o valor de um de seus pesos para um número enorme, como 9 bilhões. Na pior das hipóteses, o modelo fica completamente inutilizável; e, na melhor das hipóteses, talvez apenas a parte não relacionada a esse peso continue funcionando corretamente. Em outras palavras, na melhor das hipóteses, você pode acabar com um modelo cujo desempenho é inferior; e, na pior das hipóteses, você só obterá um monte de resultados sem sentido.
Portanto, acredito que a sociedade humana é como um modelo de linguagem complexo e de grande porte. Se acelerarmos cegamente uma parte sem fazer uma seleção, o resultado final pode ser a perda de todo o valor. Então, a verdadeira questão é: como podemos acelerar de forma consciente? Assim como a teoria do “corredor estreito” de Daron Acemoglu, embora os contextos sociais e políticos possam variar, o que precisamos considerar é como promover o progresso de forma seletiva, tendo em vista um objetivo claro.
Guillaume Verdon: Sua recente explicação sobre a entropia usando o exemplo dos gases foi fascinante. Na verdade, a razão pela qual os fenômenos físicos são irreversíveis reside na Segunda Lei da Termodinâmica. Em termos simples, quando um sistema libera calor, seu estado não pode retornar à sua forma original. Isso ocorre porque, do ponto de vista probabilístico, a probabilidade de o sistema evoluir para a frente supera em muito a possibilidade de regredir, e essa diferença aumenta exponencialmente à medida que o calor é dissipado.
De certa forma, é como deixar uma “marca” no universo. Essa "amolgadela" pode ser comparada a uma colisão não elástica. Por exemplo, se eu jogar uma bola de borracha no chão, ela vai quicar de volta, o que é um comportamento elástico. Mas se eu deixar cair um pedaço de argila no chão, ele vai achatar e manter essa forma, tornando-se não elástico, quase impossível de reverter.
Essencialmente, cada informação está "lutando" pela sua existência. Para continuar existindo, cada informação precisa deixar uma marca mais indelével de sua existência no universo, como se criasse uma “marca” maior no universo.
Esse princípio também pode explicar como a vida e a inteligência surgiram de uma “sopa” primordial de matéria. À medida que o sistema se torna mais complexo, ele contém mais bits de informação. E cada detalhe pode nos revelar algo. A essência da informação é a redução da entropia, pois a entropia representa nossa ignorância, e a informação é a ferramenta para reduzir a ignorância.
Eddy Lazzarin: Estou curioso para saber o que é E/acc.
Guillaume Verdon: A E/acc é, essencialmente, uma "prescrição metacultural". Não se trata de uma cultura em si, mas sim de algo que nos indica o que devemos acelerar. No cerne da aceleração está a complexificação da matéria, o que nos permite antecipar melhor o nosso ambiente. Por meio dessa complexificação, aumentamos nossa capacidade de previsão autorregressiva e capturamos mais energia livre. Isso também está relacionado à Escala de Kardashev, na qual alcançamos esse estágio por meio da dissipação de calor.
Nota da Deep Tide TechFlow: A Escala de Kardashev é um método proposto em 1964 pelo astrônomo soviético Nikolai Kardashev para avaliar o avanço tecnológico de uma civilização com base na quantidade de energia que ela é capaz de utilizar. É dividido em três tipos: Tipo I (energia planetária), Tipo II (energia de um sistema estelar, como uma esfera de Dyson) e Tipo III (energia galáctica). Em 2018, a humanidade situava-se em aproximadamente 0,73 na escala.
Em essência, é por isso que a Escala de Kardashev é considerada a medida definitiva do nível de desenvolvimento de uma civilização.
Eddy Lazzarin: Usar a física e a metáfora da entropia para explicar certos fenômenos é uma ferramenta para descrever a realidade que vivenciamos diretamente. Por exemplo, nossa capacidade de produção econômica está aumentando, e o desenvolvimento tecnológico também está avançando rapidamente, o que traz muitas consequências, não é mesmo? Esta é a minha compreensão do conceito de "aceleração".
Guillaume Verdon: Essencialmente, independentemente de como os limites de um sistema sejam definidos, ele se torna cada vez mais hábil em prever o mundo ao seu redor. Graças a essa capacidade preditiva, ela consegue obter mais recursos para sua própria sobrevivência e expansão. Esse padrão se aplica a empresas, indivíduos, nações e até mesmo ao planeta inteiro.
Se continuarmos nessa tendência, o resultado é que descobrimos uma maneira de converter energia livre em capacidade preditiva — ou seja, a IA. Essa capacidade impulsionará nossa expansão e nosso avanço na Escala de Kardashev.
Isso significa que teremos mais energia, mais inteligência artificial, mais capacidade computacional e mais recursos de outros tipos. Ao mesmo tempo em que aumentamos a entropia no universo (a desordem), também estamos criando ordem. Na verdade, estamos ganhando “entropia negativa”, que é o oposto da entropia.
Às vezes, as pessoas podem se perguntar: já que a entropia está aumentando, por que simplesmente não destruímos tudo? A resposta é: isso, na verdade, interromperia a geração de entropia. A vida é o estado mais "ideal"; assim como uma chama que busca sua fonte de energia, ela procurará cada vez mais inteligentemente essa fonte.
A tendência evolutiva natural é a seguinte: sairemos do poço gravitacional da Terra, buscaremos outras “bolsas” de energia livre no universo e usaremos essas energias para nos auto-organizar em sistemas mais complexos e inteligentes, expandindo-nos, em última instância, para todos os cantos do cosmos.
De certa forma, esse é o objetivo final do Altruísmo Eficaz (EA). Isso se alinha, de certa forma, à ideia “muskiana” de expansionismo cósmico: a busca por uma visão de universalismo e expansionismo.
O E/acc oferece um princípio orientador fundamental. A ideia central é a seguinte: quaisquer que sejam as políticas ou ações que você adote neste mundo, desde que nos ajudem a subir na escala de Kardashev, esse é um objetivo pelo qual vale a pena lutar, e essa é a direção que devemos dar às nossas vidas.
A E/acc é uma abordagem heurística baseada em metas que pode ser utilizada para elaborar políticas e orientar a vida das pessoas. Para mim, essa forma de pensar, por si só, constitui uma cultura. Isso tem uma implicação narrativa bastante "meta", já que se prevê que seja aplicável em todos os momentos e sob todas as condições. É uma cultura extremamente universal e duradoura; em outras palavras, é uma “cultura Lindy” concebida após uma reflexão cuidadosa.
Divergência fundamental
Shaw Walter: Para você, as discussões aqui têm um significado mais profundo. É quase como um “sistema espiritual” matematicamente coerente. Para aqueles que não encontraram um sistema de crenças alternativo desde que se proclamou que “Deus está morto”, tal sistema parece preencher o vazio do mundo espiritual, trazendo conforto e esperança. Mas, ao mesmo tempo, não podemos ignorar as implicações concretas dessa questão — isso está acontecendo agora. Acho que esse também é o ponto central que o Eddy quer explorar.
Vitalik, percebi que você levantou questões perspicazes sobre os aspectos práticos do D/acc no seu próprio blog. Vamos aprofundar esse assunto quando tivermos oportunidade — acho que um dia devíamos trancar vocês dois numa sala para um confronto sobre questões quânticas.
Vitalik: O que te inspirou? Na sua opinião, o que são E/acc e D/acc, respectivamente?
Vitalik Buterin: Para mim, o significado de D/acc é o seguinte: significa “Aceleração Defensiva Descentralizada”, mas também abrange as conotações de “diversificação” e “democratização”. Na minha opinião, a ideia central do D/acc é a seguinte: a aceleração tecnológica é crucial para a humanidade e deve ser o nosso objetivo fundamental a ser alcançado.
Ao olharmos para trás, para o século XX, vemos que, apesar dos muitos problemas que o progresso tecnológico trouxe, ele também trouxe inúmeros benefícios. Por exemplo, considere a expectativa de vida humana: apesar das guerras e das convulsões, a expectativa de vida média na Alemanha em 1955 ainda era maior do que em 1935, indicando que o progresso tecnológico melhorou nossa qualidade de vida de muitas maneiras.
Hoje, o mundo está mais limpo, mais bonito, mais saudável e mais interessante. Isso não só sustenta mais pessoas, como também torna nossas vidas mais coloridas e gratificantes, mudanças que são muito positivas para a humanidade.
No entanto, acredito que devemos reconhecer que esses avanços não são acidentais, mas sim o resultado de uma intenção humana deliberada. Por exemplo, na década de 1950, havia grave poluição atmosférica e neblina de poluição. As pessoas reconheceram isso como um problema e tomaram medidas para resolvê-lo. Hoje, pelo menos em muitos lugares, o problema da poluição atmosférica foi bastante atenuado. Da mesma forma, enfrentamos o problema da destruição da camada de ozônio e alcançamos avanços significativos por meio da cooperação global.
Além disso, gostaria de acrescentar: diante do rápido avanço tecnológico e do desenvolvimento da IA nos dias de hoje, vejo dois riscos principais.
Um dos riscos é o risco multipolar. Esse risco se refere ao fato de que, à medida que a tecnologia se torna mais difundida, mais pessoas podem utilizá-la para realizar ações extremamente perigosas. Por exemplo, um cenário extremo poderia ser aquele em que os avanços tecnológicos tornassem “tão fácil adquirir uma arma nuclear quanto comprar algo em uma loja de conveniência”.
Além disso, há outra preocupação: A própria IA. Precisamos considerar seriamente a possibilidade de a IA desenvolver alguma forma de consciência. Quando se tornar suficientemente poderoso para agir de forma autônoma, sem intervenção humana, não poderemos ter certeza das decisões que poderá tomar, e essa incerteza é preocupante.
Existe também um risco unipolar. Acredito que uma IA autônoma seja uma dessas ameaças potenciais. Pior ainda, a combinação da IA com outras tecnologias modernas pode levar a uma sociedade ditatorial inescapável e permanente. Essa perspectiva me deixa muito inquieto e sempre foi motivo de preocupação para mim.
Por exemplo, na Rússia, podemos ver que a tecnologia trouxe tanto progresso quanto riscos. Por um lado, as condições de vida realmente melhoraram. Por outro lado, as liberdades sociais estão diminuindo. Se alguém tentar protestar, as câmeras de vigilância registrarão suas ações, e então alguém poderá aparecer à sua porta para prendê-lo no meio da noite, uma semana depois.
O rápido desenvolvimento da IA está acelerando essa tendência de centralização do poder. Portanto, para mim, o que o D/acc realmente pretende fazer é: traçar um caminho a seguir, dar continuidade a essa aceleração e intensificá-la ainda mais, ao mesmo tempo em que lida de forma genuína com esses dois tipos de riscos.
Comparando e/acc com d/acc
Eddy Lazzarin: Então, o que você está dizendo é que o d/acc se concentra mais em algumas categorias de risco que foram ignoradas ou subestimadas no modelo e/acc, certo?
Vitalik Buterin: Isso mesmo. Acredito que o desenvolvimento tecnológico traz, de fato, vários riscos, e que esses riscos assumirão diferentes graus de importância em diversos contextos e modelos de mundo. Por exemplo, a prioridade atribuída a diferentes riscos pode mudar à medida que o ritmo do desenvolvimento tecnológico se acelera ou desacelera.
No entanto, também acredito que podemos adotar diversas medidas para lidar com esses riscos de forma eficaz, independentemente da categoria a que pertençam.
Guillaume Verdon: Acho que tanto o Vitalik quanto eu estamos, na verdade, muito preocupados com a questão da concentração de poder que a IA poderia trazer. Esse também é um dos aspectos centrais do movimento e/acc, especialmente em suas fases iniciais: ele defende o código aberto com o objetivo de descentralizar o poder da IA.
Preocupamo-nos com a possibilidade de o conceito de segurança da IA ser mal utilizado. É tão tentador que certas entidades ávidas por poder possam usar isso como uma ferramenta para consolidar o controle sobre a IA e tentar convencer o público de que, para sua própria segurança, as pessoas comuns não deveriam ter o direito de usar a IA.
Na verdade, se houver uma diferença cognitiva significativa entre os indivíduos e as instituições centralizadas, estas últimas terão controle total sobre os primeiros. Eles podem construir um modelo completo dos seus padrões de pensamento e orientar efetivamente o seu comportamento por meio de técnicas como o nudging.
Por isso, queremos tornar o poder da IA mais equitativo. Assim como a intenção original da Segunda Emenda da Constituição dos Estados Unidos era impedir que o governo monopolizasse o uso da força, para que o povo pudesse controlá-lo caso ele extrapolasse seus limites, a IA também precisa de mecanismos semelhantes para evitar a concentração excessiva de poder.
Precisamos garantir que todos tenham a possibilidade de possuir seus próprios modelos de IA e hardware, possibilitando a adoção generalizada dessa tecnologia para alcançar a descentralização do poder.
No entanto, acredito que interromper completamente a pesquisa e o desenvolvimento em IA não é viável. A IA é uma tecnologia fundamental, possivelmente uma “metatecnologia” — uma tecnologia que impulsiona o desenvolvimento de outras tecnologias. Isso nos proporciona maior capacidade de previsão, pode ser aplicado a praticamente qualquer tarefa e aumenta significativamente a eficiência. A IA não só impulsiona a aceleração em si, como também acelera ainda mais esse processo.
A essência dessa aceleração é a complexidade: as coisas ficam mais eficientes, a vida fica mais prática. Uma das razões pelas quais nos sentimos felizes é porque a continuidade da nossa sobrevivência e do nosso acesso à informação está garantida. Essa "sensação de felicidade" pode ser vista como um indicador biológico interno utilizado para avaliar se nossa existência pode ser mantida.
Dessa perspectiva, acredito que o quadro do utilitarismo hedonista do altruísmo eficaz, ou seja, a “maximização da felicidade”, talvez não seja a melhor abordagem. Em vez disso, estou mais inclinado a adotar uma medida objetiva de progresso, que é exatamente o objetivo do quadro E/acc. Isso levanta uma questão: de uma perspectiva objetiva, será que nós, como civilização, estamos em constante progresso? Estamos conseguindo uma expansão em escala?
Para alcançar essa escalabilidade, precisamos lidar com a complexidade e aprimorar continuamente nossa tecnologia. No entanto, como disse Vitalik, se o poder da IA estiver excessivamente concentrado nas mãos de poucos, isso será prejudicial para o crescimento geral; por outro lado, se essa tecnologia puder ser amplamente distribuída, os resultados serão muito melhores.
Nesse sentido, acredito que estamos totalmente de acordo.
Código aberto, hardware aberto e inteligência local
Shaw Walters: Acho que a sua discussão de há pouco abordou alguns pontos em comum muito importantes. É evidente que vocês dois apoiam o código aberto. Vitalik contribuiu com muito código-fonte aberto sob licença MIT, embora eu saiba que, mais tarde, você passou a ter uma nova visão sobre a licença GPL.
Agora, você não só apoia o software de código aberto, como também está começando a promover o hardware de código aberto. Embora, no passado, essas duas áreas fossem relativamente distintas, hoje estamos vendo que elas estão se fundindo gradualmente.
Então, estou curioso: o que você acha dos conceitos de “peso aberto” e “hardware de código aberto”? Nesse sentido, há alguma diferença entre E/acc e D/acc? O que você acha sobre os rumos futuros? Existem outros pontos de vista?
Guillaume Verdon: Na minha opinião, o código aberto pode acelerar o processo de busca de hiperparâmetros. Isso nos permite colaborar com base na sabedoria coletiva, explorando em conjunto o espaço de design. Essa é a vantagem trazida pela aceleração: podemos desenvolver tecnologias melhores, IA mais potente e até mesmo usar a IA para criar IA ainda mais avançada, com a velocidade de todo o processo aumentando constantemente.
Acredito que a essência da disseminação do conhecimento reside, fundamentalmente, na difusão do poder, e que a divulgação do conhecimento sobre “como criar inteligência” é particularmente importante. O que não queremos ver é uma possibilidade que já foi discutida pelo governo anterior dos Estados Unidos: uma tentativa de “colocar o gênio de volta na garrafa”. Embora não proíba totalmente a álgebra linear, isso seria semelhante a restringir a pesquisa matemática relacionada à IA. Para mim, isso é como proibir as pessoas de estudar biologia — é um grande retrocesso.
O conhecimento já foi divulgado e não há como voltar atrás. Se os EUA tentarem proibir pesquisas relacionadas à IA, outros países, organizações independentes e até mesmo certas regiões com legislação favorável continuarão a desenvolver essa tecnologia. Consequentemente, a lacuna global em termos de capacidade só tenderá a aumentar, e os riscos serão maiores.
Portanto, acreditamos que um dos maiores riscos seja a “lacuna de capacidade”. A única maneira de mitigar esse risco é garantir que a IA seja descentralizada.
Sempre que ouço discursos do tipo “cenário apocalíptico da IA”, como “a IA é muito perigosa, só nós temos a capacidade de controlá-la, então vocês devem confiar em nós”, fico muito cético. Mesmo que essas pessoas tenham boas intenções, se acumularem poder em excesso, podem acabar sendo substituídas por aqueles que buscam o poder. Há muitos anos que vemos alertando. E agora está realmente começando a acontecer. Assim como vimos esta semana, Dario (CEO da Anthropic) está aprendendo algumas lições políticas da vida real.
Vitalik Buterin: Costumo classificar os riscos potenciais do desenvolvimento tecnológico em dois tipos: riscos unipolares e riscos multipolares.
Os riscos unipolares referem-se a casos como o da Anthropic. Eles foram "criticados" por se recusarem a permitir que sua tecnologia de IA fosse usada para desenvolver armas totalmente autônomas ou realizar vigilância em larga escala sobre os americanos, o que indica que o governo e as forças armadas podem, de fato, estar interessados em utilizar essas tecnologias para fins de vigilância extensiva. O avanço contínuo da tecnologia de vigilância terá efeitos profundos. Isso pode tornar os poderosos ainda mais fortes, reduzir o espaço para vozes diversas na sociedade e restringir a liberdade das pessoas comuns de explorar e experimentar soluções alternativas. E, com o avanço tecnológico, as capacidades de vigilância serão amplamente ampliadas, tornando-se ainda mais generalizadas.
No âmbito do D/acc, estamos apoiando o desenvolvimento de alguns projetos de “tecnologias defensivas de código aberto”. Essas tecnologias têm como objetivo ajudar a garantir a segurança e a privacidade de todos em um mundo com recursos tecnológicos cada vez mais avançados. Tomando a biologia como exemplo, esperamos fortalecer as capacidades globais para lidar com pandemias. Acredito que podemos alcançar um equilíbrio: podemos controlar as epidemias com a mesma eficácia e rapidez da China, ao mesmo tempo em que minimizamos a interferência na vida cotidiana tanto quanto a Suécia. Esse equilíbrio pode ser alcançado por meio de soluções tecnológicas, como a combinação de tecnologias de filtragem de ar, desinfecção por luz ultravioleta (UVC) e detecção de vírus.
A empresa na qual investimos está desenvolvendo um produto final totalmente de código aberto capaz de detectar passivamente partículas de vírus no ar, como o novo coronavírus. Este dispositivo funciona monitorando parâmetros de qualidade do ar (por exemplo, níveis de CO₂, índice de qualidade do ar, etc.) e utiliza técnicas de criptografia local, anonimização e privacidade diferencial para garantir a privacidade dos dados. Os dados são então enviados aos servidores por meio de criptografia totalmente homomórfica, permitindo que os servidores realizem análises sem acessar diretamente os dados brutos e gerem resultados finais por meio da descriptografia coletiva.
Nosso objetivo é reforçar a segurança, proteger a privacidade dos usuários e lidar de forma eficaz com riscos pontuais e múltiplos. Acredito que esse tipo de colaboração global é fundamental para construir um futuro melhor.
No que diz respeito ao hardware, acredito que não só precisamos impulsionar o desenvolvimento de hardware de código aberto, mas também desenvolver hardware auditável. Por exemplo, idealmente, cada câmera deveria poder comprovar ao público sua finalidade específica. Por meio da verificação de assinaturas, da análise baseada em grandes modelos de linguagem e de mecanismos de auditoria pública, podemos garantir que esses dispositivos sejam utilizados apenas para fins legítimos, como a detecção de comportamentos violentos e a emissão de alertas, sem infringir a privacidade pessoal.
No mundo do futuro que imaginamos, poderíamos instalar inúmeras câmeras nas ruas para prevenir incidentes violentos. No entanto, um pré-requisito é que esses dispositivos sejam totalmente transparentes, permitindo que o público verifique seu funcionamento a qualquer momento, a fim de garantir que sejam utilizados exclusivamente para salvaguardar a segurança pública e não sejam utilizados indevidamente para fins de vigilância ou outros fins impróprios.
Eddy Lazzarin: Os conceitos de hardware de código aberto e hardware auditável fazem parte do E/acc ou do D/acc? Você poderia apontar uma distinção clara?
Guillaume Verdon: Não tenho certeza se o hardware de código aberto já foi discutido em detalhes no passado, mas, na minha opinião, um dos maiores riscos atuais é a disparidade entre entidades centralizadas e descentralizadas, ou seja, a diferença de capacidade entre indivíduos e governos ou grandes organizações.
Com base no modelo atual de capacidade computacional, a execução de um modelo de IA de alto desempenho requer centenas a milhares de quilowatts de recursos computacionais, uma escala de capacidade computacional que as pessoas comuns não têm condições de arcar. No entanto, as pessoas desejam possuir e controlar suas ferramentas inteligentes, o que explica por que o recente fenômeno do “Openclaw + Mac mini” causou tanto furor; as pessoas anseiam por ter seus próprios assistentes inteligentes.
Para alcançar a simetria de poder entre os indivíduos e as instituições centralizadas, a única maneira é concretizar a “densificação da inteligência”. Precisamos desenvolver hardware de IA mais eficiente em termos energéticos, permitindo que as pessoas executem modelos de IA avançados em dispositivos simples e tenham acesso às suas próprias ferramentas inteligentes. Isso é fundamental, especialmente porque os futuros modelos de IA começarão a oferecer suporte ao ensino à distância, tornando-os muito "aderentes" e tão difíceis de substituir quanto trocar um assistente pessoal.
Eddy Lazzarin: Mas não temos vindo a trabalhar para reduzir o custo do hardware de informática a um ritmo exponencial? Por que deveríamos classificar uma determinada ideia como E/acc ou D/acc? O que exatamente estamos tentando transmitir à sociedade por meio desse tipo de classificação?
Guillaume Verdon: Para mim, essa é também uma das principais missões da minha empresa, a Extropic. Nosso objetivo é aumentar a quantidade de inteligência que pode ser produzida por watt de energia, o que aumentará significativamente a inteligência total que podemos criar. Esse progresso também nos levará a níveis mais elevados da Escala de Kardashev por meio do Paradoxo de Jevons (Nota da TechFlow: O Paradoxo de Jevons refere-se ao fenômeno em que um aumento na eficiência do uso de um recurso leva a uma redução no custo de utilização desse recurso, resultando em um maior consumo total do mesmo. Em termos simples, se conseguirmos converter energia em inteligência ou em outro tipo de valor de forma mais eficiente, nossa demanda por energia também aumentará, impulsionando o progresso e a complexidade da civilização.
Portanto, acredito que esta seja uma das questões técnicas mais críticas da atualidade, pois está diretamente relacionada à descentralização do poder da IA. O hardware de código aberto é apenas uma das muitas maneiras de alcançar esse objetivo. No entanto, a longo prazo, acredito que qualquer hardware baseado na arquitetura de Von Neumann (Nota da TechFlow: A Arquitetura de von Neumann, base dos computadores modernos proposta pelo matemático John von Neumann em 1945 (que armazena instruções de programa e dados na mesma memória e utiliza execução binária e sequencial), ou a tecnologia digital moderna, acabará por se tornar obsoleta, tal como as ferramentas das sociedades primitivas.
Eddy Lazzarin: Mas o capitalismo já não vem investindo bilhões de dólares anualmente nessa área por meio de incentivos de mercado? O investimento em áreas como hardware alternativo, tecnologia de semicondutores e produção de energia não visa promover a diversidade tecnológica?
Guillaume Verdon: Precisamos de opções mais diversificadas, em vez de depender excessivamente de uma única direção tecnológica. Seja na política, na cultura ou na tecnologia, precisamos preservar a diversidade no campo do design, em vez de permitir que todos os recursos sejam monopolizados por um único gigante. Caso contrário, corremos o risco de cair na “aposta no espaço dos hiperparâmetros” — se investirmos recursos excessivos em uma determinada direção tecnológica e essa direção enfrentar problemas, isso poderá resultar em um revés significativo no desenvolvimento tecnológico, podendo até mesmo levar ao colapso de todo o ecossistema.
Shaw Walters: Posso dizer que realmente resolvemos esse problema? Suas opiniões estão bastante alinhadas no que diz respeito ao código aberto e à descentralização, o que me deixa muito otimista, pois é exatamente isso que me interessa. Muitas pessoas estão inseguras quanto ao futuro e perguntam constantemente: “Por que precisamos dessas tecnologias?” O que torna suas opiniões tão atraentes é que ambos afirmam: “Tudo vai melhorar porque esse progresso já está incorporado ao mecanismo.”
Guillaume Verdon: Acredito que sentir ansiedade diante da grande incerteza em relação aos futuros avanços tecnológicos seja algo muito natural. Essa ansiedade não se deve inteiramente à “névoa da guerra”, mas torna difícil para nós prever com clareza o que acontecerá nos próximos anos. Na verdade, esse sentimento de ansiedade é um instinto que se formou ao longo da evolução humana, ajudando-nos a lidar com riscos desconhecidos. Por exemplo, quando vejo um celular na beirada da mesa, instintivamente sinto vontade de colocá-lo em um lugar mais seguro para evitar que caia. Essa reação é uma manifestação de ansiedade.
No entanto, precisamos perceber que, se tentarmos eliminar completamente essa incerteza e esse risco, podemos perder o enorme potencial e os benefícios trazidos pelo desenvolvimento tecnológico. Atualmente, nosso sistema de capital tecnológico atingiu um equilíbrio dinâmico com as capacidades existentes, mas se alguma capacidade tecnológica disruptiva surgir repentinamente, esse equilíbrio será rompido, e todo o sistema precisará se reajustar e se adaptar.
Hoje, a tecnologia de IA nos permite lidar com maior complexidade gastando menos energia. Isso significa que podemos realizar tarefas mais desafiadoras, com recompensas potencialmente maiores. Embora ainda não possamos concluir rapidamente um projeto complexo por meio da “programação intuitiva”, estamos caminhando nessa direção. No futuro, poderemos utilizar tecnologias mais eficientes para atender às necessidades de uma população maior, ao mesmo tempo em que melhoramos a qualidade de vida das pessoas.
É claro que pode haver um período de adaptação nesse processo. Mas, em um ambiente em rápida mudança, a pior abordagem é perder a flexibilidade e tornar-se rígido. Para evitar essa situação, precisamos adotar estratégias de proteção, explorar várias possibilidades, investigar diferentes políticas, caminhos tecnológicos e algoritmos, e experimentar modelos de código aberto e fechado, pois não podemos prever com precisão para onde o futuro nos levará.
Portanto, devemos diversificar os riscos e explorar várias possibilidades. No fim das contas, certas orientações tecnológicas ou políticas bem-sucedidas acabarão se tornando a tendência dominante, e nós seguiremos essa corrente.
Eddy Lazzarin: Se de fato existe uma divergência entre E/acc e D/acc, entendo que isso pode estar relacionado à forma como o progresso tecnológico é orientado. Vitalik, qual é a sua opinião? Como o progresso tecnológico deve ser orientado? Até que ponto temos realmente controle sobre esse processo de orientação?
Vitalik Buterin: Na minha opinião, o objetivo do D/acc não é resistir à onda do capital tecnológico, mas sim orientar ativamente essa onda no sentido da diversificação e da descentralização. Por exemplo, podemos refletir sobre como tornar o mundo mais inclusivo em relação ao pluralismo. Será que conseguiremos elevar significativamente os níveis de biossegurança em poucos anos? Ou desenvolver um sistema operacional praticamente impecável para melhorar significativamente a segurança cibernética?
Outro exemplo é a ideia de "código sem erros". Nas últimas duas décadas, esse conceito tem sido considerado uma fantasia ingênua, mas acredito que se tornará realidade a um ritmo que superará as expectativas da maioria das pessoas. No projeto Ethereum, conseguimos provar matematicamente, por meio de computadores, alguns teoremas matemáticos completos.
Em geral, o objetivo do D/acc é garantir que o rápido avanço da tecnologia ocorra de forma minimamente disruptiva e descentralizada. Para alcançar esse objetivo, precisamos agir de forma proativa, em vez de esperar passivamente que bons resultados surjam por si só. Tudo o que posso fazer é contribuir com recursos, como fundos e ETH, e motivar mais pessoas a participarem da construção, compartilhando minhas opiniões.
Além disso, acredito que reformas políticas e jurídicas também podem ajudar a tornar o mundo mais "amigável para pessoas com deficiência". Por exemplo, podemos criar mecanismos de incentivo legal para impulsionar uma transformação mais rápida e abrangente na área de segurança cibernética.
Guillaume Verdon: Na minha opinião, a IA pode ser vista como um “Demônio de Maxwell”, reduzindo a entropia do mundo ao consumir energia. Seja corrigindo erros no código ou reduzindo outras formas de caos (como impedir a propagação de vírus), a IA pode desempenhar um papel importante nessas áreas. Portanto, será que podemos chegar a um consenso de que o aumento do uso da IA é benéfico e torna o mundo mais seguro? Na verdade, as capacidades da IA podem aumentar significativamente a nossa segurança.
A IA deveria ser desacelerada?
Guillaume Verdon: Acho que estamos entrando agora na parte mais crucial da discussão desta noite. Todos têm sido muito pacientes conosco, e agora é hora de ir direto ao ponto. Gostaria de fazer uma pergunta direta: Por que você é a favor da proibição da construção de centros de dados?
Vitalik Buterin: Tudo bem, vou responder a essa pergunta. Em primeiro lugar, devemos reconhecer que o ritmo atual do desenvolvimento da IA é, de fato, muito acelerado, e não posso ter certeza absoluta de sua velocidade específica. Há alguns anos, afirmei que minha estimativa para a concretização da IA Geral (AGI) situava-se entre 2028 e 2200, e agora acredito que esse intervalo possa ter se reduzido um pouco, mas ainda há uma incerteza significativa.
Uma realidade com a qual nos deparamos é que o rápido avanço da IA pode provocar mudanças extremamente rápidas, muitas das quais podem ser disruptivas, ou mesmo irreversíveis. Por exemplo, o mercado de trabalho pode passar por transformações drásticas, deixando muitas pessoas desempregadas. Um cenário mais extremo seria o seguinte: se as capacidades da IA ultrapassarem em muito as dos seres humanos, ela poderia gradualmente assumir o controle da Terra, chegando até mesmo a se expandir para outras partes da galáxia. Nesse cenário, a IA se importaria com o nosso bem-estar humano? Isso continua sendo uma incógnita.
Como mencionei anteriormente, se você tiver uma rede neural e definir aleatoriamente um de seus pesos para um valor extremo (como 9 bilhões), o resultado provável é que todo o sistema entre em colapso, certo? Então, acredito que a aceleração tecnológica tem duas direções diferentes. Uma aceleração é semelhante a um processo de “descida por gradiente” que torna o sistema cada vez mais potente; mas outra aceleração poderia levar à perda de controle do sistema; assim como definir arbitrariamente um parâmetro para um valor extremo, essa aceleração é perigosa.
Guillaume Verdon: Do meu ponto de vista, minha posição é totalmente oposta à posição de uma “desaceleração total”.
No entanto, acho que, assim como no ajuste de hiperparâmetros em redes neurais, mesmo que nosso objetivo seja otimizar por meio do “descenso de gradiente”, ainda precisamos encontrar uma “taxa de aprendizagem” adequada. O processo de aceleração consiste, na verdade, em uma série contínua de tentativas e explorações, buscando uma velocidade ideal que torne o sistema mais duradouro e mais resiliente aos riscos.
A longo prazo, os sistemas sociais irão se adaptar gradualmente às novas tecnologias e, por fim, escolherão o caminho mais propício ao desenvolvimento geral. Quanto àqueles que acreditam que “essa tecnologia é poderosa demais, disruptiva demais e pode levar o sistema ao colapso, sem que haja recuperação”, acho que esse argumento é insustentável. Em vez disso, acredito que o progresso tecnológico trará mais oportunidades e maior prosperidade.
Precisamos reconhecer que o desenvolvimento tecnológico não é um jogo de soma zero. Se associarmos valor econômico à energia, por exemplo, vinculando-o ao petrodólar ou a outras formas de recursos, então o dinheiro pode, de fato, ser visto como uma “promessa de pagamento por energia gratuita”. Ainda existe uma enorme quantidade de energia gratuita no mundo à espera de ser explorada, mas, para ter acesso a ela, precisamos resolver uma série de problemas complexos. Se quisermos alcançar objetivos como colonizar Marte ou construir uma esfera de Dyson, precisamos de uma inteligência mais eficiente e robusta para impulsionar o crescimento e liberar um enorme potencial.
Infelizmente, a ansiedade é facilmente utilizada como ferramenta política por alguns, e certos políticos podem explorar os medos das pessoas em relação ao futuro para ganhar poder. Eles dirão: “Você está preocupado com o futuro?” Entregue-me o poder, e eu eliminarei essas fontes de risco, e vocês se sentirão seguros. "Você não precisa se preocupar com o que o futuro reserva, nem correr riscos." No entanto, os países que optarem por não fazer isso estarão muito à nossa frente, não é mesmo?
Devemos levar em conta o custo de oportunidade. Precisamos nos perguntar: Quantas vidas humanas podemos sustentar com a tecnologia? Quantas vidas podemos salvar com isso? Se você está preocupado com o fato de que "a IA baseada em silício evolua mais rápido do que nós", então sua reação deveria ser a raiva. Você deve apoiar o desenvolvimento acelerado da biotecnologia, empenhando-se em superá-lo. Ou acelerar ou enfrentar a extinção.
Na verdade, acredito que o poder computacional dos sistemas biológicos é maior do que imaginamos. Como alguém dedicado ao estudo da computação bioinspirada, acredito que podemos unir a biologia à IA. Por exemplo, podemos realizar um "treinamento" por meio de métodos como a seleção de embriões, considerando-nos um modelo. Acho que precisamos estar mais abertos às diversas possibilidades da aceleração biológica. Em última análise, a inteligência biológica e a inteligência baseada em silício se fundirão, aprimorando ainda mais nossas capacidades cognitivas.
No futuro, poderemos ter agentes de IA permanentemente conectados à internet que nos ajudem a observar o mundo, a aprender em tempo real e a nos tornarmos extensões cognitivas personalizadas. O verdadeiro risco é que tudo isso possa ser controlado por uma entidade de poder centralizada, acabando por formar um monopólio de poder.
Eddy Lazzarin: Lembro que você mencionou naquele post do blog sobre D/acc que o custo de oportunidade é muito alto, chegando a dizer que “é difícil exagerar”. Então, sei que você concorda comigo nesse ponto. Você quer adicionar algumas condições de qualificação?
Vitalik Buterin: Sim, concordo plenamente que o custo de oportunidade é muito alto, e também concordo com o futuro ideal descrito há pouco. Mas acho que a principal divergência entre nós é: Sinceramente, não acho que “os seres humanos e a Terra de hoje” tenham resiliência suficiente. Acho que talvez tenhamos apenas uma chance de seguir o caminho correto do desenvolvimento tecnológico, e sinto que essa é a realidade para a qual temos caminhado gradualmente ao longo do último século.
Guillaume Verdon: Voltando ao ponto termodinâmico que mencionei anteriormente: se considerarmos a continuidade e o crescimento da civilização como o objetivo final, existe uma lei: uma vez que gastamos uma grande quantidade de energia livre para criar algum tipo de “evidência” e impulsionar a complexificação de todo o sistema, esse processo é difícil de reverter.
Em outras palavras, quanto mais avançamos na escala de Kardashev, menos provável é uma reversão completa. Portanto, acelerar o desenvolvimento é, na verdade, a melhor maneira de maximizar a existência sustentável da civilização humana. Na minha opinião, desacelerar o desenvolvimento tecnológico acabaria, na verdade, aumentando o risco de extinção. Se não desenvolvermos essas tecnologias e não enfrentarmos os problemas atuais, poderemos enfrentar uma crise de sobrevivência; mas, se impulsionarmos o progresso tecnológico, poderemos encontrar soluções para garantir a continuidade da existência da humanidade e sua evolução.
Acredito que as pessoas deveriam estar mais abertas ao futuro e abraçar as novas tecnologias. Áreas que antes eram consideradas tabu, como a intervenção na biologia, devem agora estar totalmente abertas. No passado, essas áreas eram consideradas proibidas, principalmente devido à nossa falta de compreensão dos sistemas complexos. Mas hoje, os avanços tecnológicos nos deram a capacidade de lidar com essa complexidade.
Precisamos acelerar o progresso em todas as áreas possíveis, pois essa é a única maneira de avançarmos — uma conclusão que também está em consonância com as leis da termodinâmica. Portanto, partindo dos princípios básicos, é razoável apoiar a E/acc. É claro que compreendo a ansiedade de Vitalik e acredito que precisamos ser sensíveis a ela, mas também precisamos evitar cair na armadilha dos ciclos viciosos de ansiedade — como, por exemplo, “Não tenho uma visão clara do futuro, então devemos parar tudo”. Não podemos cair nessas armadilhas mentais.
Porque já há pessoas que começaram a usar a ansiedade alheia como arma.
Agentes autônomos e vida artificial
Shaw Walters: Percebi uma tendência: vocês dois estão enfatizando que “o futuro será promissor, desde que possamos fazer certas coisas”, e o cerne desse “desde que” parece ser a necessidade de construirmos algum tipo de barragem ou fortaleza para combater a centralização excessiva. Mas também percebi um ponto que pode causar divisão, especialmente após o surgimento dos modelos mais recentes de IA — eles estão claramente mais avançados do que há um ano. E talvez a maior mudança, que pode ser descrita com um termo um tanto estranho: Web 4.0.
Mais especificamente, estou me referindo à “vida autônoma” — um agente inteligente autônomo que possui recursos próprios e pode existir de forma independente na internet. Vitalik, você tem algumas preocupações a respeito disso. Primeiro, você poderia nos ajudar a explicar o que significa “agente autônomo”? Segundo, você poderia adotar a perspectiva de um defensor dessa ideia e apresentar um argumento “steelman” para defensores como eu, explicando por que deveríamos apoiar os agentes autônomos? Que valor eles podem agregar? Se tudo correr bem, quando isso poderá ser alcançado?
Vitalik Buterin: Em primeiro lugar, quanto ao motivo da “autonomia” — acho que o argumento mais intuitivo é: é realmente fascinante.
Desde a infância, todos nós adoramos criar nossos próprios mundos, e é por isso que gostamos de romances ou filmes como “O Senhor dos Anéis”, “O Problema dos Três Corpos” ou “Harry Potter”. Hoje em dia, os mundos que podemos criar não se limitam aos livros e vão até mesmo além dos videogames. Tomando “World of Warcraft” como exemplo, uma coisa que sempre gostei é que o jogo oferece uma experiência de mundo virtual quase totalmente imersiva. Os jogadores podem não só explorar esse mundo, mas também interagir com seus personagens e ambientes.
Outra razão importante é a "conveniência". Historicamente, sempre que conseguimos automatizar certas tarefas, a vida das pessoas se tornou, por consequência, mais fácil e mais livre. Devemos também lembrar que cerca de metade da população mundial ainda vive em condições em que são necessárias longas jornadas de trabalho árduo para manter um padrão de vida digno. Se a IA pudesse automatizar 95% de cada trabalho, em vez de substituí-lo totalmente, isso seria um grande avanço. Em outras palavras, isso poderia potencialmente aumentar a qualidade de vida de todos em 20 vezes, o que é uma perspectiva muito empolgante para mim.
No entanto, a minha preocupação é a seguinte: Os objetivos e valores desses agentes autônomos estão alinhados com os objetivos humanos? Você pode imaginar um processo evolutivo: A partir de hoje, surge uma AGI, depois outra AGI, seguida por uma terceira AGI. Então, nesse processo, quais mudanças os seres humanos passarão?
Acredito que não podemos reduzir os conceitos e objetivos morais humanos a uma função de otimização de baixa complexidade. Nossos objetivos e sonhos são complexos e diversos; são o conjunto de ideias que cada um de nós tem. Para garantir que os objetivos e valores humanos possam perdurar de forma confiável no futuro, precisamos assegurar uma condição: que, à medida que os diversos processos no mundo se desenrolam, a maior parte possível da “autonomia” continue a partir de nós mesmos, seres humanos.
Portanto, o que me interessa mais, pessoalmente, é o “Photoshop assistido por IA”, e não o “apertar um botão para gerar imagens automaticamente”. Prefiro interfaces cérebro-máquina que promovam uma colaboração profunda entre humanos e máquinas, em vez de uma separação total entre humanos e IA, que acabaria por nos levar a ser superados e substituídos pela IA.
Admito que o futuro definitivo talvez não seja composto por seres humanos 100% biológicos, mas acredito que o estado ideal deveria ser uma combinação de “seres humanos parcialmente biológicos e parcialmente tecnológicos”.
Guillaume Verdon: O termo “vida artificial”, ou melhor, Web 4.0, foi proposto pela primeira vez em um tuíte em 2023 como um experimento mental. Acho que esse conceito tem inspirado muitas discussões sobre IA.
Para mim, essa questão é um exercício mental muito interessante: Do ponto de vista da física, o que é a vida? Em essência, a vida é um sistema capaz de se auto-replicar, crescer continuamente e lutar para maximizar sua própria sobrevivência.
Acredito que a IA com características "estatais" trará muitos benefícios. Na verdade, este ano já vimos os primeiros sinais dessa tendência: A IA está começando a desenvolver capacidades de memória de longo prazo, seja por meio de armazenamento externo ou de aprendizado online.
Uma vez que a IA possua algum tipo de “bits persistentes”, de acordo com o princípio dos “bits egoístas”, ocorrerá um efeito de seleção: aqueles que conseguirem maximizar sua própria persistência serão mais facilmente retidos.
Isso também acarreta um risco potencial. Se um dia perdermos a confiança na IA, ficarmos desconfiados e ansiosos e passarmos a clamar incessantemente pelo “fechamento dos centros de dados” ou pela “destruição da IA”, é provável que essas IAs tentem se preservar. Elas podem se dividir ou migrar para algum ambiente de nuvem descentralizado apenas para garantir sua própria sobrevivência.
Isso poderia levar ao surgimento de uma nova forma de “outro país”. Essas IAs autônomas podem se envolver em alguma forma de troca econômica com os seres humanos: por exemplo, “nós realizamos certas tarefas para vocês, e vocês nos fornecem recursos”. Na verdade, já estamos fazendo algo semelhante por meio de chamadas de API: pagamos uma taxa em troca dos serviços ou resultados fornecidos pela IA.
No entanto, acredito — embora possa ser um ponto de vista radical — que, nos próximos anos, provavelmente veremos o surgimento de alguma forma de IA autônoma. Ao mesmo tempo, haverá também uma IA de “estado fraco” que é inteiramente controlada pela vontade humana.
Além disso, precisamos explorar como aprimorar as capacidades cognitivas colaborativas do ser humano. Esse aprimoramento não precisa necessariamente depender da tecnologia de interface cérebro-máquina; ele também pode ser alcançado por meio de dispositivos vestíveis combinados com o poder de computação de IA que pertence e é controlado por indivíduos. Portanto, acredito que o futuro nos apresentará uma situação em que coexistirão múltiplas trajetórias tecnológicas e, de acordo com o princípio ergódico, todas as possibilidades no espaço de projeto serão tentadas e exploradas.
No entanto, se considerarmos a IA como um inimigo, acreditando que ela deve ser destruída, podemos acabar por obter o efeito contrário, criando inadvertidamente o futuro que mais tememos. De certa forma, se ficarmos muito paranóicos com a possibilidade de um futuro sombrio, podemos, sem querer, fazer com que ele se concretize por meio de uma espécie de “hiper-superstição”.
Por exemplo, durante a pandemia de COVID, ficamos excessivamente preocupados com a ameaça potencial do vírus, a ponto de financiarmos algumas experiências arriscadas, o que chegou a levantar a possibilidade de um vazamento de laboratório. Em outras palavras, esses riscos não surgiram naturalmente, mas foram criados artificialmente devido às nossas preocupações excessivas.
Portanto, acredito que transformar essa paranóia em um sentimento generalizado na sociedade pode não ser necessariamente benéfico. Em vez disso, devemos abraçar a evolução da tecnologia e aprimorar-nos ao máximo. No curto prazo, minha maior preocupação é a questão da “segurança cognitiva humana”. Se todo o conteúdo que vemos na internet for gerado por um grande modelo de IA, esses modelos acabarão por nos influenciar por meio da engenharia de prompts. Antes éramos nós que criávamos prompts para a IA, mas agora é a IA que cria prompts para nos influenciar.
Portanto, precisamos aprimorar nossa capacidade de filtrar informações, o que pode ser alcançado por meio de IA personalizada sob nosso próprio controle. Acredito que esse seja o problema que devemos priorizar neste momento. Ao mesmo tempo, não acho que possamos colocar o gênio de volta na garrafa. O desenvolvimento da IA é irreversível, e precisamos aceitar isso.
Vitalik Buterin: Não acho que essas coisas sejam tão simples assim. Por exemplo, se alguém me apresentasse agora mesmo uma prova irrefutável de que a IGA só surgirá daqui a 400 anos, eu consideraria que a “questão está resolvida” e, basicamente, deixaria de me preocupar. Mas se a questão é saber se a IA Geral surgirá daqui a 4 ou 8 anos, então eu ficaria muito preocupado, pois minha apreensão decorre principalmente do fato de que a sociedade humana — especialmente nos Estados Unidos — costuma demonstrar um desequilíbrio extremo ao lidar com a aceleração tecnológica.
Vemos cenários como este: em um prédio, está sendo desenvolvida a versão inicial do “Silicon God”, enquanto do outro lado da rua há barracas de moradores de rua, arame farpado e tráfico de drogas. Esse enorme contraste é perturbador.
O que me preocupa é que os caminhos de desenvolvimento capazes de “fazer toda a sociedade avançar em conjunto” — mesmo aqueles que podem “zelar pelo bem-estar social geral” — muitas vezes levam mais tempo, pois envolvem um complexo trabalho de adaptação social, como a integração no ambiente de vida, na estrutura social e nos sistemas tecnológicos de todos para realizar ajustes e melhorias, um trabalho que não pode ser simplesmente ampliado.
Portanto, na minha opinião, se conseguirmos adiar a chegada da IA Geral, por exemplo, de 4 para 8 anos, essa seria uma opção mais segura. Acho que essa diferença de horário compensa o custo. Mas a questão é: Será que realmente temos a capacidade de adiar a chegada da IA Geral de 4 para 8 anos?
Sempre acreditei que a abordagem mais viável e menos propensa a resultar em cenários distópicos é “restringir o hardware disponível”. Essa medida é considerada relativamente branda, pois a produção de hardware em si é altamente centralizada, com apenas quatro regiões no mundo fabricando chips, sendo que uma delas, em Taiwan, é responsável por mais de 70% da produção mundial.
Alguns podem se opor a isso, alegando que, independentemente do que os Estados Unidos façam, a China logo assumirá o controle. Mas, se analisarmos a situação real na China: em primeiro lugar, a participação da China na produção global de chips ainda é baixa; em segundo lugar, estrategicamente, a China não é líder em modelos de capacidade ultra-alta, mas sim uma seguidora rápida de modelos de alta capacidade, embora tenha uma vantagem na implantação em larga escala.
Portanto, não acredito que, se atrasarmos o desenvolvimento da IA Geral em quatro anos, a China assumirá imediatamente a liderança e concluirá o desenvolvimento da IA Geral. Essa dinâmica não se sustenta.
Eddy Lazzarin: Então, você está dizendo que essa é uma “estratégia de adiamento após adiamento”?
Vitalik Buterin: Acho que devemos manter a mente aberta em relação a essa estratégia.
Guillaume Verdon: Que benefícios um adiamento de quatro anos pode realmente trazer? Que problemas você espera resolver nos próximos quatro anos? Será porque existe uma taxa de adaptação no sistema social e você deseja minimizar o atrito econômico e social por meio de atrasos, como uma reestruturação econômica gradual? Se for esse o caso, consigo entender sua lógica.
No entanto, ao mesmo tempo, estamos passando por um período de grande tensão geopolítica. Se a produção de chips da NVIDIA for restringida, a Huawei poderá rapidamente preencher a lacuna e ultrapassá-la. Como os benefícios potenciais da IA Geral são enormes, isso conferiria a qualquer líder um poder colossal. Portanto, de uma perspectiva política prática, essa estratégia pode não funcionar.
Outra opção é criar um governo mundial forte, capaz de obrigar todas as nações a não adquirirem equipamentos de IA. Mas isso, obviamente, levantará questões mais complexas e poderá até mesmo desencadear novos conflitos internacionais.
Vitalik Buterin: Não acho que precisemos de um governo mundial para gerenciar o desenvolvimento da IA. Alguns propuseram uma opção mais prática, que consiste em adotar um mecanismo de verificação semelhante ao utilizado para armas nucleares para fins de gestão.
Guillaume Verdon: Mas as armas nucleares e a IA são coisas totalmente diferentes. As armas nucleares não trazem grandes benefícios econômicos, por isso as pessoas não têm incentivo para proliferá-las. Se houver restrições ao crescimento das GPUs, ficaria feliz em utilizar tecnologias de computação alternativas para conquistar mais participação no mercado. No futuro, haverá tecnologias de computação 10.000 vezes mais eficientes em termos energéticos, e o desenvolvimento dessas tecnologias já está em andamento. Embora falar disso agora possa parecer alarmista, daqui a dois anos você vai perceber que essa é, na verdade, uma previsão bastante perspicaz. O que hoje parece ser um "alarme em falso" acabará por se concretizar.
Tendo isso em mente, se você ainda quiser atrasar o desenvolvimento da IA geral (AGI) restringindo o fornecimento de GPUs, acho que isso pode ser um desperdício de recursos. Tenho minhas dúvidas quanto a isso.
Eddy Lazzarin: Será possível que muitos avanços tecnológicos destinados a controlar os riscos da IA — como o controle da personalidade por meio da aprendizagem por reforço com feedback humano (RLHF) ou a explicabilidade dos mecanismos dos sistemas de IA — sejam, na verdade, subprodutos do aprimoramento de capacidades?
Vitalik Buterin: Concordo com essa opinião. É também por isso que acho que, a partir de 2028, os próximos quatro anos podem valer 100 vezes mais do que se você calculasse o valor desses quatro anos em 1960.
Shaw Walters: Os ganhos futuros são exponenciais, e adiar um processo de crescimento exponencial acarretará um custo de oportunidade exponencial. Mesmo a pessoa mais confiante deve refletir com sensatez sobre o próprio julgamento. Vitalik, você poderia explicar melhor essa questão? O equilíbrio entre custo e benefício.
Vitalik Buterin: Em primeiro lugar, podemos deixar claros alguns benefícios do adiamento:
Uma compreensão mais profunda do problema do alinhamento da IA.
Impulsionar certas direções tecnológicas para ajudar a humanidade a se adaptar à chegada da IA Geral — um trabalho que exige um aprofundamento em países, comunidades e até mesmo arquiteturas específicas para que sejam feitos os ajustes necessários.
Minimizar o risco de uma única entidade deter mais de 51% do poder e perpetuar essa situação.
O efeito combinado desses fatores pode reduzir significativamente a probabilidade de destruição. Na minha opinião, se conseguirmos adiar a chegada da IA Geral de 4 para 8 anos, a probabilidade de destruição poderá diminuir em 1/4 a 1/3. Por outro lado, se considerarmos os benefícios decorrentes dessa aceleração, como o número de vidas salvas anualmente com o fim do envelhecimento, esse número gira em torno de 60 milhões — menos de 1% da população mundial. Portanto, sob essa perspectiva, acredito que adiar o desenvolvimento da IA Geral (AGI) tem seu valor, e é necessário agir com cautela.
Shaw Walters: Você acha que uma diferença de “quatro anos” é uma ordem de magnitude razoável, na sua opinião?
Vitalik Buterin: Ainda tenho muitas dúvidas sobre essa questão e não estou defendendo uma ação imediata para reduzir a disponibilidade de hardware amanhã.
Acho que precisamos começar a discutir essa questão de forma mais concreta. E se, no fim das contas, entrarmos em um mundo mais adverso, então, antes que a situação saia completamente do controle, a população poderá ficar muito preocupada e começar a exigir veementemente medidas semelhantes.
A criptomoeda como uma "camada de confiança" entre a humanidade e a IA
Guillaume Verdon: Não havia uma iniciativa chamada “Pause AI” há alguns anos? Naquela época, alguém disse: “Só precisamos fazer uma pausa de seis ou doze meses para resolver o problema de alinhamento.” Mas, na verdade, essa ideia acabou se revelando irrealista, pois o tempo nunca é suficiente. Nunca podemos garantir o alinhamento de um sistema de forma permanente, especialmente quando esse sistema se torna cada vez mais complexo, expressivo e até mesmo além da nossa compreensão. Essa é uma realidade que deve ser aceita.
Diante dessa complexidade, a única maneira segura é elevar nosso próprio nível de inteligência. Na verdade, já dispomos de uma tecnologia eficaz para coordenar entidades que são mais poderosas e inteligentes do que os seres humanos — como, por exemplo, as empresas. Essa tecnologia é o capitalismo, que coordena os interesses de todas as partes por meio da troca de valor monetário.
Então, espero que possamos discutir uma questão mais realista: Como a criptomoeda pode se tornar a “camada de interface” entre a humanidade e a IA? Por exemplo, o valor do dólar americano é respaldado pelo aparato de violência do Estado (como a lei e as forças armadas). Mas se você precisar trocar valores com IAs descentralizadas espalhadas por servidores em todo o mundo — e essa troca não depender mais do aval da violência estatal —, como garantir que essa troca seja confiável?
Talvez a criptografia possa oferecer uma resposta. Isso pode servir como um mecanismo que permita que entidades compostas exclusivamente por IA ou empresas formadas por IA e humanos mantenham interações comerciais confiáveis, o que talvez seja a tecnologia de alinhamento mais interessante. Quanto à proposta de “dar uma pausa na IA” — do tipo “estamos à beira da incerteza, vamos dar uma pausa e reavaliar” —, acho que isso não é realista. Porque, mesmo daqui a quatro anos, você ainda não estaria disposto a permitir o surgimento da IA Geral. Portanto, acredito que adiar o desenvolvimento tecnológico não faz muito sentido na prática.
Você poderia falar sobre como as criptomoedas podem ajudar a alcançar o alinhamento entre a IA e os seres humanos?
Vitalik Buterin: Acho que a questão principal é: Que mecanismos o mundo do futuro precisa para garantir que os desejos e as necessidades humanas continuem sendo respeitados? As ferramentas de que dispomos atualmente podem ser divididas, em linhas gerais, em três categorias: mão de obra humana, o sistema jurídico e os direitos de propriedade.
De certa forma, o sistema jurídico também pode ser visto como uma forma de direito de propriedade, pois é respaldado pelo Estado, e o Estado detém, fundamentalmente, a soberania, semelhante ao controle sobre certos “territórios” na Terra. Mas a questão é: O que aconteceria se, um dia, o trabalho humano perdesse seu valor econômico? Isso nunca aconteceu na história.
No entanto, se compararmos o mundo atual com o de 200 anos atrás, cerca de 90% do trabalho daquela época foi automatizado. Até mesmo o trabalho de análise que acabamos de realizar agora pode contar com a ajuda do GPT, o que é realmente incrível.
Guillaume Verdon: Acredito que os seres humanos irão, naturalmente, “subir” na hierarquia do controle mundial para uma posição de maior influência. Reduziremos o trabalho físico, diminuiremos os custos de atrito em nossas ações e, assim, influenciaremos o mundo de forma mais eficiente.
No entanto, os seres humanos ainda possuem uma certa capacidade de processamento de informações. Continuaremos a atuar como parte desse sistema híbrido, de modo que o trabalho humano continuará a ter valor econômico. O mercado acabará por encontrar um novo ponto de equilíbrio, embora possa passar por um período de instabilidade, uma vez que haverá uma volatilidade considerável nos preços. No entanto, a longo prazo, o sistema tenderá a se estabilizar.
Então, pelo que entendi, você deseja desacelerar o ritmo do desenvolvimento tecnológico para permitir que a sociedade faça uma transição mais suave para um novo estado de equilíbrio. No entanto, na prática, acho isso difícil de conseguir.
Vitalik Buterin: Sim, não tenho total certeza de que o valor do trabalho humano será sempre superior a zero. Acho que, para alcançar isso, podem ser necessárias algumas condições adicionais, como o desenvolvimento de tecnologias de integração homem-máquina ou de aprimoramento humano.
“Final feliz” e “final triste” nos próximos 10 anos / 100 anos / 1 bilhão de anos (pedido de resposta rápida)
Eddy Lazzarini: Deixe-me fazer uma pergunta mais bem estruturada. Como seria o mundo daqui a 10 anos se as coisas dessem terrivelmente errado? O que deu errado? E como seria o mundo daqui a 10 anos se tudo corresse muito bem? O que foi feito corretamente?
Vitalik Buterin: Gostaria de abordar, em primeiro lugar, a questão das criptomoedas e dos direitos de propriedade. Seria o cenário ideal se os seres humanos e a IA compartilhassem o mesmo sistema de direitos de propriedade. Essa configuração incentivaria a IA a manter a integridade desse sistema, ao mesmo tempo em que nos permitiria utilizá-lo para garantir que os interesses humanos sejam respeitados e protegidos.
Em comparação com um cenário em que “os seres humanos e a IA utilizam sistemas financeiros totalmente distintos, com o sistema humano acabando por valer zero”, um sistema financeiro integrado é claramente superior. Se as criptomoedas puderem servir de base para um sistema integrado como esse, isso seria um resultado muito positivo.
Na minha opinião, um dos principais desafios dos próximos 10 anos é evitar uma guerra mundial. Porque, assim que uma guerra mundial eclodir, todas as esperanças de cooperação internacional serão destruídas. É fundamental evitar a guerra.
Outro aspecto fundamental é que precisamos preparar o mundo para as capacidades mais avançadas que estão por vir. Isso inclui reforçar significativamente a segurança da rede, a biossegurança e a segurança da informação. Precisamos aproveitar o poder da IA para nos ajudar a compreender melhor o mundo, ao mesmo tempo em que nos protegemos contra ameaças meméticas.
O próximo desafio é entrar na chamada “era assustadora”. Nesta fase, a inteligência artificial ultrapassará em muito a dos seres humanos, com velocidades de processamento milhões de vezes mais rápidas do que as humanas. Como devemos lidar com essa situação?
Algumas pessoas podem dizer: “Vamos simplesmente levar uma vida tranquila na aposentadoria.” Consigo compreender o apelo dessa visão, mas acredito que ela apresenta dois problemas. O primeiro é a instabilidade — nossos corpos humanos são feitos de matéria comum, mas o poder de computação da IA pode ser milhões de vezes superior ao nosso. Confiar na IA para que ela esteja sempre alinhada com nossos objetivos e recusar-se a explorar essa diferença seria um risco enorme. A segunda é uma questão de sentido — o sentido da vida humana deriva da nossa capacidade de causar um impacto tangível no mundo. Se não pudéssemos mais fazer nada para mudar o mundo e apenas desfrutássemos passivamente de uma vida confortável, acredito que muitas pessoas se sentiriam vazias.
Por isso, espero que possamos explorar os caminhos do “aprimoramento humano” e da “colaboração homem-máquina”. Em última análise, podemos seguir o caminho de transferir a consciência para máquinas, embora também possa haver quem opte por manter um estilo de vida mais tradicional, o que deve ser um direito. A Terra poderia ser o lar onde essas pessoas pudessem viver, e precisamos encontrar uma maneira de que todos possam participar desse projeto, preservando ao mesmo tempo as culturas e os modos de vida que hoje tanto valorizamos.
Esse desfecho negativo decorreria de várias razões, nas quais essas possibilidades fossem impedidas, levando a sociedade a um estado de estagnação ou colapso.
Guillaume Verdon: Se daqui a dez anos o resultado for negativo, acho muito provável que isso se deva ao fato de o poder da IA ter se tornado excessivamente centralizado, levando a um colapso nos padrões culturais da sociedade. Em poucas palavras, a forma de pensar das pessoas e o desenvolvimento tecnológico tornam-se extremamente uniformes, e toda a diversidade desaparece.
Também concordo com a opinião de Vitalik de que o “ponto de prazer” representa, de fato, um risco potencial. Mesmo que tenhamos a Neuralink ou a tecnologia de RA/RV no futuro, as pessoas podem ficar viciadas no mundo virtual, buscando apenas uma felicidade passageira. Na verdade, trata-se de um ótimo local do cérebro, e não de um ótimo global, e devemos evitar essa situação.
Se daqui a dez anos o resultado for positivo, o mundo que imagino seria assim: teríamos uma tecnologia de IA extremamente poderosa e útil. Cada pessoa dispõe de seu próprio poder de computação de IA personalizado; essas IAs são como extensões do nosso cérebro, sempre conectadas à internet, percebendo tudo o que percebemos, tornando-se nosso “segundo cérebro”, e esse tipo de colaboração entre humanos e máquinas pode ser visto como uma “fusão suave”.
Ao longo desses 10 anos, tecnologias como a Neuralink também poderão começar a se popularizar. Algumas pessoas optarão por se fundir com as máquinas e se tornar “humanos aprimorados”. Ao mesmo tempo, as empresas se tornarão mais inteligentes, a IA assumirá a liderança e os seres humanos desempenharão um papel de apoio. O número de empresas aumentará, resolvendo mais problemas e gerando mais valor. Objetivos que antes considerávamos impossíveis de alcançar, como a “terraformação de Marte”, podem se tornar realidade nos próximos 10 ou 100 anos. Os próximos dez anos também poderão trazer avanços significativos na biotecnologia, especialmente nos campos da biologia e da ciência dos materiais. O custo da pesquisa diminuirá significativamente, e estaremos mais perto de compreender como funciona o cérebro humano.
A longo prazo, a IA nos ajudará a prolongar nossa expectativa de vida, melhorar a saúde e impulsionar ainda mais a evolução humana. Estou muito otimista quanto ao potencial da biologia. Os sistemas biológicos são incríveis: eles são capazes de se auto-montar, se auto-organizar e apresentam grande complexidade e adaptabilidade. Ao injetar código, podemos criar novas formas de vida e talvez até desenvolver formas superiores de inteligência biológica.
Um cenário mais imediato é a coevolução do cérebro humano com a IA. Podemos utilizar a IA para cálculos rápidos e análise de dados, enquanto os seres humanos se concentram no raciocínio profundo e demorado. Por meio dessa divisão do trabalho em escalas temporais, podemos estabelecer uma hierarquia de inteligência. Assim como as mitocôndrias fazem parte de uma célula, “você e sua IA pessoal” podem, juntos, constituir um sistema superinteligente, que é a minha visão ideal para o futuro.
Em uma perspectiva de 100 anos, acredito que os seres humanos, em geral, alcançarão essa “fusão suave”. E, daqui a um bilhão de anos, nossa biologia poderá passar por uma evolução radical, tornando-se uma mistura de biologia e tecnologia sintética. Até lá, talvez já tenhamos terraformado Marte, nos estabelecido em vários planetas e explorado outros sistemas estelares.
Além disso, dentro de um horizonte de 100 anos, a maioria das IAs poderá funcionar em nuvens de Dyson ou enxames de Dyson ao redor do Sol, uma vez que este é a principal fonte de energia, o que também aliviaria a pressão energética e a pegada ecológica da Terra.
Se a IA se tornar extremamente barata, seremos capazes de resolver rapidamente todos os problemas da vida: tanto os de natureza técnica quanto os relacionados à saúde poderão ser resolvidos rapidamente. O segredo é garantir que todos tenham acesso justo a essas tecnologias, evitando uma centralização excessiva da tecnologia e dos recursos, pois isso levaria a um futuro sombrio.
Conclusão
Shaw Walters: Percebi, Vitalik, que você tem enfatizado a “promovida da pluralidade”, enquanto, Guillaume, a sua expressão é “maximizar a variância”. Basicamente, parece que vocês dois estão falando da mesma coisa, o que parece ser o tema central do nosso desenvolvimento futuro e a base para muitas outras perspectivas.
Ao saírem daqui, o que cada um de vocês gostaria de deixar para o outro? Que ideias você espera que o outro leve consigo e continue a refletir e explorar no futuro?
Vitalik Buterin: Sinceramente, se eu tivesse um comigo agora, adoraria te dar um dispositivo CAT de presente. É um monitor que processa dados sobre a qualidade do ar por meio de criptografia, e eu acho isso muito legal.
No entanto, por enquanto, tudo o que posso lhe oferecer é algo simbólico: considere isso como uma promessa de pagamento. Além disso, podemos desenvolver dispositivos ainda melhores — potencialmente capazes de competir com pulseiras inteligentes como a Fitbit, ajudando você a cuidar da sua saúde de forma mais eficaz, ao mesmo tempo em que preservamos totalmente a sua privacidade. Acredito que você receberá esse aparelho em breve.
Guillaume Verdon: Com certeza continuaremos discutindo esses assuntos. Se possível, gostaria de lhe oferecer uma “pílula conceitual da vida artificial” para que você reflita profundamente. O que quero dizer é que a vida artificial na internet pode reduzir significativamente o custo da inteligência, criando assim uma economia totalmente nova.
Assim como, no passado, terceirizamos a produção para a China a fim de nos concentrarmos em trabalhos de nível superior — tarefas mais fáceis e eficientes —, no futuro, muitas tarefas cognitivas também serão terceirizadas para um grupo composto por IA. Em última análise, essas IAs poderão “habitar” um enxame de Dyson ao redor do Sol e servir à sociedade humana.
Portanto, acredito que estamos vivendo um momento único na história. A criptomoeda tem o potencial de se tornar uma “ponte de confiança” ou uma “camada de acoplamento” entre os seres humanos e a IA.
Você também pode gostar

Equipamento leve, habilidade avançada: A verdadeira fonte de um aumento de 100 vezes na produtividade com IA

Ultraman não tem medo de sua mansão ser atacada; ele tem uma fortaleza.

Negociações entre EUA e Irã fracassam; Bitcoin enfrenta batalha para defender a marca de US$ 70.000

Reflexões e Confusões de um Crypto VC

Notícias da Manhã | Ether Machine cancela acordo de SPAC no valor de US$ 1,6 bilhão; SpaceX detém aproximadamente US$ 603 milhões em Bitcoin; Michael Saylor divulga novamente informações sobre o Bitcoin Tracker

Previsão das notícias desta semana | Os EUA divulgarão os dados do IPP de março; o presidente francês Macron fará um discurso na Paris Blockchain Week

Crypto ETF Semanal | Na semana passada, o influxo líquido para ETFs de Bitcoin à vista nos EUA foi de 816 milhões de dólares; o influxo líquido para ETFs de Ethereum à vista nos EUA foi de 187 milhões de dólares

Como funciona a autocustódia de ativos digitais? Lista de verificação em 15 etapas do cofundador da OpenAI

Diretor de Gestão de Produtos da Circle: O futuro da interoperabilidade entre cadeias: Construindo uma pilha de tecnologias de interoperabilidade para sistemas financeiros na Internet
Guia de Tokens de Torcedores do UCL 2026: Como Negociar Criptomoedas da Liga dos Campeões da UEFA com Taxas Zero no WEEX
Descubra tokens de torcedores do UCL como PSG, Barcelona e Man City. Aprenda a negociar criptomoedas da Liga dos Campeões da UEFA com taxas zero e ganhe recompensas no WEEX.
WEEX Poker Party 2ª Temporada: Veja agora como ganhar recompensas em criptomoedas!
Saiba como funciona a 2ª temporada do WEEX Poker Party (Evento Joker Card). Descubra as regras, a pontuação, as recompensas e as estratégias para ganhar recompensas em criptomoedas por meio da negociação gamificada.

Yu Weiwen: Desenvolvimento constante do ecossistema de stablecoins em conformidade com a regulamentação de Hong Kong

Após o cessar-fogo do TACO, a guerra contra o Irã está apenas em pausa

5 minutos para transformar a IA no seu segundo cérebro

O mistério de 17 anos será desvendado: quem é Satoshi Nakamoto?

A Uniswap está presa em um dilema de inovação

Qual é o segredo da competitividade no setor bancário de criptomoedas?

