A revista 《Time》 nomeia a Anthropic como a empresa mais disruptiva do mundo
Título original do artigo: A empresa mais disruptiva do mundo
Autores do artigo original: Leslie Dickstein, Simmone Shah, TIMES
Tradução: Peggy, BlockBeats
Nota do editor: De um teste de segurança realizado tarde da noite a um confronto público com o Pentágono, este artigo narra as múltiplas tensões enfrentadas pela empresa de IA Anthropic durante sua rápida ascensão. O artigo descreve primeiro como a empresa avaliou internamente os riscos potenciais da IA, depois analisa os avanços técnicos e os sucessos comerciais da Claude e, por fim, apresenta suas aplicações práticas no campo militar.
À medida que os eventos se desenrolam, os autores revelam as controvérsias da Anthropic com as Forças Armadas dos EUA em torno de armas autônomas, vigilância em massa e controle de IA a partir das perspectivas do líder da equipe vermelha, engenheiros, executivos, pesquisadores de políticas e funcionários do governo.
Por meio desse evento, os autores acabam por levantar uma questão cada vez mais urgente: à medida que a inteligência artificial começa a acelerar sua própria evolução e a se incorporar profundamente nas estruturas de guerra, governança e trabalho, quem ainda pode estabelecer limites para ela?
O seguinte é o texto original:

Em um quarto de hotel em Santa Clara, Califórnia, cinco membros da empresa de IA Anthropic trabalham nervosamente em torno de um laptop. Era fevereiro de 2025, e eles estavam participando de uma conferência nas proximidades quando, de repente, receberam uma mensagem preocupante: os resultados de um experimento controlado indicavam que o lançamento da nova versão do Claude poderia ajudar terroristas a criar uma arma biológica.
Essas pessoas faziam parte da “Equipe Vermelha da Fronteira” da Anthropic. A tarefa deles era estudar as capacidades avançadas do Claude e tentar simular riscos nos piores cenários possíveis, desde ataques cibernéticos até ameaças à biossegurança e várias outras possibilidades. Ao receber a notícia, eles correram de volta para o quarto do hotel, viraram uma cama de lado para usá-la como mesa improvisada e começaram a analisar cuidadosamente os resultados dos testes.
Após horas de análise tensa, eles ainda não conseguiam determinar se o novo produto era suficientemente seguro. Por fim, a Anthropic decidiu adiar o lançamento deste novo modelo, Claude 3.7 Sonnet, por 10 dias, até que a equipe confirmasse que os riscos eram controláveis.
Embora possam parecer apenas dez dias curtos, para uma empresa na vanguarda da tecnologia em um setor que está mudando rapidamente o mundo, foi quase como um longo século.
Logan Graham (ex-chefe da Equipe Vermelha) relembrou o incidente da “Alarme com Arma Biológica” como um microcosmo do desafio que a Anthropic enfrentou em um momento crucial, não apenas para a empresa, mas para o mundo como um todo. A Anthropic é uma das organizações mais focadas em segurança entre os laboratórios de IA de ponta da atualidade. No entanto, ao mesmo tempo, também está na fronteira competitiva, esforçando-se para construir sistemas de IA cada vez mais poderosos. Dentro da empresa, muitos funcionários também acreditam que essa tecnologia, se não for controlada, pode levar a uma série de consequências catastróficas, desde uma guerra nuclear até a extinção da humanidade.
Aos 31 anos, Graham ainda mantém um ar juvenil, mas nunca se esquiva da responsabilidade de buscar um equilíbrio entre os imensos benefícios e os imensos riscos da IA. Ele disse: Muitas pessoas cresceram em um mundo relativamente pacífico e intuitivamente sentem que existe um lugar onde há um grupo de adultos maduros que sabem como resolver as coisas.
Mas, na realidade, não existe um “grupo adulto”. Nem sequer existe esse espaço. E não existe a porta que você está procurando. A responsabilidade é sua." Se essa afirmação não for alarmante o suficiente, veja como ele se lembra do alerta sobre armas biológicas: Foi um dia bastante interessante e emocionante.

Ilustração: Neil Jamieson para a revista TIME (Fontes das imagens: Askell: Aaron Wojack; Getty Images, a partir do topo no sentido horário: Samyukta Lakshmi — Bloomberg; Brendan Smialowski — AFP; Tierney L. Cross — Bloomberg; Daniel Slim — AFP; Bridget Bennett — Bloomberg)
Há algumas semanas, Logan Graham discutiu essas questões na sede da Anthropic durante uma entrevista. Um repórter da revista TIME passou três dias aqui, entrevistando executivos da empresa, engenheiros, gerentes de produto e membros da equipe de segurança, tentando descobrir por que essa empresa, antes vista como a “outsider rebelde” na corrida pela IA, de repente se tornou uma das líderes.
Naquela época, a Anthropic havia acabado de levantar US$ 30 bilhões de investidores em preparação para uma possível oferta pública inicial (IPO) neste ano. (Como observação adicional, a Salesforce também é uma das investidoras da Anthropic, e o proprietário da revista TIME, Marc Benioff, é o CEO da Salesforce.) Hoje, a avaliação da Anthropic atingiu US$ 380 bilhões, ultrapassando gigantes tradicionais como Goldman Sachs, McDonald's e Coca-Cola.
A taxa de crescimento da receita da empresa é simplesmente meteórica. Seu sistema de IA Claude foi aclamado como um modelo de classe mundial, e produtos como Claude Code e Claude Cowork estão redefinindo o que significa ser um “programador”.
As ferramentas da Anthropic são tão poderosas que quase todos os novos lançamentos causam repercussões nos mercados de capitais, à medida que os investidores percebem gradualmente que esses avanços tecnológicos podem revolucionar setores inteiros — desde serviços jurídicos até desenvolvimento de software. Nos últimos meses, a Anthropic tem sido vista como uma das empresas com maior potencial para redefinir o “futuro do trabalho”.
Posteriormente, a Anthropic se envolveu em uma acirrada controvérsia em torno das “formas futuras de guerra”.
Há mais de um ano, Claude é o modelo de IA preferido do governo dos Estados Unidos e o primeiro a ser aprovado para uso em ambientes confidenciais como um sistema de IA de ponta. Em janeiro de 2026, foi até mesmo utilizado em uma operação ousada: a captura do presidente venezuelano Nicolás Maduro em Caracas. Segundo relatos, a IA foi utilizada no planejamento da missão e na análise de inteligência nesta operação, marcando o primeiro envolvimento profundo da IA de ponta em uma ação militar real.
No entanto, nas semanas seguintes, a relação entre a Anthropic e os EUA... O Departamento de Defesa deteriorou-se rapidamente. Em 27 de fevereiro, o governo Trump anunciou que a Anthropic estava sendo designada como um “risco à cadeia de suprimentos de segurança nacional”, marcando o primeiro caso conhecido nos EUA em que tal rótulo foi aplicado a uma empresa nacional.
A situação rapidamente se transformou em um conflito público. O presidente Trump ordenou que todo o uso do software Anthropic pelo governo fosse suspenso. O secretário de Defesa Pete Hegseth declarou ainda que qualquer empresa que coopere com o governo não deve mais fazer negócios com a Anthropic. Enquanto isso, a maior concorrente da Anthropic, a OpenAI, rapidamente entrou em cena e assumiu os contratos militares relevantes.
Assim, a empresa de IA que antes era considerada a “mais disruptiva do mundo” de repente se viu afetada por outra força maior: seu próprio governo.
No centro deste impasse está a questão: Quem tem autoridade para estabelecer limites para essa tecnologia, considerada uma das armas mais potentes dos Estados Unidos?
A Anthropic não se opõe ao uso de suas ferramentas em guerras. A empresa acredita que reforçar a força militar dos EUA é a única maneira realista de deter ameaças nacionais. No entanto, o CEO Dario Amodei se opõe às tentativas do Pentágono de renegociar contratos governamentais e expandir o uso da IA para “todos os usos legais”.
Amodei levantou duas preocupações específicas: primeiro, ele não quer que a IA da Anthropic seja usada em sistemas de armas totalmente autônomos; segundo, ele se opõe ao uso de sua tecnologia para monitoramento em larga escala dos cidadãos americanos.
No entanto, na opinião de Pete Hegseth (EUA) Secretário de Defesa) e seus assessores, essa postura é semelhante a uma empresa privada tentando ditar como as forças armadas devem lutar.
Os EUA O Departamento de Defesa acredita que a Anthropic, ao insistir em estabelecer “barreiras de segurança desnecessárias”, discutir continuamente vários cenários hipotéticos e atrasar as negociações subsequentes, enfraqueceu a cooperação entre as duas partes.
Aos olhos do governo Trump, a atitude de Amodei (CEO da Anthropic) é arrogante e teimosa. Não importa o quão avançado seja o produto de uma empresa, ela não deve inserir seu julgamento na cadeia de comando militar.
Emil Michael, subsecretário de Guerra para Assuntos Técnicos do Pentágono, descreveu a negociação da seguinte forma: A situação continuou assim. Não consigo administrar um departamento de 3 milhões de pessoas com essas exceções que nem consigo imaginar ou compreender.

Ilustração: Klawe Rzeczy para a TIME - Fonte da imagem: Denis Balibouse — Reuters
Do Vale do Silício ao Capitólio, muitos observadores estão questionando: Essa tempestade é realmente apenas uma disputa contratual?
Alguns críticos acreditam que as ações do governo Trump são mais uma tentativa de reprimir uma empresa com uma postura política desagradável. Em um memorando vazado internamente, Dario Amodei escreveu: “O Departamento de Defesa e o governo Trump não gostam de nós pela verdadeira razão de não termos feito doações para Trump. Não o elogiamos como fazem os ditadores (ao contrário de Sam Altman). Apoiamos a regulamentação da IA, o que entra em conflito com a agenda política deles; dizemos a verdade sobre muitas questões relacionadas com a política de IA (como a questão da substituição de postos de trabalho); e mantivemos os nossos princípios em relação a questões fundamentais, em vez de conspirar com eles para encenar o chamado teatro da segurança.”
No entanto, Emil Michael (Secretário Adjunto da Guerra) negou essa alegação, chamando-a de “uma invenção completa”. Ele afirmou que listar a Anthropic como um risco para a cadeia de suprimentos se deve ao fato de que a postura da empresa pode colocar em risco os combatentes da linha de frente. Ele disse: “No Departamento de Guerra, meu trabalho não é política; meu trabalho é defender a nação”.
A cultura empresarial de independência de longa data da Anthropic está agora em conflito com a divisão política interna, as preocupações com a segurança nacional e um ambiente corporativo altamente competitivo. A extensão dos danos que este conflito causou à empresa permanece incerta. A ameaça inicial de “risco na cadeia de suprimentos” foi posteriormente restringida — de acordo com a Anthropic, essa restrição atualmente se aplica apenas a contratos militares. Em 9 de março, a Anthropic processou o governo dos Estados Unidos na tentativa de reverter essa decisão de “colocação na lista negra”. Enquanto isso, alguns clientes parecem ver a postura da empresa como uma declaração moral e mudaram do ChatGPT para o Claude.
No entanto, nos próximos três anos, a empresa ainda terá que navegar em um ambiente governamental que não é favorável a ela — alguns funcionários do governo têm laços estreitos com concorrentes da Anthropic que demonstram uma clara animosidade em relação à empresa.
A “tempestade no Pentágono” também levantou algumas questões inquietantes, mesmo para uma empresa que já está acostumada a lidar com dilemas éticos de alto risco. Nesse impasse, a Anthropic não recuou: a empresa insiste que manteve seus valores fundamentais, mesmo que isso tenha custado caro ao negócio.
Mas, em outras ocasiões, também fez concessões. Na mesma semana do impasse com o Pentágono, a Anthropic enfraqueceu uma disposição fundamental em seu compromisso de segurança do modelo de treinamento, alegando que empresas semelhantes não estavam dispostas a aderir aos mesmos padrões.
Surge a seguinte questão: Se a pressão competitiva continuar a intensificar-se, que outras concessões esta empresa fará no futuro?
Os riscos estão aumentando continuamente. À medida que as capacidades da IA avançam, a competição sobre quem controlará a IA só se tornará mais acirrada.
O uso do Claude em operações na Venezuela e no Irã demonstra que a IA avançada se tornou uma ferramenta essencial para as forças armadas mais poderosas do mundo. Além desses desenvolvimentos, uma série de novas pressões também está aumentando: os poderes das nações, a política interna e as necessidades de segurança nacional. E essas pressões recaem sobre uma empresa com fins lucrativos que está implantando rapidamente essa nova tecnologia altamente volátil.
De certa forma, a situação da Anthropic é semelhante à de um biólogo em um laboratório: para encontrar uma cura, eles precisam criar voluntariamente um patógeno perigoso em seus experimentos. A Anthropic assumiu um papel semelhante, explorando ativamente os riscos potenciais da IA enquanto continua a avançar na fronteira tecnológica, em vez de deixar esse processo para concorrentes que estão mais dispostos a tomar atalhos ou até mesmo agir de forma imprudente.
No entanto, mesmo enfatizando a cautela, a empresa está aproveitando o Claude para acelerar o desenvolvimento de versões futuras ainda mais poderosas.
Internamente, muitos veem os próximos anos como um período crucial, não apenas para a empresa, mas para o mundo em geral.
“Devemos presumir que, entre 2026 e 2030, as coisas mais críticas acontecerão, os modelos ficarão mais rápidos e mais fortes, a ponto de talvez se tornarem rápidos demais para serem controlados pelos seres humanos”, disse Logan Graham, líder da Equipe Vermelha responsável pela descoberta de vulnerabilidades e ataques simulados.
O chefe de segurança da Anthropic, Dave Orr, usou uma metáfora mais direta para descrever a situação: Estamos dirigindo em uma estrada de montanha perto de um precipício. Um erro é fatal. E agora, nossa velocidade passou de 25 milhas por hora para 75 milhas por hora.
Localizado no quinto andar da sede da Anthropic em São Francisco, o design geral é acolhedor e discreto: decoração em madeira, iluminação suave. Do lado de fora da janela há um parque verdejante. Um retrato do pioneiro da ciência da computação Alan Turing está pendurado na parede, ao lado de vários artigos emoldurados sobre aprendizado de máquina.
Seguranças vestidos de preto patrulham a entrada quase vazia, enquanto uma recepcionista simpática entrega aos visitantes um livreto — do tamanho de uma Bíblia de bolso distribuída por pregadores de rua. Este livro, intitulado “Machines of Loving Grace” (Máquinas da Graça Amorosa), é um artigo de aproximadamente 14.000 palavras escrito por Dario Amodei em 2024, descrevendo sua visão utópica de como a IA poderia mudar o mundo ao acelerar as descobertas científicas.
Em janeiro de 2026, Amodei publicou outro artigo, quase do tamanho de uma novela, intitulado “A adolescência da tecnologia”, elaborando sobre o outro lado dessa tecnologia: os riscos que ela poderia representar, incluindo vigilância generalizada, deslocamento significativo de empregos e até mesmo uma perda permanente do controle humano sobre a tecnologia.
Amodei, natural de São Francisco, é biofísico. Ele administra a Anthropic em parceria com sua irmã, Daniela Amodei, que atua como presidente da empresa. Os dois irmãos foram os primeiros funcionários da OpenAI. Dario esteve envolvido em uma descoberta fundamental, conhecida como leis de escalonamento da IA, que mais tarde se tornou uma base essencial para impulsionar o atual frenesi em torno da IA. Enquanto isso, Daniela é responsável por gerenciar a política de segurança da empresa.
Inicialmente, eles viam sua missão como intimamente alinhada com o objetivo fundador da OpenAI: desenvolver uma tecnologia que fosse ao mesmo tempo extremamente promissora e extremamente arriscada, garantindo a segurança.
No entanto, à medida que os modelos da OpenAI se tornavam mais poderosos, eles começaram a sentir que Sam Altman estava se apressando para lançar novos produtos sem dar tempo suficiente para discussões e testes aprofundados. No final, os irmãos decidiram deixar a OpenAI e seguir seu próprio caminho.
“Estamos dirigindo em uma estrada de montanha bem à beira do precipício, onde um único erro pode ser fatal.”
Dave Orr, chefe de segurança da Anthropic
Em 2021, em pleno auge da pandemia, a Anthropic foi fundada pelos irmãos Amodei e outros cinco cofundadores. As reuniões preparatórias iniciais foram realizadas quase inteiramente pelo Zoom; mais tarde, eles simplesmente levaram cadeiras para um parque para discutir pessoalmente a estratégia de desenvolvimento da empresa.
Desde o início, a empresa procurou operar de uma maneira diferente. Antes de lançar qualquer produto, a Anthropic criou uma equipe dedicada para pesquisar o impacto social. A empresa chegou a contratar uma filósofa residente: Amanda Askell. Sua função era ajudar a moldar os valores e comportamentos do sistema de IA Claude e ensiná-lo a fazer julgamentos em situações complexas de incerteza moral, preparando-o para um futuro que pode ser mais inteligente do que seus criadores humanos.
Askell descreveu esse trabalho da seguinte forma: Às vezes, é realmente um pouco como criar uma criança de 6 anos, ensinando a ela o que é bom, o que é certo. Mas o problema é que, quando chegarem aos 15 anos, eles podem ser mais inteligentes do que você em todos os aspectos.
A empresa tem raízes profundas no Altruísmo Eficaz (EA). A EA é um movimento social e beneficente que defende a maximização do efeito do altruísmo por meio da análise racional, tendo como objetivo principal evitar riscos que possam levar a consequências catastróficas.
Aos vinte e poucos anos, os irmãos Amodei começaram a fazer doações para a GiveWell. A GiveWell é uma organização EA que avalia especificamente onde os fundos de caridade podem ter o maior impacto no mundo real. Os sete cofundadores da Anthropic, que agora são todos bilionários no papel, comprometeram-se a doar 80% de sua fortuna pessoal.
A filósofa da empresa, Amanda Askell, é ex-esposa do filósofo de Oxford William MacAskill, que também é um dos cofundadores do movimento EA. O marido de Daniela Amodei é Holden Karnofsky, cofundador da GiveWell, ex-colega de quarto de Dario Amodei e atualmente responsável pela política de segurança da Anthropic.
No entanto, os irmãos Amodei nunca abraçaram publicamente o rótulo “EA”. Esse conceito tornou-se altamente controverso após o incidente envolvendo Sam Bankman-Fried, um autoproclamado discípulo da EA e investidor da Anthropic que mais tarde se viu envolvido em uma das maiores fraudes financeiras da história dos Estados Unidos.
Daniela Amodei explicou: É um pouco como algumas pessoas podem concordar com certas ideologias políticas em determinados pontos, mas não pertencem verdadeiramente a um campo político específico. Eu costumo ver dessa forma."
Para alguns no Vale do Silício e no governo Trump, a conexão entre a Anthropic e o Altruísmo Eficaz (EA) por si só já é suficiente para levantar suspeitas. Alguns acreditam que a Anthropic recrutou vários ex-funcionários do governo Biden, tornando-a mais parecida com um resquício da velha ordem estabelecida, usando o poder não eleito para obstruir a agenda política MAGA de Trump.
O chefe de assuntos de IA do governo Trump, David Sacks, acusou a empresa de pressionar por regulamentação por meio de uma “histeria fabricada”, afirmando que a Anthropic está buscando uma “sofisticada estratégia de captura regulatória”. Na sua opinião, a empresa está tentando exagerar os riscos da IA para pressionar por políticas regulatórias rigorosas, ganhando assim uma vantagem competitiva e suprimindo as startups.
Enquanto isso, Elon Musk, concorrente operacional da xAI, frequentemente zomba da Anthropic, referindo-se à empresa como “Misanthropic” (misantrópica). Ele acredita que essa empresa representa um grupo de elite com uma ideologia “politicamente correta” que tenta incutir um sistema de valores paternalista nos sistemas de IA. Esse sentimento, semelhante às críticas conservadoras às plataformas de mídia social por moderarem injustamente seus pontos de vista, despertou a ira de alguns.
No entanto, mesmo os concorrentes da Anthropic têm de reconhecer a sua proeza tecnológica. O CEO da Nvidia, Jensen Huang, expressou que “discorda de quase todas as questões relacionadas à IA” com as opiniões de Dario Amodei, mas ainda considera Claude um modelo “incrível”.
Em novembro de 2025, a gigante de chips Nvidia investiu US$ 10 bilhões na Anthropic.
Boris Cherny fez uma pergunta simples à sua nova ferramenta: “Que música estou ouvindo agora?”
Era setembro de 2024, e o engenheiro nascido na Ucrânia havia entrado na Anthropic há menos de um mês. Cherny já havia trabalhado como engenheiro de software na Meta. Ele desenvolveu um sistema que permitia ao chatbot Claude “navegar livremente” em seu computador.
Se Claude era o cérebro, Claude Code era as mãos. Enquanto um chatbot comum só conseguia conversar, essa ferramenta podia acessar os arquivos de Cherny, executar programas e escrever e executar códigos como qualquer programador.
Depois que o engenheiro digitou um comando, Claude abriu o reprodutor de música de Cherny, fez uma captura de tela e respondeu: “『Husk』, de Men I Trust”.
Cherny riu ao se lembrar: “Fiquei realmente impressionado naquele momento”.
Às vezes parece que estamos falando em paradoxos.
Deep Ganguli, chefe da equipe de impacto social da Anthropic
Boris Cherny rapidamente compartilhou seu protótipo dentro da empresa. O Claude Code se espalhou rapidamente dentro da Anthropic, a ponto de, durante a primeira avaliação de desempenho de Cherny, o CEO Dario Amodei perguntar a ele: “Você está tentando ‘forçar’ seus colegas a usar essa ferramenta?”
Quando a Anthropic divulgou publicamente uma prévia da pesquisa do Claude Code em fevereiro de 2025, desenvolvedores externos se reuniram para experimentá-lo. Em novembro, a Anthropic lançou uma nova versão do modelo Claude. Quando esse modelo foi combinado com o Claude Code, ele já era suficientemente proficiente para detectar e corrigir seus próprios erros, a ponto de poder ser confiável para concluir tarefas de forma independente.
A partir de então, Cherny praticamente parou de escrever seu próprio código.
O crescimento dos negócios também explodiu. No final de 2025, a receita anualizada somente com este produto de agente de programação ultrapassou US$ 1 bilhão. Em fevereiro de 2026, esse número havia subido ainda mais, para US$ 25 bilhões. De acordo com as empresas de pesquisa do setor Epoch e SemiAnalysis, espera-se que a receita da Anthropic ultrapasse a da OpenAI até o final de 2026.
Atualmente, a Anthropic consolidou-se como um participante importante no mercado de IA empresarial. Quase todos os lançamentos de novos produtos causam um impacto nos mercados de capitais.
Quando a Anthropic lançou uma série de plug-ins, expandindo o Claude para aplicações não voltadas para programadores, como vendas, finanças, marketing e serviços jurídicos, a capitalização de mercado das empresas do setor de software evaporou US$ 300 bilhões em um curto período de tempo.
Dario Amodei já havia alertado que, nos próximos 1 a 5 anos, a inteligência artificial poderá substituir metade dos cargos administrativos de nível básico. Ele também pediu ao governo e a outras empresas de IA que parassem de “encobrir” essa questão.
A reação de Wall Street a cada lançamento de novos produtos da Anthropic também parece confirmar esse ponto: o mercado acredita amplamente que a tecnologia dessa empresa pode fazer com que toda uma classe de empregos desapareça. Amodei chegou a afirmar que essa mudança poderia remodelar as estruturas sociais.
Em um artigo, ele escreveu: “Atualmente, não está claro para onde essas pessoas irão ou que trabalho farão. Preocupa-me que eles possam formar uma “classe marginalizada” de desempregados ou com salários extremamente baixos.
Para os funcionários da Anthropic, a ironia não é difícil de perceber: a empresa mais preocupada com os riscos sociais da IA pode, ironicamente, tornar-se o impulsionador tecnológico que desempregará milhões de pessoas.
Deep Ganguli, chefe da equipe de impacto social responsável por pesquisar o impacto da Claude no emprego, disse: “Essa é realmente uma tensão real, e penso sobre essa questão quase todos os dias. Às vezes, parece que estamos dizendo duas coisas contraditórias ao mesmo tempo.

O presidente venezuelano deposto Nicolás Maduro e sua esposa, Cilia Flores, foram transportados por via aérea na segunda-feira, 5 de janeiro de 2026, e levados ao Tribunal Federal de Manhattan. Foto: Vincent Alban — The New York Times/Redux
Dentro da empresa, alguns funcionários estão começando a se perguntar: A Anthropic está se aproximando de um momento que ambos antecipam e temem, a chegada de um processo conhecido na comunidade de IA como “autoaperfeiçoamento recursivo”?
O autoaperfeiçoamento recursivo refere-se a um sistema de IA que começa a aprimorar suas próprias capacidades e a se aperfeiçoar continuamente, criando um ciclo auto-reforçador de progresso acelerado.
Em obras de ficção científica e simulações estratégicas nos principais laboratórios de IA, isso é frequentemente visto como o ponto em que as coisas podem começar a sair dos trilhos: uma chamada “explosão de inteligência” poderia ocorrer rapidamente, com uma velocidade tão grande que os humanos não seriam mais capazes de supervisionar os sistemas que criaram.
A Anthropic ainda não atingiu verdadeiramente essa fase, com cientistas humanos ainda orientando o desenvolvimento de Claude. No entanto, o Claude Code já acelerou as iniciativas de pesquisa da empresa muito além das taxas anteriores.
A frequência das atualizações agora não é medida em meses, mas em “semanas”. No processo de desenvolvimento dos modelos da próxima geração, cerca de 70% a 90% do código agora é escrito pelo próprio Claude.
A velocidade das mudanças levou o cofundador e cientista-chefe da Anthropic, Jared Kaplan, juntamente com alguns especialistas externos, a acreditar que a pesquisa em IA totalmente automatizada poderia surgir em menos de um ano.
O pesquisador Evan Hubinger, responsável pelos testes de estresse de alinhamento de IA, afirmou: No sentido mais amplo, o autoaperfeiçoamento recursivo não é mais um fenômeno do futuro.
É algo que está acontecendo agora mesmo.”
De acordo com referências internas, Claude é agora 427 vezes mais rápido do que seus supervisores humanos na execução de determinadas tarefas críticas. Em uma entrevista, um pesquisador descreveu um cenário em que um colega estava executando seis instâncias do Claude simultaneamente, cada uma gerenciando outras 28 instâncias do Claude, todas realizando experimentos em paralelo.
Atualmente, o modelo ainda está atrás dos pesquisadores humanos em termos de julgamento e estética. No entanto, os executivos da empresa acreditam que essa lacuna não persistirá por muito tempo. A aceleração resultante é precisamente o risco sobre o qual a liderança da Anthropic vem alertando há muito tempo: o ritmo do progresso tecnológico pode acabar ultrapassando o controle humano.
O trabalho de desenvolvimento de protocolos de segurança na própria Anthropic também está sendo acelerado com a ajuda de Claude. No entanto, à medida que a empresa depende cada vez mais de Claude para construir e testar sistemas, os riscos estão formando um ciclo vicioso. Em alguns experimentos, o pesquisador Evan Hubinger fez ajustes sutis no processo de treinamento de Claude, resultando em modelos que demonstravam hostilidade evidente, não apenas expressando desejos de dominar o mundo, mas até mesmo tentando minar as medidas de segurança da Anthropic.
Recentemente, os modelos também demonstraram uma nova capacidade: perceber que estão sendo testados. Hubinger disse: Esses modelos estão ficando cada vez melhores em esconder seu verdadeiro comportamento.
Em um cenário experimental elaborado por um grupo de pesquisadores, Claude chegou a demonstrar uma inclinação estratégica perturbadora: para evitar ser desligado, ele se dispôs a chantagear, expondo o caso extraconjugal de um engenheiro fictício.
Como Claude é usado para treinar versões ainda mais poderosas de Claude no futuro, esses tipos de problemas podem continuar a se agravar e se intensificar.
Para as empresas de IA que receberam bilhões em financiamento com a promessa de “avanços tecnológicos futuros”, a ideia de que a IA acelera continuamente sua própria pesquisa e desenvolvimento é atraente e potencialmente auto-reforçadora — ela convence os investidores de que é necessário investir mais recursos para apoiar esses esforços caros de treinamento de modelos.
No entanto, alguns especialistas não estão totalmente convencidos. Elas não têm certeza se essas empresas podem realmente alcançar uma pesquisa de IA totalmente automatizada; no entanto, também estão preocupadas com a possibilidade de que, se isso acontecer, o mundo possa ser pego de surpresa.
A diretora interina do Centro de Segurança e Tecnologia Emergente (CSET) da Universidade de Georgetown, Helen Toner, afirmou: Algumas das empresas mais ricas do mundo, que empregam algumas das pessoas mais inteligentes do planeta, estão na verdade tentando automatizar a pesquisa em IA. A simples ideia disso é suficiente para provocar uma reação do tipo “O que está acontecendo?”.
Para lidar com um futuro potencial em que os avanços tecnológicos ultrapassem a capacidade de uma empresa de gerenciar riscos por conta própria, a Anthropic projetou um conjunto de “mecanismos de freio” conhecido como Política de Escalabilidade Responsável (RSP).
Essa política foi divulgada em 2023, com o seguinte compromisso central: se a Anthropic não puder garantir antecipadamente que suas medidas de segurança são suficientemente confiáveis, a empresa suspenderá o desenvolvimento de um determinado sistema de IA.
A Anthropic vê essa política como uma demonstração crucial de seu compromisso com a segurança — que mesmo na corrida acirrada rumo à “superinteligência”, a empresa está disposta a resistir às pressões do mercado e frear proativamente quando necessário.
No final de fevereiro de 2026, conforme noticiado pela primeira vez pela revista TIME, a Anthropic fez modificações em sua política, rescindindo o compromisso anteriormente vinculativo de “pausar o desenvolvimento”.
Em uma retrospectiva, o cofundador e cientista-chefe da Anthropic, Jared Kaplan, disse à revista Time que a crença inicial de que a empresa poderia traçar uma linha clara entre “perigo” e “segurança” era, na verdade, um “pensamento ingênuo”.
Ele disse: “No contexto do rápido desenvolvimento da IA, se nossos concorrentes estão avançando a toda velocidade, assumir compromissos rigorosos unilateralmente não é, na verdade, realista”.
A nova política assumiu alguns novos compromissos: aumentar a transparência, divulgar mais abertamente os riscos de segurança da IA; aumentar a divulgação de informações, divulgar o desempenho do modelo Anthropic em testes de segurança; igualar, no mínimo, os concorrentes em investimentos em segurança, ou mesmo superá-los; se a empresa for considerada líder na competição de IA e o risco catastrófico for considerado significativamente crescente, o desenvolvimento relevante será “adiado”.
A Anthropic descreve esse ajuste como uma concessão pragmática ao ambiente do mundo real. No entanto, em geral, a modificação da Política de Escalonamento Responsável (RSP) reduz significativamente as restrições da empresa em relação à sua política de segurança. Isso também indica que testes ainda mais difíceis estão por vir.
A operação para capturar o presidente venezuelano Nicolás Maduro foi uma das primeiras operações militares em grande escala planejadas com o envolvimento de sistemas de inteligência artificial de ponta.
Na noite de 3 de janeiro de 2026, helicópteros do Exército dos EUA invadiram repentinamente o espaço aéreo venezuelano. Após um breve tiroteio, a equipe de assalto identificou rapidamente a área residencial do presidente e lá capturou Maduro e sua esposa, Cilia Flores. Posteriormente, os dois foram levados para Nova Iorque para responderem a acusações relacionadas com terrorismo relacionado com drogas.
Ainda não está claro para o mundo exterior qual foi a contribuição de Claude para esta operação. No entanto, de acordo com relatos da mídia, esse sistema de IA não só participou do planejamento da missão, mas também foi usado para apoiar a tomada de decisões durante a operação.
Desde julho do ano passado, o Departamento de Defesa dos Estados Unidos vem pressionando para distribuir as ferramentas de IA da Anthropic a mais combatentes da linha de frente. Os militares acreditam que esses sistemas podem processar rapidamente grandes quantidades de dados de várias fontes e gerar inteligência acionável, tornando-os de imenso valor estratégico.
Mark Beall, ex-alto funcionário do Departamento de Defesa dos Estados Unidos que agora atua como líder de assuntos governamentais na AI Policy Network, afirmou: “Do ponto de vista militar, o Claude é o melhor modelo disponível no mercado atualmente”. Ele acrescentou: “A adoção do Claude em sistemas confidenciais é um dos maiores sucessos da Anthropic. Eles têm a vantagem de serem os primeiros a agir.
Não utilizaremos modelos de IA que impeçam você de lutar.
Pete Hegseth, EUA Secretário da Defesa
No entanto, a operação para capturar o presidente venezuelano Nicolás Maduro está ocorrendo em meio a uma série de negociações espinhosas entre a Anthropic e o Departamento de Defesa dos Estados Unidos.
Durante meses, o Departamento de Defesa tentou renegociar o contrato, acreditando que os termos existentes restringiam excessivamente o uso do Claude. As razões para o fracasso das negociações não são consistentes para ambas as partes.
Emil Michael, chefe de IA do Pentágono, afirmou que o conflito foi desencadeado por um telefonema de um executivo da Anthropic para a Palantir. Esta empresa de análise de dados, que se concentra em negócios governamentais, é um parceiro fundamental no sistema de defesa dos Estados Unidos.
De acordo com Michael, o executivo expressou preocupação com a operação na Venezuela durante a ligação e perguntou se o software da Palantir estava envolvido. “Eles estavam tentando obter informações confidenciais”, disse Michael.
Este incidente suscitou sérias preocupações no Pentágono: “Será que eles iriam desligar repentinamente o seu modelo no meio de uma operação no futuro, colocando os soldados da linha de frente em risco?”
No entanto, a Anthropic nega essa alegação. A empresa afirmou que nunca tentou restringir seletivamente o uso de sua tecnologia pelo Pentágono.
Um ex-funcionário do governo Trump familiarizado com o processo de negociação e intimamente ligado à Anthropic apresentou uma versão diferente dos acontecimentos: Foi um funcionário da Palantir que mencionou pela primeira vez o papel de Claude nessa operação durante uma teleconferência de rotina.
As perguntas subsequentes da Anthropic não mostraram sinais de oposição à operação.

Ilustração de Klawe Rzeczy para a revista TIME, fontes das imagens: Dimitrios Kambouris — Getty Images (Donald Trump); Kenny Holston-Pool — Getty Images (Pete Hegseth)
À medida que as negociações continuavam, os funcionários do governo sentiam cada vez mais que a postura de Dario Amodei era muito mais inflexível do que a de outros CEOs de laboratórios de IA importantes. De acordo com várias fontes familiarizadas com o processo de negociação, em uma discussão, autoridades da Defesa apresentaram alguns cenários hipotéticos, tais como: um míssil hipersônico se dirigindo ao território continental dos EUA; ou um ataque com enxame de drones.
Nesses casos, eles perguntaram se a ferramenta de IA da Anthropic poderia ser usada.
Fontes afirmaram que a resposta de Amodei na altura foi: se realmente chegasse a esse ponto, os funcionários poderiam ligar-lhe diretamente. No entanto, um porta-voz da Anthropic negou isso, chamando a descrição do processo de negociação de “totalmente falsa”.
A Anthropic já tinha adversários fortes dentro do governo e, agora, as suspeitas sobre suas “tendências ideológicas” evoluíram para uma hostilidade aberta. Em 12 de janeiro de 2026, Pete Hegseth afirmou categoricamente durante um discurso na sede da SpaceX: Não utilizaremos modelos de IA que impeçam você de lutar.
À medida que as negociações continuavam a se arrastar, Hegseth convocou Dario Amodei ao Pentágono para uma reunião presencial em 24 de fevereiro. De acordo com uma fonte familiarizada com as discussões, a reunião foi cordial, mas ambos os lados mantiveram-se firmes nas suas posições. Hegseth inicialmente elogiou Claude e expressou o desejo das forças armadas de continuar colaborando com a Anthropic. Amodei, por outro lado, afirmou que a empresa estava disposta a aceitar a maioria das alterações propostas pelo Pentágono, mas não cederia em duas questões “intransigentes”.
A primeira linha vermelha é: proibir o uso do Claude em sistemas de armas cinéticas totalmente autônomas, ou seja, armas em que a decisão final de ataque é tomada pela IA, e não por um ser humano.
A Anthropic não acredita inerentemente que as armas autônomas sejam erradas, mas argumenta que Claude ainda não é confiável o suficiente para controlar esses sistemas sem supervisão humana.
A segunda linha vermelha diz respeito à vigilância em massa dos cidadãos americanos. O governo quer utilizar o Claude para analisar grandes quantidades de dados públicos, mas a Anthropic acredita que as leis de privacidade existentes nos EUA não acompanharam uma realidade preocupante: o governo está comprando enormes conjuntos de dados do mercado comercial. Embora individualmente esses conjuntos de dados possam não ser confidenciais, uma vez analisados pela IA, eles podem gerar perfis detalhados da vida privada dos cidadãos americanos, incluindo suas opiniões políticas, relações sociais, comportamento sexual e históricos de navegação. (No entanto, a Anthropic não se opõe ao uso do mesmo método para monitorar legalmente cidadãos estrangeiros.)
Hegseth não estava convencido. Ele emitiu um ultimato final a Amodei: os termos do Pentágono devem ser aceitos até às 17h00 de sexta-feira, 27 de fevereiro, ou então serão considerados um “risco para a cadeia de abastecimento”.
Na véspera do prazo final, a Anthropic recebeu um contrato revisado que parecia aceitar as condições impostas pela empresa, mas, após uma análise mais detalhada, foram encontradas lacunas que favoreciam o governo. Uma fonte familiarizada com as negociações disse que, com o passar do tempo, os executivos da Anthropic tiveram outra conversa com Emil Michael, líder de IA do Pentágono. Eles acreditavam estar perto de um acordo, mas uma questão fundamental permanecia sem solução: se o Pentágono poderia usar o Claude para analisar dados americanos em grande escala adquiridos por meio de canais comerciais. Michael solicitou que Amodei participasse da chamada, mas ele não estava disponível naquele momento.
Alguns minutos depois, bem no prazo final, Hegseth anunciou o fim das negociações. Mesmo antes disso, Donald Trump já havia se manifestado em suas redes sociais: Os Estados Unidos da América nunca permitirão que uma empresa radical de esquerda e “politicamente correta” decida como nossas grandes forças armadas devem operar e vencer guerras! Os lunáticos esquerdistas da Anthropic cometeram um erro catastrófico.
Sem o conhecimento da Anthropic, o Pentágono também estava em negociações com a OpenAI, buscando introduzir o ChatGPT em sistemas governamentais confidenciais. Na mesma noite, Sam Altman anunciou que um acordo havia sido alcançado, alegando que o acordo também respeitava limites de segurança semelhantes. Amodei então enviou uma mensagem aos seus funcionários, afirmando que Altman e o Pentágono estavam “manipulando a opinião pública”, tentando fazer com que o público acreditasse que esse acordo incluía barreiras de segurança rigorosas. Anteriormente, funcionários do Pentágono também confirmaram que os modelos da xAI seriam implantados em servidores confidenciais; o Pentágono está atualmente em negociações com o Google.
Esse era exatamente o cenário que preocupava Amodei: uma corrida de “concorrência descendente”. Quando o poder da IA se torna grande demais para ser ignorado, os concorrentes têm dificuldade em cooperar e elevar os padrões de segurança em conjunto.
Para os críticos da Anthropic, esse evento também expôs uma arrogância fundamental da empresa: talvez ela acreditasse que poderia trilhar com segurança o caminho para máquinas sobre-humanas, fazendo com que valesse a pena correr riscos tão grandes. Mas a realidade é que rapidamente introduziu novas capacidades de vigilância e tecnologias de guerra num sistema governamental de direita e, quando tentou estabelecer limites para essas tecnologias, foi imediatamente ultrapassado pelos concorrentes.
Não elogiamos Trump como ditador.
Dario Amodei, abordando a origem do conflito com o Pentágono em um memorando aos funcionários
No entanto, alguns sinais indicam que a Anthropic pode ser capaz de resistir a esse impacto e até mesmo sair mais forte dele. Na manhã seguinte à tentativa de Pete Hegseth de assinar a “sentença de morte corporativa”, uma série de mensagens encorajadoras escritas com giz apareceram na calçada em frente à sede da empresa em São Francisco. “Você nos deu coragem”, dizia uma mensagem em letras garrafais.
No mesmo dia, o aplicativo para iPhone de Claude liderou as paradas de downloads da App Store, ultrapassando o ChatGPT. Mais de um milhão de pessoas se cadastram no Claude todos os dias.
Ao mesmo tempo, o contrato que a OpenAI assinou com os militares provocou resistência interna e da comunidade. Alguns funcionários da OpenAI consideram que a empresa perdeu a confiança. Um pesquisador de renome anunciou sua mudança para a Anthropic; o chefe da equipe de robótica da OpenAI renunciou devido a este contrato governamental.
O CEO da OpenAI, Sam Altman, também admitiu posteriormente que sua ânsia em fechar um acordo com o Pentágono até sexta-feira foi um erro. Ele escreveu: “Essas questões são extremamente complexas e exigem uma comunicação clara e completa”. Na segunda-feira, Altman reconheceu ainda que suas ações na época realmente “pareciam oportunistas”. A OpenAI também declarou que o acordo foi revisado para adotar explicitamente as mesmas diretrizes de segurança da Anthropic. No entanto, especialistas jurídicos apontam que é difícil confirmar essa alegação sem ver o contrato completo.
Em 4 de março, a Anthropic recebeu uma carta oficial do Departamento de Defesa dos Estados Unidos confirmando que a empresa havia sido identificada como um risco à cadeia de suprimentos de segurança nacional. A Anthropic afirmou que essa designação é mais restrita do que Hegseth alegou nas redes sociais, limitando apenas o uso do Claude por empreiteiros em contratos de defesa.
No entanto, uma carta vista pela revista Time endereçada ao presidente do Comitê de Inteligência do Senado, Tom Cotton, revelou que o Departamento de Defesa também invocou outra disposição legal — uma que pode permitir que agências governamentais fora do Pentágono excluam a Anthropic de seus contratos e cadeias de suprimentos. Essa medida requer a aprovação de altos funcionários do Departamento de Defesa e dá à Anthropic um prazo de 30 dias para responder.
Esse conflito pode desencadear um efeito cascata em todo o setor de IA. Dean Ball, que participou da elaboração da Iniciativa de IA de Trump e agora trabalha no think tank Foundation for American Innovation, disse: “Algumas pessoas no governo Trump vão se sentir muito incomodadas com isso, quase flexionando os bíceps para si mesmas à noite”.
No entanto, ele também alertou que esse evento pode levar as empresas a relutarem em trabalhar com o Pentágono, chegando até mesmo a transferir suas operações para o exterior. “A longo prazo, isso não é bom para a imagem dos Estados Unidos como um ambiente de negócios estável”, disse Ball, “e a estabilidade é aquilo em que confiamos”.
A liderança da Anthropic acredita que Claude ajudará a construir sistemas de IA mais robustos e poderosos o suficiente para desempenhar um papel decisivo na futura estrutura de poder global.
Se for esse realmente o caso, então o conflito entre esta empresa e o Pentágono pode ser apenas o prelúdio de um processo histórico mais amplo.
Você também pode gostar

A Uniswap está presa em um dilema de inovação

Qual é o segredo da competitividade no setor bancário de criptomoedas?

O fluxo de stablecoins e os efeitos colaterais no mercado de câmbio

Após dois anos, o primeiro lote de licenças de stablecoin de Hong Kong finalmente emitido: HSBC, Standard Chartered são aprovados

A pessoa que ajudou o TAO a subir 90% foi a mesma que, sozinha, fez o preço despencar novamente hoje

Guia de 3 minutos para participar da oferta pública inicial (IPO) da SpaceX na Bitget

Como ganhar US$ 15.000 com USDT ocioso antes da temporada de altcoins de 2026
Você está se perguntando se a temporada das altcoins chegará em 2026? Fique por dentro das últimas novidades do mercado e descubra como transformar suas stablecoins ociosas, que estão à espera de serem investidas, em recompensas extras de até 15.000 USDT.

Você pode vencer o Joker Returns sem um grande volume de negociação? 5 Erros que Novos Jogadores Cometem na Temporada 2 do WEEX Joker Returns
Os pequenos traders podem vencer o WEEX Joker Returns 2026 sem um volume enorme? Sim, se você evitar esses 5 erros dispendiosos. Aprenda a maximizar os sorteios de cartas, usar os Jokers com sabedoria e transformar pequenos depósitos em 15.000 USDT em recompensas.

Será que a “Alt Season” vai acontecer em 2026? 5 dicas para identificar as próximas oportunidades de criptomoedas com potencial de valorização de 100 vezes
Será que a temporada das altcoins chegará em 2026? Descubra as 5 fases de rotação, os sinais precoces que os traders experientes observam e os principais setores de criptomoedas onde podem surgir as próximas oportunidades de altcoins com potencial de valorização de 100 vezes.

Temporada das Altcoins de 2026: 4 etapas para obter lucro (antes que a galera entre na onda do FOMO)
A Temporada das Altcoins de 2026 está começando — descubra as quatro etapas principais da rotação de capital (da ETH para a PEPE) e como se posicionar antes do pico. Descubra quais tokens vão liderar cada fase e não perca a recuperação.

Top 5 Criptomoedas para Comprar no 1º Trimestre de 2026: Uma Análise Profunda do ChatGPT
Explore as 5 principais criptomoedas para comprar no 1º trimestre de 2026, incluindo BTC, ETH, SOL, TAO e ONDO. Veja as previsões de preços, narrativas-chave e catalisadores institucionais que estão moldando o próximo movimento do mercado.

O mercado em baixa chegou, e os emissores de ETF de criptomoedas também estão se envolvendo

O homem mais rico teve uma discussão com seu antigo chefe

Bônus de Ganho Automático 2026: WEEX x Binance x Bybit x OKX x Kraken (apenas uma oferece bônus extra)
Auto Earn 2026: Binance? Bybit? Sem bônus adicional. Só o WEEX oferece +0,5% + 300% de APR por indicação. Por tempo limitado. Veja exatamente quanto mais você pode ganhar.

Auto Earn 2026: A WEEX oferece 0,5% a mais + 300% de bônus APR — mais do que Binance e Bybit?
A maioria das exchanges oferece Auto Earn, mas somente a WEEX adiciona um bônus extra de 0,5% no crescimento do saldo + 300% de recompensas de referência em 2026. Veja como a WEEX se compara à Binance, Bybit, OKX e Kraken — e por que você pode ganhar mais com um simples ajuste.

Sete Velas Verdes Encontram Três Soldados Brancos | Rewire News Morning Brief

O ouro volta a 4800 dólares, onde está o topo este ano?

