A investigação aprofundada da The New Yorker: Por que os insiders da OpenAI consideram Altman não confiável?
Autor Original: Xiaobing, Shenchao TechFlow
No outono de 2023, o cientista-chefe da OpenAI, Ilya Sutskever, sentou-se em frente ao seu computador, completando um documento de 70 páginas.
Este documento foi compilado a partir de registros de mensagens do Slack, arquivos de comunicação de RH e atas de reuniões internas, exclusivamente para responder a uma pergunta: Sam Altman, a pessoa responsável pelo que pode ser a tecnologia mais perigosa da história humana, pode ser confiável?
A resposta que Sutskever forneceu está escrita na primeira linha da primeira página do documento, com o título da lista "Sam exibe um padrão consistente de comportamento..."
O primeiro ponto: Mentir.
Hoje, dois anos e meio depois, os jornalistas investigativos Ronan Farrow e Andrew Marantz publicaram um extenso relatório investigativo na The New Yorker. Eles entrevistaram mais de 100 partes, obtiveram memorandos internos anteriormente não divulgados e mais de 200 páginas de notas privadas deixadas pelo fundador da Anthropic, Dario Amodei, durante seu tempo na OpenAI. A história montada a partir desses documentos é muito mais feia do que a "intriga palaciana" de 2023: como a OpenAI se transformou de uma organização sem fins lucrativos criada para a segurança humana em uma máquina comercial, com quase todas as barreiras de segurança desmontadas pela mesma pessoa.
A conclusão de Amodei em suas notas é ainda mais direta: "O problema com a OpenAI é o próprio Sam."
A "Pecado Original" da OpenAI
Para entender o peso deste relatório, é preciso primeiro esclarecer quão especial a OpenAI é como empresa.
Em 2015, Altman e um grupo de elites do Vale do Silício fizeram algo quase sem precedentes na história dos negócios: usaram uma organização sem fins lucrativos para desenvolver o que pode ser a tecnologia mais poderosa da história humana. As responsabilidades do conselho estavam claramente definidas: a segurança tem prioridade sobre o sucesso da empresa, até mesmo sobre a sobrevivência da empresa. Em termos simples, se um dia a IA da OpenAI se tornar perigosa, o conselho tem a obrigação de fechar a empresa por conta própria.
Toda a estrutura é baseada em uma suposição: a pessoa responsável pela AGI deve ser uma pessoa extremamente honesta.
E se essa suposição estiver errada?
A principal bomba do relatório é aquele documento de 70 páginas. Sutskever não se envolve em política de escritório; ele é um dos principais cientistas de IA do mundo. Mas, em 2023, ele se convenceu cada vez mais de uma coisa: Altman estava continuamente mentindo para os executivos e para o conselho.
Um exemplo específico: Em dezembro de 2022, Altman garantiu ao conselho durante uma reunião que várias funcionalidades do próximo GPT-4 haviam passado pelas avaliações de segurança. O membro do conselho, Toner, solicitou ver os documentos de aprovação e descobriu que duas das funcionalidades mais controversas (ajuste fino personalizado pelo usuário e implantação de assistente pessoal) não haviam recebido aprovação do painel de segurança.
Coisas ainda mais ultrajantes aconteceram na Índia. Um funcionário relatou a outro membro do conselho sobre "aquela violação": A Microsoft lançou uma versão inicial do ChatGPT na Índia sem completar as avaliações de segurança necessárias.
Sutskever também registrou outro incidente no memorando: Altman havia dito à ex-CTO Mira Murati que o processo de aprovação de segurança não era tão importante, pois o advogado geral da empresa já o havia aprovado. Murati foi confirmar com o advogado geral, que respondeu: "Não sei de onde Sam tirou essa impressão."
Páginas Privadas de 200 de Amodei
O documento de Sutskever lê-se como uma acusação de promotor. As mais de 200 páginas de notas de Amodei se assemelham a um diário escrito por uma testemunha na cena do crime.
Durante os anos em que Amodei foi o chefe de segurança na OpenAI, ele viu a empresa recuar sob pressão comercial. Ele observou um detalhe chave do caso de investimento da Microsoft em 2019: ele havia inserido uma cláusula de "fusão e assistência" no estatuto da OpenAI, significando que se outra empresa encontrasse um caminho mais seguro para a AGI, a OpenAI deveria parar de competir e ajudar essa empresa. Essa foi a garantia de segurança que ele mais valorizou em todo o acordo.
Quando o acordo estava prestes a ser assinado, Amodei descobriu algo: A Microsoft havia obtido poder de veto sobre essa cláusula. O que isso significa? Mesmo que um dia um concorrente encontrasse um caminho melhor, a Microsoft poderia bloquear a obrigação da OpenAI de ajudar com uma única palavra. A cláusula ainda estava no papel, mas a partir do dia da assinatura, tornou-se sem valor.
Amodei deixou a OpenAI e fundou a Anthropic. A competição entre as duas empresas gira fundamentalmente em torno do desacordo sobre "como a IA deve ser desenvolvida."
A Compromisso de Computação Desaparecendo de 20%
Há um detalhe no relatório que causa arrepios, referente à "equipe de super alinhamento" da OpenAI.
Em meados de 2023, Altman enviou um e-mail a um estudante de doutorado que pesquisava "alinhamento enganoso" (IA se comportando bem durante os testes, mas fazendo o que quer após a implementação), expressando suas profundas preocupações sobre o assunto e considerando estabelecer um prêmio global de pesquisa de $1 bilhão. O estudante de doutorado foi incentivado, tirou uma licença e se juntou à OpenAI.
Então Altman mudou de ideia: sem prêmio externo, mas em vez disso, estabeleceu uma "equipe de super alinhamento" interna. A empresa anunciou que alocaria "20% da computação existente" para essa equipe, com um valor potencial superior a $1 bilhão. O anúncio foi extremamente sério, afirmando que se o problema de alinhamento não fosse resolvido, a AGI poderia levar a "humanos sendo despojados de poder, ou até mesmo à extinção humana."
Jan Leike, que foi nomeado para liderar essa equipe, disse mais tarde a repórteres que o compromisso em si era uma ferramenta de retenção de talentos muito eficaz.
E quanto à realidade? Quatro indivíduos que trabalharam ou estavam próximos a essa equipe disseram que a computação real alocada era apenas de 1% a 2% da computação total da empresa, e era o hardware mais antigo. Essa equipe foi posteriormente dissolvida, e sua missão não foi cumprida.
Quando repórteres solicitaram entrevistas com o pessoal da OpenAI responsável pela pesquisa em "segurança existencial", a resposta de PR da empresa foi risível: "Isso não é uma... coisa real."
O próprio Altman estava calmo. Ele disse aos repórteres que sua "intuição não se alinha bem com muitas coisas tradicionais de segurança em IA," e que a OpenAI ainda buscaria "projetos de segurança, ou pelo menos projetos relacionados à segurança."
O CFO Marginalizado e o IPO Imminente
O relatório da New Yorker foi apenas metade das más notícias daquele dia. No mesmo dia, a The Information revelou outra grande história: Houve um sério desentendimento entre a CFO da OpenAI, Sarah Friar, e Altman.
Friar disse em particular a colegas que sentia que a OpenAI não estava pronta para abrir o capital este ano. Duas razões: a carga de trabalho processual e organizacional a ser concluída era muito grande, e os riscos financeiros trazidos pela promessa de Altman de um gasto de $600 bilhões em computação ao longo de cinco anos eram muito altos. Ela estava até mesmo insegura se o crescimento da receita da OpenAI poderia suportar esses compromissos.
Mas Altman queria apressar um IPO no quarto trimestre deste ano.
Ainda mais ultrajante, Friar não reportava mais diretamente a Altman. A partir de agosto de 2025, ela começou a reportar a Fidji Simo (CEO do negócio de aplicativos da OpenAI). E Simo havia acabado de tirar licença médica por motivos de saúde. Considere esta situação: uma empresa apressando-se para um IPO, com desentendimentos fundamentais entre o CEO e o CFO, o CFO não reportando ao CEO, e o superior do CFO de licença.
Até mesmo executivos dentro da Microsoft não suportavam isso, dizendo que Altman "distorce fatos, volta atrás em sua palavra e constantemente revoga acordos." Um executivo da Microsoft até comentou: "Acho que há uma chance razoável de que ele seja lembrado como um golpista no nível de Bernie Madoff ou SBF."
O Retrato "De Duas Caras" de Altman
Um ex-membro do conselho da OpenAI descreveu duas características em Altman para os repórteres. Esta descrição pode ser o esboço de caráter mais severo de todo o relatório.
O membro do conselho disse que Altman possui uma combinação de traços extremamente rara: ele tem um forte desejo de agradar e ser querido por outros em cada interação pessoal. Ao mesmo tempo, ele tem uma indiferença quase sociopática às consequências de enganar os outros.
Ter ambos os traços em uma única pessoa é extremamente raro. Mas para um vendedor, é o presente perfeito.
Há uma metáfora no relatório que captura isso bem: Steve Jobs era famoso por seu "campo de distorção da realidade", capaz de fazer o mundo acreditar em sua visão. Mas mesmo Jobs nunca disse aos clientes: "Se você não comprar meu tocador de MP3, as pessoas que você ama vão morrer."
Altman disse coisas semelhantes sobre a IA.
A Questão do Caráter de um CEO: Por que é o risco de todos
Se Altman fosse apenas o CEO de uma empresa de tecnologia comum, essas acusações seriam, no máximo, uma empolgante fofoca de negócios. Mas a OpenAI não é comum.
De acordo com suas próprias alegações, está desenvolvendo o que pode ser a tecnologia mais poderosa da história humana. Ela pode remodelar a economia global e o mercado de trabalho (a própria OpenAI acabou de lançar um documento de política sobre a questão do desemprego causado pela IA) e também pode ser usada para criar armas biológicas em larga escala ou lançar ciberataques.
Todas as barreiras de segurança se tornaram sem sentido. A missão sem fins lucrativos do fundador deu lugar à corrida por um IPO. O ex-cientista-chefe e o ex-chefe de segurança consideram o CEO "não confiável." Os parceiros comparam o CEO a SBF. Nesse contexto, que direito tem esse CEO de decidir unilateralmente quando liberar modelos de IA que poderiam mudar o destino da humanidade?
Gary Marcus (professor de IA da NYU e defensor de longa data da segurança em IA) escreveu uma linha após ler o relatório: Se um futuro modelo da OpenAI pudesse criar armas biológicas em larga escala ou lançar ciberataques catastróficos, você realmente se sentiria confortável deixando Altman decidir se deve liberá-lo sozinho?
A resposta da OpenAI para a The New Yorker foi sucinta: "A maior parte do conteúdo deste artigo é uma reiteração de eventos previamente relatados, dependendo de declarações anônimas e anedotas seletivas, com fontes claramente tendo agendas pessoais."
Muito alinhado ao estilo de resposta de Altman: não abordando acusações específicas, não negando a autenticidade do memorando, apenas questionando os motivos.
Uma Árvore da Fortuna Crescendo sobre o Cadáver de uma Organização Sem Fins Lucrativos
A história de dez anos da OpenAI pode ser resumida da seguinte forma:
Um grupo de idealistas preocupados com os riscos da IA criou uma organização sem fins lucrativos com uma missão definida. A organização fez avanços tecnológicos extraordinários. Os avanços atraíram um capital massivo. O capital exigiu retornos. A missão começou a ceder lugar. A equipe de segurança foi dissolvida. Os dissidentes foram eliminados. A estrutura sem fins lucrativos foi transformada em uma entidade com fins lucrativos. O conselho, que antes tinha o poder de fechar a empresa, agora está cheio de aliados do CEO. A empresa que antes prometia alocar 20% de seu poder computacional para garantir a segurança humana agora tem pessoal de PR dizendo: "Isso não é uma coisa real."
O protagonista desta história foi rotulado da mesma forma por mais de cem testemunhas oculares: "Descontrolado pela verdade."
Ele está se preparando para tornar esta empresa pública, com uma avaliação superior a 850 bilhões de dólares.
Este artigo sintetiza informações de relatórios públicos da The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider, The Information e outros meios de comunicação.
Você também pode gostar

Dois mundos separados: Perspectivas da New York Digital Asset Summit, a conferência sobre blockchain mais voltada para o setor institucional

Os Dez Principais Revelações do Novo Livro de CZ: Conhecimento Antecipado de "94", a História Interna da Mudança de Propriedade da Huobi Tornada Pública pela Primeira Vez

Cessar-fogo durante a noite elimina o prêmio de guerra; das três linhas de fractura, apenas uma foi selada | Resumo matinal da Rewire News

Robinhood protege a "conta de Trump": Permitindo que milhões de recém-nascidos tenham acesso ao mercado de ações

Tem medo de abrir a caixa de Pandora? O modelo mais poderoso da Anthropic até hoje não ousa ser divulgado

Cessar-fogo no Irã e preços do petróleo: Por que o preço do petróleo caiu em abril de 2026
Os preços do petróleo caíram drasticamente em 8 de abril de 2026, após o cessar-fogo no Irã, à medida que os operadores retiraram parte do prêmio de risco de guerra associado à interrupção do abastecimento no Estreito de Ormuz.

Cessar-fogo entre os EUA e o Irã: Uma pausa temporária ou o prelúdio de um novo conflito? Perspectivas de mercado para o petróleo, o ouro e o bitcoin
8 de abril de 2026 – Um cessar-fogo temporário entre os EUA e o Irã proporcionou algum alívio imediato aos mercados globais, mas a questão fundamental permanece: Será que a cessação das hostilidades vai se manter, ou trata-se apenas de uma breve trégua antes do reinício do conflito? À medida que a situação se desenrola, os observadores do mercado acompanham de perto como ativos importantes, como petróleo, ouro e Bitcoin, reagirão nas próximas semanas. Este artigo analisa se o cessar-fogo é um sinal de paz duradoura, avalia as implicações de curto prazo para o mercado e examina a evolução do papel do Bitcoin no panorama financeiro global.

Relatório Matinal | Instituições financeiras sul-coreanas testam pagamentos com stablecoins para usuários estrangeiros; ETF de Bitcoin do Morgan Stanley está prestes a ser listado; CME planeja lançar contratos futuros de AVAX e SUI

Atualização do mercado WEEX: Cessar-fogo entre EUA e Irã provoca alta no preço do Bitcoin
8 de abril de 2026 – Em uma mudança significativa na geopolítica global, os EUA O presidente Donald Trump anunciou um cessar-fogo temporário de duas semanas com o Irã, o que provocou uma reação significativa nos mercados em diversas classes de ativos. Este desdobramento ocorre após conversas entre Trump, o primeiro-ministro paquistanês Shahbaz Sharif e o chefe do Exército, general Asim Munir. O anúncio já está causando repercussões nos mercados, especialmente nos setores do petróleo, do ouro e das criptomoedas.

Fundador da EigenCloud: IA e criptomoedas estão criando a próxima classe de ativos de um trilhão de dólares

De Pânico a Bombas: Como os Traders de Bitcoin Estão Jogando com o Ceasefire de 2 Semanas entre os EUA e o Irã
Para a maioria das pessoas, o ceasefire de duas semanas entre os EUA e o Irã diz respeito à geopolítica, aos preços do petróleo e à possibilidade de a Terceira Guerra Mundial ser adiada. Mas para os traders de cripto que estavam grudados em suas telas na noite de domingo, era algo completamente diferente: a sinalização de risco mais clara em meses.

O cessar-fogo entre os EUA e o Irã provoca queda no preço do petróleo, alta do Bitcoin e alta do ouro
Apesar da forte recuperação, é preciso ter cautela. A faixa entre US$ 70.000 e US$ 72.000 tem sido, historicamente, uma forte resistência. O cessar-fogo é apenas temporário (duas semanas), e qualquer ruptura nas negociações poderia desencadear uma onda de vendas em direção à zona de suporte entre US$ 62.000 e US$ 65.000. Por enquanto, o Bitcoin precisa fechar de forma decisiva acima de US$ 72.500 para confirmar uma verdadeira ruptura; se isso não ocorrer dentro de 48 a 72 horas, poderá ocorrer uma rápida retração.

A OpenAI não tem nenhum “New Deal”, um plano para a IA que se recusa a pagar.

Uma corrida flash mob em Wall Street? Queda das ações das megacapitalizadas, a grande fuga do Goldman, guia ilustrado sobre a crise do crédito privado

A disputa na OpenAI: Poder, confiança e os limites incontroláveis da IA Geral

「AI Doomsday Cult」 envia agentes para o Estreito de Ormuz: O que eles encontraram?

Todos estão esperando que a guerra termine, mas será que o preço do petróleo está indicando um conflito prolongado?

Análise de Dados: Qual é a Diferença de Liquidez entre o Hyperliquid e o Petróleo do CME?
Dois mundos separados: Perspectivas da New York Digital Asset Summit, a conferência sobre blockchain mais voltada para o setor institucional
Os Dez Principais Revelações do Novo Livro de CZ: Conhecimento Antecipado de "94", a História Interna da Mudança de Propriedade da Huobi Tornada Pública pela Primeira Vez
Cessar-fogo durante a noite elimina o prêmio de guerra; das três linhas de fractura, apenas uma foi selada | Resumo matinal da Rewire News
Robinhood protege a "conta de Trump": Permitindo que milhões de recém-nascidos tenham acesso ao mercado de ações
Tem medo de abrir a caixa de Pandora? O modelo mais poderoso da Anthropic até hoje não ousa ser divulgado
Cessar-fogo no Irã e preços do petróleo: Por que o preço do petróleo caiu em abril de 2026
Os preços do petróleo caíram drasticamente em 8 de abril de 2026, após o cessar-fogo no Irã, à medida que os operadores retiraram parte do prêmio de risco de guerra associado à interrupção do abastecimento no Estreito de Ormuz.
