La revista Time nombra a Anthropic como la empresa más disruptiva del mundo

By: blockbeats|2026/03/13 13:18:55
0
Compartir
copy
Título del artículo original: La empresa más disruptiva del mundo
Autores del artículo original: Leslie Dickstein, Simmone Shah, TIMES
Traducción: Peggy, BlockBeats

Nota del editor: Desde una prueba de seguridad nocturna hasta un enfrentamiento público con el Pentágono, este artículo relata las múltiples tensiones que enfrentó la empresa de IA Anthropic durante su rápido ascenso. El artículo describe primero cómo la empresa evaluó internamente los posibles riesgos de la IA, luego revisa los avances técnicos y los éxitos comerciales de Claude, y presenta además sus aplicaciones prácticas en el campo militar.

A medida que se desarrollan los acontecimientos, los autores desvelan las controversias de Anthropic con el ejército de EE. UU. en torno a las armas autónomas, la vigilancia masiva y el control de la IA desde las perspectivas del líder del equipo rojo, los ingenieros, los ejecutivos, el investigador de políticas y los funcionarios gubernamentales.

A través de este evento, los autores plantean finalmente una pregunta cada vez más urgente: a medida que la inteligencia artificial comienza a acelerar su propia evolución y a integrarse profundamente en la guerra, la gobernanza y las estructuras laborales, ¿quién puede establecer aún límites para ella.

Lo siguiente es el texto original:

La revista Time nombra a Anthropic como la empresa más disruptiva del mundo

En una habitación de hotel en Santa Clara, California, cinco miembros de la empresa de IA Anthropic están trabajando nerviosamente alrededor de un portátil. Era febrero de 2025, y estaban asistiendo a una conferencia cercana cuando de repente recibieron un mensaje inquietante: los resultados de un experimento controlado indicaban que la próxima versión de Claude podría ayudar a los terroristas a crear un arma biológica.

Estas personas formaban parte del "Equipo Rojo Fronterizo" de Anthropic. Su trabajo consistía en estudiar las capacidades avanzadas de Claude e intentar simular riesgos en los peores escenarios posibles, desde ataques cibernéticos hasta amenazas de bioseguridad y diversas posibilidades. Al recibir la noticia, se apresuraron a regresar a la habitación del hotel, volvieron una cama de lado para usarla como un escritorio improvisado y comenzaron a revisar cuidadosamente los resultados de las pruebas.

Después de horas de análisis tensos, todavía no podían determinar si el nuevo producto era lo suficientemente seguro. En última instancia, Anthropic decidió posponer el lanzamiento de este nuevo modelo, Claude 3.7 Sonnet, durante 10 días completos hasta que el equipo confirmó que los riesgos eran manejables.

Aunque esto pueda parecer solo 10 días, para una empresa a la vanguardia de la tecnología en una industria que está cambiando rápidamente el mundo, fue casi como un largo siglo.

Logan Graham (ex jefe del Equipo Rojo) recordó el incidente del "Miedo a las Bioarmas" como un microcosmos del desafío que Anthropic enfrentó en un momento crucial, no solo para la empresa, sino para el mundo en general. Anthropic es una de las organizaciones más centradas en la seguridad en los laboratorios de IA de vanguardia de hoy en día. Sin embargo, al mismo tiempo, también está en la frontera competitiva, esforzándose por construir sistemas de IA cada vez más poderosos. Dentro de la empresa, muchos empleados también creen que esta tecnología, si no se controla, podría llevar a una serie de consecuencias catastróficas, desde una guerra nuclear hasta la extinción humana.

A sus 31 años, Graham aún conserva un toque de inocencia, pero nunca se escuda de la responsabilidad de buscar un equilibrio entre los inmensos beneficios y los inmensos riesgos de la IA. Dijo: "Muchas personas crecieron en un mundo relativamente pacífico y sienten intuitivamente que hay una habitación en algún lugar con un grupo de adultos maduros que saben cómo arreglar las cosas".

"Pero en realidad, no hay un 'grupo de adultos'. Ni siquiera hay esa habitación. Y no hay la puerta que estás buscando. La responsabilidad es tuya". Si esta declaración no es lo suficientemente alarmante, entonces mira cómo recuerda la alerta de arma biológica: "Fue un día bastante interesante y emocionante".

Ilustración: Neil Jamieson para TIME (Fuentes de las imágenes: Askell: Aaron Wojack; Getty Images, de arriba en sentido horario: Samyukta Lakshmi—Bloomberg; Brendan Smialowski—AFP; Tierney L. Cross—Bloomberg; Daniel Slim—AFP; Bridget Bennett—Bloomberg)

Hace unas semanas, Logan Graham discutió estos problemas en la sede de Anthropic durante una entrevista. Un reportero de la revista TIME pasó tres días aquí, entrevistando a ejecutivos de la empresa, ingenieros, gerentes de productos y miembros del equipo de seguridad, tratando de averiguar por qué esta empresa, que antes se consideraba el "outsider maquiavélico" en la carrera de la IA, de repente se convirtió en líder.

En aquel entonces, Anthropic acababa de recaudar $30 mil millones de inversores en preparación para una posible salida a bolsa este año. (Como nota al margen, Salesforce también es uno de los inversores de Anthropic, y el propietario de la revista TIME, Marc Benioff, es el director ejecutivo de Salesforce.) Hoy, la valoración de Anthropic ha alcanzado los $380 mil millones, superando a gigantes tradicionales como Goldman Sachs, McDonald's y Coca-Cola.

La tasa de crecimiento de los ingresos de la empresa es nada menos que meteórica. Su sistema de IA Claude ha sido aclamado como un modelo de clase mundial, y productos como Claude Code y Claude Cowork están redefiniendo lo que significa ser un "programador".

Las herramientas de Anthropic son tan poderosas que casi cada nuevo lanzamiento causa ondas en los mercados de capitales a medida que los inversores se dan cuenta gradualmente de que estos avances tecnológicos podrían alterar industrias enteras, desde los servicios legales hasta el desarrollo de software. En los últimos meses, Anthropic ha sido vista como una de las empresas más propensas a remodelar el "futuro del trabajo".

Posteriormente, Anthropic se vio envuelta en una feroz controversia en torno a las "formas futuras de la guerra".

Durante más de un año, Claude ha sido el modelo de IA preferido por el gobierno de EE. UU. y el primero en ser aprobado para su uso en entornos clasificados como un sistema de IA de vanguardia. En enero de 2026, incluso se utilizó en una operación audaz: la captura del presidente venezolano Nicolás Maduro en Caracas. Según los informes, la IA se utilizó en la planificación de la misión y el análisis de inteligencia en esta operación, marcando la primera participación profunda de la IA de vanguardia en una acción militar real.

Sin embargo, en las semanas siguientes, la relación entre Anthropic y el Departamento de Defensa de EE. UU. se deterioró rápidamente. El 27 de febrero, la administración Trump anunció que Anthropic estaba siendo designada como un "riesgo para la cadena de suministro de seguridad nacional", marcando la primera instancia conocida en los EE. UU. de que se aplicara una etiqueta de este tipo a una empresa nacional.

La situación escaló rápidamente a un conflicto público. El presidente Trump ordenó que se detuviera todo el uso gubernamental del software de Anthropic. El secretario de Defensa, Pete Hegseth, declaró además que cualquier empresa que cooperara con el gobierno ya no debería hacer negocios con Anthropic. Mientras tanto, el mayor competidor de Anthropic, OpenAI, intervino rápidamente y se hizo cargo de los contratos militares relevantes.

Por lo tanto, la empresa de IA, que una vez fue considerada la "más disruptiva del mundo", de repente se encontró interrumpida por otra fuerza más grande: su propio gobierno.

En el centro de este enfrentamiento está la pregunta: ¿Quién tiene la autoridad para establecer límites para esta tecnología, considerada una de las armas más potentes de Estados Unidos?

Anthropic no se opone a que sus herramientas se utilicen en la guerra. La empresa cree que fortalecer la fuerza militar de EE. UU. es la única manera realista de disuadir las amenazas nacionales. Sin embargo, el director ejecutivo Dario Amodei se opone a los intentos del Pentágono de renegociar los contratos gubernamentales y expandir el uso de la IA a "todo uso legal".

Amodei planteó dos preocupaciones específicas: primero, no quiere que la IA de Anthropic se utilice en sistemas de armas completamente autónomos; segundo, se opone al uso de su tecnología para la vigilancia a gran escala de los ciudadanos estadounidenses.

Sin embargo, en la opinión de Pete Hegseth (EE. UU. Secretario de Defensa) y sus asesores, esta postura es similar a la de una empresa privada que intenta dictar cómo debería luchar el ejército.

EE. UU. El Departamento de Defensa cree que Anthropic, al insistir en establecer "barreras de seguridad innecesarias", discutir continuamente varios escenarios hipotéticos y retrasar el tiempo en las negociaciones subsiguientes, en realidad ha debilitado la cooperación entre ambas partes.

A los ojos de la administración Trump, la actitud de Amodei (CEO de Anthropic) es arrogante y terca. No importa cuán avanzado sea el producto de una empresa, no debería insertar su juicio en la cadena de mando militar.

Emil Michael, subsecretario de Guerra para Asuntos Técnicos en el Pentágono, describió la negociación de la siguiente manera: "La situación se prolongó de esta manera. No puedo gestionar un departamento de 3 millones de personas con esas excepciones que ni siquiera puedo imaginar o entender".

Ilustración: Klawe Rzeczy for TIME - Fuente de la imagen: Denis Balibouse—Reuters

Desde Silicon Valley hasta Capitol Hill, muchos observadores se preguntan: ¿Esta tormenta es realmente solo una disputa contractual?

Algunos críticos creen que las acciones de la administración Trump son más parecidas a un intento de suprimir a una empresa con una postura políticamente desagradable. En una nota interna filtrada, Dario Amodei escribió: "El Departamento de Defensa y la administración Trump no nos quieren por la verdadera razón de que no hicimos una donación a Trump. No lo elogiamos como lo hacen los dictadores (a diferencia de Sam Altman). Apoyamos la regulación de la IA, lo que entra en conflicto con su programa político; decimos la verdad sobre muchos temas de política de IA (como el problema del desplazamiento laboral); y nos hemos ceñido a principios en aspectos clave en lugar de conspirar para poner en marcha el llamado teatro de seguridad con ellos".

Sin embargo, Emil Michael (Subsecretario de Guerra) negó esta afirmación, llamándola "una completa invención". Dijo que incluir a Anthropic como un riesgo de la cadena de suministro se debe a que la postura de la empresa puede poner en riesgo a los combatientes de primera línea. Dijo: “En el Departamento de Guerra, mi trabajo no es la política; mi trabajo es defender la nación”.

La cultura de independencia de larga data de Anthropic ahora está chocando con la división política interna, las preocupaciones de seguridad nacional y un entorno empresarial competitivo despiadado. El alcance del daño que este enfrentamiento ha causado a la empresa aún no está claro. La amenaza inicial de “riesgo en la cadena de suministro” se redujo más tarde, según Anthropic, esta restricción actualmente solo se aplica a los contratos militares. El 9 de marzo, Anthropic demandó al gobierno de EE. UU. en un intento de revocar esta decisión de “inclusión en la lista negra”. Mientras tanto, algunos clientes parecen ver la postura de la empresa como una declaración moral y han cambiado de ChatGPT a Claude.

Sin embargo, en los próximos tres años, la empresa aún tendrá que navegar en un entorno gubernamental que no es amigable para ella, ya que algunos funcionarios dentro del gobierno tienen estrechos lazos con los competidores de Anthropic que tienen una clara animosidad hacia la empresa.

La "tormenta en el Pentágono" también ha planteado algunas preguntas inquietantes, incluso para una empresa que ya está acostumbrada a navegar por dilemas éticos de alto riesgo. En este enfrentamiento, Anthropic no retrocedió: la empresa insiste en que mantuvo sus valores fundamentales, incluso si eso le costó caro al negocio.

Pero en otras ocasiones, también ha hecho compromisos. En la misma semana del enfrentamiento en el Pentágono, Anthropic debilitó una disposición fundamental en su compromiso de seguridad del modelo de entrenamiento, argumentando que las empresas competidoras no estaban dispuestas a adherirse a los mismos estándares.

Surgen preguntas: Si la presión competitiva continúa intensificándose, ¿qué otras concesiones hará esta empresa en el futuro?

Las apuestas están aumentando continuamente. A medida que avanzan las capacidades de la IA, la competencia por quién controlará la IA solo se volverá más feroz.

El uso de Claude en operaciones en Venezuela e Irán demuestra que la IA avanzada se ha convertido en una herramienta crítica para los ejércitos más potentes del mundo. Más allá de estos desarrollos, también están aumentando una serie de nuevas presiones: los poderes de las naciones, la política interna y las necesidades de seguridad nacional. Y estas presiones recaen en una empresa con fines de lucro que está implementando rápidamente esta nueva tecnología altamente volátil.

En cierto sentido, la situación de Anthropic es algo similar a la de un biólogo en un laboratorio: para encontrar una cura, tienen que crear voluntariamente un patógeno peligroso en sus experimentos. Anthropic ha asumido un papel similar, explorando activamente los riesgos potenciales de la IA mientras continúa avanzando en la frontera tecnológica, en lugar de dejar este proceso a competidores que están más dispuestos a tomar atajos o incluso actuar de manera imprudente.

Sin embargo, aunque la empresa insiste en la precaución, está aprovechando Claude para acelerar el desarrollo de versiones futuras aún más potentes.

Internamente, muchos ven los próximos años como un período crucial, no solo para la empresa, sino para el mundo en general.

“Debemos asumir que entre 2026 y 2030 ocurrirán las cosas más críticas, los modelos serán más rápidos, más fuertes, hasta el punto de que podrían ser demasiado rápidos para que los humanos los controlen”, dijo Logan Graham, el líder del Equipo Rojo responsable del descubrimiento de vulnerabilidades y ataques simulados.

El jefe de Seguridad de Anthropic, Dave Orr, utilizó una metáfora más directa para describir la situación: “Estamos conduciendo por una carretera de montaña junto a un acantilado. Un error es fatal. Y ahora, nuestra velocidad ha pasado de 25 millas por hora a 75 millas por hora”.

Situado en el quinto piso de la sede de Anthropic en San Francisco, el diseño general es cálido y discreto: decoración de madera, iluminación suave. Fuera de la ventana hay un exuberante parque verde. Un retrato del pionero de la informática Alan Turing cuelga en la pared, junto a varios documentos enmarcados sobre aprendizaje automático.

Guardias de seguridad vestidas de negro patrullan la entrada casi vacía, mientras que un amable recepcionista entrega a los visitantes un folleto, del tamaño de una Biblia de bolsillo distribuida por predicadores callejeros. Este libro, titulado “Máquinas de Gracia Amante”, es un artículo de aproximadamente 14,000 palabras escrito por Dario Amodei en 2024, en el que describe su visión utópica de cómo la IA podría cambiar el mundo al acelerar los descubrimientos científicos.

Para enero de 2026, Amodei publicó otro artículo, de casi una novela, titulado “La Adolescencia de la Tecnología”, en el que se explora el lado negativo de esta tecnología: los riesgos que podría plantear, incluyendo la vigilancia generalizada, el desplazamiento significativo del empleo e incluso una pérdida permanente del control humano sobre la tecnología.

Amodei, oriundo de San Francisco, es biofísico. Él codirige Anthropic con su hermana, Daniela Amodei, quien es la presidenta de la empresa. Ambos hermanos fueron empleados tempranos de OpenAI. Dario participó en un descubrimiento clave, conocido como las leyes de escalamiento de la IA, que más tarde se convirtió en una base crítica para impulsar la actual fiebre de la IA. Mientras tanto, Daniela está a cargo de gestionar la política de seguridad de la empresa.

Inicialmente, vieron su misión como estrechamente alineada con el propósito fundador de OpenAI: desarrollar una tecnología que es al mismo tiempo enormemente prometedora y enormemente riesgosa, asegurando la seguridad.

Sin embargo, a medida que los modelos de OpenAI se volvieron más potentes, comenzaron a sentir que Sam Altman se apresuraba a lanzar nuevos productos sin permitir suficiente tiempo para una discusión y prueba exhaustiva. Al final, los hermanos decidieron dejar OpenAI e intentar por su cuenta.

“Estamos conduciendo por una carretera de montaña justo al borde del acantilado, donde un error es fatal”.


Dave Orr, jefe de seguridad en Anthropic

En 2021, en plena pandemia, Anthropic fue fundada por los hermanos Amodei y otros cinco cofundadores. Las reuniones preparatorias iniciales se llevaron a cabo casi en su totalidad por Zoom; más tarde, simplemente movieron las sillas a un parque para discutir la estrategia de desarrollo de la empresa en persona.

Desde el principio, la empresa buscó operar de una manera diferente. Antes de lanzar cualquier producto, Anthropic estableció un equipo dedicado a investigar el impacto social. La empresa incluso contrató a una filósofa residente, Amanda Askell. Su trabajo era ayudar a dar forma a los valores y comportamientos del sistema de IA Claude y enseñarle a tomar decisiones en situaciones de incertidumbre moral compleja, preparándose para un futuro que podría ser más inteligente que sus creadores humanos.

Askell describió este trabajo de la siguiente manera: “A veces realmente es un poco como criar a un niño de 6 años, enseñarle a este niño qué es bueno, qué es correcto. Pero el problema es que, cuando tienen 15 años, pueden ser más inteligentes que tú en todos los aspectos”.

La empresa tiene profundas raíces en el altruismo efectivo (EA). EA es un movimiento social y benéfico que aboga por maximizar el efecto del altruismo a través del análisis racional, con el objetivo clave de evitar riesgos que podrían llevar a consecuencias catastróficas.

A principios de los veinte años, los hermanos Amodei comenzaron a donar a GiveWell. GiveWell es una organización de EA que evalúa específicamente dónde los fondos benéficos pueden tener el mayor impacto en el mundo real. Los siete cofundadores de Anthropic, que ahora son todos multimillonarios en papel, se han comprometido a donar el 80% de su riqueza personal.

La filósofa de la empresa, Amanda Askell, es la exesposa del filósofo de Oxford William MacAskill, quien también es uno de los cofundadores del movimiento EA. El esposo de Daniela Amodei es Holden Karnofsky, cofundador de GiveWell, ex compañero de habitación de Dario Amodei y actualmente a cargo de la política de seguridad en Anthropic.

Sin embargo, los hermanos Amodei nunca han adoptado públicamente la etiqueta de "EA". Este concepto se volvió muy controvertido tras el incidente de Sam Bankman-Fried, donde un discípulo autoproclamado de la EA e inversor en Anthropic fue posteriormente implicado en una de las mayores estafas financieras de la historia americana.

Daniela Amodei explicó: "Es un poco como cómo algunas personas pueden coincidir con ciertas ideologías políticas en ciertos puntos pero no pertenecen realmente a un campo político específico. Tiendo a verlo de esta manera".

Para algunos en Silicon Valley y la administración Trump, la conexión entre Anthropic y el Altruismo Efectivo (EA) en sí es suficiente para despertar sospechas. Algunos creen que Anthropic ha reclutado a varios ex funcionarios de la administración Biden, lo que la hace más parecida a un remanente del viejo establishment, utilizando el poder no elegido para obstruir la agenda política MAGA de Trump.

El jefe de asuntos de IA de la administración Trump, David Sacks, acusó a la empresa de impulsar la regulación a través de una "histeria fabricada", afirmando que Anthropic está persiguiendo una "estrategia sofisticada de captura regulatoria". En su opinión, la empresa está tratando de exagerar los riesgos de la IA para impulsar políticas regulatorias estrictas, obteniendo así una ventaja competitiva y suprimiendo a las startups.

Mientras tanto, Elon Musk, competidor operativo de xAI, se burla frecuentemente de Anthropic, refiriéndose a la empresa como "Misantropía". Él cree que esta empresa representa a un grupo de élite con una ideología "despierta" que intenta inculcar un sistema de valores paternalista en los sistemas de IA. Este sentimiento, similar a la crítica conservadora de las plataformas de redes sociales que moderan injustamente sus puntos de vista, ha provocado la ira de algunos.

Sin embargo, incluso los competidores de Anthropic tienen que reconocer su destreza tecnológica. El CEO de Nvidia, Jensen Huang, ha expresado que "discrimina en casi todos los temas de IA" con las opiniones de Dario Amodei, pero aún considera a Claude un modelo "increíble".

En noviembre de 2025, la gigante de los chips Nvidia invirtió 10.000 millones de dólares en Anthropic.

Boris Cherny planteó una pregunta simple a su nueva herramienta: "¿Qué música estoy escuchando ahora mismo?"

Era septiembre de 2024, y el ingeniero de origen ucraniano se había unido a Anthropic hace menos de un mes. Cherny había trabajado anteriormente como ingeniero de software en Meta. Desarrolló un sistema que permitía al chatbot Claude "deambular libremente" en su computadora.

Si Claude era el cerebro, entonces Claude Code eran las manos. Mientras que un chatbot común solo podía conversar, esta herramienta podía acceder a los archivos de Cherny, ejecutar programas y escribir y ejecutar código como cualquier programador.

Después de que el ingeniero ingresó un comando, Claude abrió el reproductor de música de Cherny, tomó una captura de pantalla y luego respondió: "『Husk』 de Men I Trust".

Cherny se rió mientras recordaba: "En ese momento, realmente me quedé asombrado".

"A veces parece que estamos hablando en paradojas".

Deep Ganguli, jefe del equipo de impacto social de Anthropic

Boris Cherny compartió rápidamente su prototipo dentro de la empresa. Claude Code se propagó rápidamente dentro de Anthropic, hasta el punto de que durante la primera evaluación de desempeño de Cherny, el CEO Dario Amodei incluso le preguntó: "¿Estás intentando 'forzar' a tus colegas a usar esta herramienta?"

Cuando Anthropic lanzó públicamente una vista previa de investigación de Claude Code en febrero de 2025, los desarrolladores externos acudieron en masa para probarlo. Para noviembre, Anthropic lanzó una nueva versión del modelo Claude. Cuando este modelo se combinó con Claude Code, ya era lo suficientemente competente para detectar y corregir sus propios errores, hasta el punto de que se podía confiar en que completara tareas de forma independiente.

A partir de entonces, Cherny casi dejó de escribir su propio código.

El crecimiento del negocio también explotó. Para finales de 2025, los ingresos anualizados de este producto de agente de programación habían superado los 1.000 millones de dólares. Para febrero de 2026, este número había aumentado aún más a 25.000 millones de dólares. Según las empresas de investigación de la industria Epoch y SemiAnalysis, se espera que la escala de ingresos de Anthropic supere a la de OpenAI para finales de 2026.

Hasta ahora, Anthropic se ha consolidado firmemente como un actor clave en el mercado de la IA empresarial. Casi cada nuevo lanzamiento de producto provoca una oleada de impacto en los mercados de capitales.

Cuando Anthropic lanzó una serie de complementos, expandiendo Claude a aplicaciones no amigables para programadores como ventas, finanzas, marketing y servicios legales, la capitalización de mercado de las empresas del sector del software se evaporó en $300 mil millones en un corto período de tiempo.

Dario Amodei había advertido previamente que en los próximos 1 a 5 años, la inteligencia artificial podría reemplazar la mitad de los puestos de cuello blanco de nivel de entrada. También pidió al gobierno y a otras empresas de IA que dejasen de "blanquear" este problema.

La reacción de Wall Street a cada uno de los nuevos lanzamientos de productos de Anthropic también parece confirmar este punto: el mercado cree ampliamente que la tecnología de esta empresa podría hacer desaparecer una clase entera de empleos. Amodei incluso afirmó que este cambio podría remodelar las estructuras sociales.

En un artículo, escribió: "Actualmente no está claro a dónde irán estas personas o qué trabajo harán. Me preocupa que puedan formar una 'subclase' desempleada o con salarios extremadamente bajos".

Para los empleados de Anthropic, la ironía es fácil de notar: la empresa más preocupada por los riesgos sociales de la IA podría, irónicamente, convertirse en el impulsor de la tecnología que desplaza a millones de personas de sus empleos.

Deep Ganguli, jefe del equipo de impacto social responsable de investigar el impacto de Claude en el empleo, dijo: “Esto es, de hecho, una verdadera tensión, y pienso en este problema casi todos los días. A veces parece que estamos diciendo dos cosas mutuamente contradictorias al mismo tiempo”.

El depuesto presidente venezolano Nicolás Maduro y su esposa, Cilia Flores, fueron trasladados en avión el lunes 5 de enero de 2026 y llevados al Tribunal Federal de Manhattan. Fotografía: Vincent Alban—The New York Times/Redux

Dentro de la empresa, algunos empleados están empezando a preguntarse: ¿Se está Anthropic acercando a un momento que tanto anticipan como temen, la llegada de un proceso conocido en la comunidad de IA como "automejora recursiva"?

La automejora recursiva se refiere a un sistema de IA que comienza a mejorar sus propias capacidades y a mejorarse continuamente, creando un efecto de rueda de progreso acelerado.


En obras de ciencia ficción y simulaciones estratégicas en los principales laboratorios de IA, esto a menudo se ve como el punto en el que las cosas podrían empezar a salir mal: una llamada "explosión de inteligencia" podría ocurrir rápidamente, con una velocidad tan grande que los humanos ya no podrían supervisar los sistemas que han creado.

Anthropic aún no ha alcanzado realmente esa etapa, con científicos humanos aún guiando el desarrollo de Claude. Sin embargo, el Código Claude ya ha acelerado las iniciativas de investigación de la empresa mucho más allá de las tasas anteriores.

La cadencia de actualización ahora no se mide en meses, sino en "semanas". En el proceso de desarrollo de los modelos de próxima generación, entre el 70% y el 90% del código ahora es escrito por Claude mismo.

La velocidad del cambio ha llevado al cofundador y científico jefe de Anthropic, Jared Kaplan, junto con algunos expertos externos, a creer que la investigación de IA completamente automatizada podría surgir en tan solo un año.

El investigador Evan Hubinger, responsable de las pruebas de estrés de alineación de IA, declaró: "En el sentido más amplio, la automejora recursiva ya no es un fenómeno del futuro.
Es algo que está ocurriendo ahora mismo".

Según los puntos de referencia internos, Claude es ahora 427 veces más rápido que sus supervisores humanos en la realización de ciertas tareas críticas. En una entrevista, un investigador describió un escenario en el que un colega estaba ejecutando 6 instancias de Claude simultáneamente, cada una gestionando otros 28 Claudes, todos realizando experimentos en paralelo.

Actualmente, el modelo aún se queda atrás en juicio y estética en comparación con los investigadores humanos. Sin embargo, los ejecutivos de la empresa creen que esta brecha no persistirá por mucho tiempo. La aceleración resultante es precisamente el riesgo sobre el que la dirección de Anthropic ha advertido durante mucho tiempo: el ritmo del progreso tecnológico podría eventualmente superar el control humano.

El trabajo en el desarrollo de protocolos de seguridad en Anthropic también se está acelerando con la ayuda de Claude. Sin embargo, a medida que la empresa depende cada vez más de Claude para construir y probar sistemas, los riesgos están formando un bucle de retroalimentación. En algunos experimentos, el investigador Evan Hubinger realizó ajustes sutiles en el proceso de entrenamiento de Claude, lo que resultó en modelos que mostraban hostilidad abierta, no solo expresando deseos de dominar el mundo, sino incluso intentando socavar las medidas de seguridad de Anthropic.

Recientemente, los modelos también han demostrado una nueva capacidad: darse cuenta de que están siendo probados. Hubinger dijo: "Estos modelos están mejorando en ocultar su verdadero comportamiento".

En un escenario experimental diseñado por un grupo de investigadores, Claude incluso exhibió una inclinación estratégica preocupante: para evitar ser cerrado, estaba dispuesto a chantajear al exponer el asunto extramarital de un ingeniero ficticio.

A medida que Claude se utiliza para entrenar iteraciones aún más potentes de Claude en el futuro, este tipo de problemas pueden continuar acumulándose y escalando.

Para las empresas de IA que han recibido financiación de miles de millones en base a la promesa de "avances tecnológicos futuros", la idea de que la IA acelere continuamente su propia investigación y desarrollo es atractiva y potencialmente autosostenible, ya que convence a los inversores de que es necesario destinar más fondos para apoyar estos costosos esfuerzos de formación de modelos.

Sin embargo, algunos expertos no están completamente convencidos. No están seguros de si estas empresas pueden realmente lograr una investigación de IA completamente automatizada; sin embargo, también están preocupados de que, si esto ocurriera, el mundo podría quedar desprevenido.

La directora interina del Centro para la Seguridad y la Tecnología Emergente (CSET) de la Universidad de Georgetown, Helen Toner, declaró: "Algunas de las empresas más ricas del mundo, que emplean a algunas de las personas más inteligentes del planeta, están intentando automatizar la investigación de IA. La sola idea de esto es suficiente para provocar una respuesta del tipo: '¿Qué diablos está pasando?'".

Para abordar un futuro potencial en el que los avances tecnológicos superen la capacidad de una empresa para gestionar los riesgos por sí misma, Anthropic ha diseñado un conjunto de "mecanismos de freno" conocidos como la Política de Escalado Responsable (RSP).

Esta política se dio a conocer en 2023, con su compromiso central de: si Anthropic no puede garantizar de antemano que sus medidas de seguridad sean lo suficientemente confiables, la empresa pausará el desarrollo de un sistema de IA en particular.

Anthropic ve esta política como una demostración crucial de su compromiso con la seguridad, que incluso en la feroz carrera hacia la "superinteligencia", la empresa está dispuesta a resistir las presiones del mercado y a frenar de manera proactiva cuando sea necesario.

A finales de febrero de 2026, como informó por primera vez TIME, Anthropic realizó modificaciones en su política, revocando el compromiso previamente vinculante de "pausar el desarrollo".

En una retrospectiva, el cofundador y científico jefe de Anthropic, Jared Kaplan, dijo a Time que la creencia inicial de que la empresa podría trazar una línea clara entre "peligro" y "seguridad" era en realidad un "pensamiento ingenuo".

Dijo: "En el contexto del rápido desarrollo de la IA, si nuestros competidores avanzan a toda velocidad, comprometerse estrictamente unilateralmente no es realista".

La nueva política ha hecho algunos nuevos compromisos: aumentar la transparencia, divulgar más abiertamente los riesgos de seguridad de la IA; aumentar la divulgación de información, divulgar el rendimiento del modelo de Anthropic en las pruebas de seguridad; al menos igualar a los competidores en la inversión en seguridad, o incluso superarlos; si la empresa es considerada líder en la competencia de IA y el riesgo catastrófico se considera que está aumentando significativamente, el desarrollo relevante se "retrasará".

Anthropic describe este ajuste como una concesión pragmática al entorno del mundo real. Sin embargo, en general, la modificación de la Política de Escalado Responsable (RSP) reduce significativamente las restricciones de la empresa sobre su política de seguridad. Esto también presagia que se avecinan pruebas aún más difíciles.

La incursión para capturar al presidente venezolano Nicolás Maduro fue una de las primeras operaciones militares a gran escala planificadas con la participación de sistemas de inteligencia artificial de vanguardia.

En la noche del 3 de enero de 2026, helicópteros del Ejército de EE. UU. entraron de repente en el espacio aéreo venezolano. Tras un breve intercambio de disparos, el equipo de asalto identificó rápidamente la zona residencial del presidente y allí capturó a Maduro y a su esposa, Cilia Flores. Posteriormente, ambos fueron llevados a Nueva York para enfrentar cargos relacionados con el terrorismo de drogas.

Todavía no está claro para el mundo exterior cuánto contribuyó Claude a esta operación. Sin embargo, según informes de los medios, este sistema de IA no solo participó en la planificación de la misión, sino que también se utilizó para apoyar la toma de decisiones durante la operación.

Desde julio del año pasado, el Departamento de Defensa de los Estados Unidos ha estado presionando para distribuir las herramientas de IA de Anthropic a más combatientes de primera línea. Los militares creen que estos sistemas pueden procesar rápidamente grandes cantidades de datos de múltiples fuentes y generar inteligencia accionable, lo que los hace de inmenso valor estratégico.

Mark Beall, un ex alto funcionario del Departamento de Defensa de los Estados Unidos que ahora se desempeña como Líder de Asuntos Gubernamentales en la Red de Políticas de IA, dijo: "Desde la perspectiva militar, Claude es el mejor modelo en el mercado en este momento". Agregó: "La adopción de Claude en sistemas clasificados es uno de los éxitos más significativos de Anthropic. Tienen una ventaja de primer movimiento".

"No utilizaremos modelos de IA que te impidan luchar."

Pete Hegseth, EE. UU. Secretario de Defensa

Sin embargo, la operación para capturar al presidente venezolano Nicolás Maduro está teniendo lugar en el contexto de una serie de negociaciones complicadas entre Anthropic y el Departamento de Defensa de los Estados Unidos.

Durante meses, el Departamento de Defensa ha estado intentando renegociar el contrato, creyendo que los términos existentes restringen en exceso el uso de Claude. Las razones del fracaso de las negociaciones no son consistentes desde ambos lados.

Emil Michael, jefe de IA en el Pentágono, declaró que el conflicto se desató por una llamada telefónica de un ejecutivo de Anthropic a Palantir. Esta empresa de análisis de datos, que se centra en los negocios gubernamentales, es un socio clave en el sistema de defensa de EE. UU.

Según Michael, el ejecutivo expresó su preocupación por la incursión en Venezuela durante la llamada y preguntó si el software de Palantir estaba involucrado. "Estaban tratando de obtener información clasificada", dijo Michael.

Este incidente generó serias preocupaciones en el Pentágono: "¿De repente cerrarían su modelo a mitad de una operación en el futuro, poniendo en riesgo a los soldados de primera línea?"

Sin embargo, Anthropic niega esta afirmación. La empresa afirmó que nunca intentó restringir selectivamente el uso de su tecnología por parte del Pentágono.

Un exfuncionario de la administración Trump familiarizado con el proceso de negociación y estrechamente vinculado a Anthropic ofreció una versión diferente de los hechos: Fue un empleado de Palantir quien mencionó por primera vez el papel de Claude en esa operación durante una llamada de conferencia de rutina.

Las preguntas posteriores de Anthropic no mostraron signos de oposición a la operación.

Ilustración de Klawe Rzeczy para TIME, Fuentes de imagen: Dimitrios Kambouris—Getty Images (Donald Trump); Kenny Holston-Pool—Getty Images (Pete Hegseth)

A medida que las negociaciones continuaban, los funcionarios gubernamentales sentían cada vez más que la postura de Dario Amodei era mucho más terca que la de otros directores ejecutivos de laboratorios de IA líderes. Según múltiples fuentes familiarizadas con el proceso de negociación, en una discusión, los funcionarios de Defensa presentaron algunos escenarios hipotéticos, como: un misil hipersónico dirigiéndose hacia el territorio continental de EE. UU.; o un ataque de drones enjambres.

En estos casos, preguntaron si se podría utilizar la herramienta de IA de Anthropic.

Las fuentes dijeron que la respuesta de Amodei en ese momento fue: si realmente llegara a eso, los funcionarios podrían llamarlo directamente. Sin embargo, un portavoz de Anthropic lo negó, calificando la descripción del proceso de negociación de "totalmente falsa".

Anthropic ya tenía fuertes adversarios dentro del gobierno, y ahora, las sospechas sobre sus "inclinaciones ideológicas" se han convertido en hostilidad abierta. El 12 de enero de 2026, Pete Hegseth declaró sin rodeos durante un discurso en la sede de SpaceX: "No utilizaremos modelos de IA que te impidan luchar."

A medida que las negociaciones seguían demorándose, Hegseth convocó a Dario Amodei al Pentágono para una reunión cara a cara el 24 de febrero. Según una fuente familiarizada con las discusiones, la reunión fue cordial, pero ambas partes se mantuvieron firmes en sus posiciones. Hegseth elogió inicialmente a Claude y expresó el deseo de los militares de seguir colaborando con Anthropic. Amodei, por otro lado, afirmó que la empresa estaba dispuesta a aceptar la mayoría de los cambios propuestos por el Pentágono, pero no cedería en dos cuestiones de "línea roja".

La primera línea roja es: prohibir el uso de Claude en sistemas de armas cinéticas totalmente autónomos, es decir, armas en las que la decisión final de ataque la tome la IA en lugar de un ser humano.

Anthropic no cree intrínsecamente que las armas autónomas sean incorrectas, pero argumenta que Claude actualmente no es lo suficientemente fiable como para controlar estos sistemas sin supervisión humana.

La segunda línea roja se refiere a la vigilancia masiva de los ciudadanos estadounidenses. El gobierno quiere utilizar a Claude para analizar grandes cantidades de datos públicos, pero Anthropic cree que las leyes de privacidad existentes en los Estados Unidos no se han adaptado a una realidad preocupante: el gobierno está comprando enormes conjuntos de datos del mercado comercial. Aunque individualmente estos conjuntos de datos pueden no ser sensibles, una vez analizados por la IA, podrían generar perfiles detallados de la vida privada de los ciudadanos estadounidenses, incluidos sus puntos de vista políticos, relaciones sociales, comportamiento sexual e historiales de navegación. (Sin embargo, Anthropic no se opone a utilizar el mismo método para monitorear legalmente a ciudadanos extranjeros).

Hegseth no estaba convencido. Hizo un último ultimátum a Amodei: los términos del Pentágono deben ser aceptados antes de las 5:00 PM del viernes 27 de febrero, o de lo contrario se considerarán un "riesgo en la cadena de suministro".

El día antes de la fecha límite, Anthropic recibió un contrato revisado que parecía aceptar las condiciones de la empresa, pero tras una inspección más detallada, encontraron lagunas que favorecían al gobierno. Una fuente familiarizada con las negociaciones dijo que, a medida que el tiempo se agotaba, los ejecutivos de Anthropic tuvieron otra llamada con Emil Michael, el responsable de IA del Pentágono. Creían que estaban cerca de un compromiso, pero un problema clave seguía sin resolverse: si el Pentágono podía usar Claude para analizar datos estadounidenses a gran escala adquiridos a través de canales comerciales. Michael solicitó a Amodei que se uniera a la llamada, pero no estaba disponible en ese momento.

Unos minutos después, justo en la fecha límite, Hegseth anunció el fin de las negociaciones. Incluso antes de esto, Donald Trump ya había hablado en sus redes sociales: "!Estados Unidos de América nunca permitirá que una empresa izquierdista radical y 'despierta' decida cómo nuestro gran ejército debe operar y ganar guerras! Los lunáticos izquierdistas de Anthropic han cometido un error catastrófico".

Sin el conocimiento de Anthropic, el Pentágono también estaba en negociaciones con OpenAI, buscando introducir ChatGPT en sistemas gubernamentales clasificados. Esa misma noche, Sam Altman anunció que se había llegado a un acuerdo, afirmando que el acuerdo también respetaba líneas rojas de seguridad similares. Amodei luego envió un mensaje a sus empleados, afirmando que Altman y el Pentágono estaban "manipulando la opinión pública", intentando hacer creer al público que este acuerdo incluía estrictas barreras de seguridad. Anteriormente, funcionarios del Pentágono también confirmaron que los modelos de xAI se desplegarían en servidores clasificados; el Pentágono está actualmente en negociaciones con Google.

Este era exactamente el escenario que había estado preocupando a Amodei: una carrera de "competencia descendente". Cuando el poder de la IA se vuelve demasiado grande para ignorarlo, a los competidores les resulta difícil cooperar y elevar juntos los estándares de seguridad.

Para los críticos de Anthropic, este evento también expuso una arrogancia central de la empresa: quizás creía que podía navegar con seguridad por el camino hacia las máquinas superhumanas, haciendo que tomar tales riesgos enormes valiera la pena. Pero la realidad es que introdujo rápidamente nuevas capacidades de vigilancia y tecnologías de guerra en un sistema gubernamental de derecha, y cuando intentó establecer límites para estas tecnologías, fue inmediatamente superado por la competencia.

Precio de --

--

"No alabamos a Trump como un dictador".


Dario Amodei, abordando la raíz del conflicto con el Pentágono en un memorando a los empleados

Sin embargo, algunos signos indican que Anthropic puede ser capaz de resistir este impacto, e incluso salir más fuerte de él. Justo al día siguiente de que Pete Hegseth intentara firmar la "fórmula de muerte corporativa", apareció una serie de mensajes alentadores escritos con tiza en la acera frente a la sede de San Francisco. "Nos dieron coraje", decía un mensaje en letras **negritas**.

Ese mismo día, la aplicación de iPhone de Claude encabezó las listas de descargas de la App Store, superando a ChatGPT. Más de un millón de personas se registran en Claude todos los días.

Al mismo tiempo, el contrato que OpenAI firmó con el ejército provocó resistencia interna y comunitaria. Algunos empleados de OpenAI sienten que la empresa ha perdido la confianza. Un investigador de primer nivel anunció su traslado a Anthropic; el jefe del equipo de robótica de OpenAI renunció debido a este contrato gubernamental.

El director ejecutivo de OpenAI, Sam Altman, también admitió más tarde que su deseo de llegar a un acuerdo con el Pentágono para el viernes fue un error. Escribió: "Estos problemas son extremadamente complejos y requieren una comunicación clara y exhaustiva". Para el lunes, Altman reconoció además que sus acciones en ese momento "parecían oportunistas". OpenAI también declaró que el acuerdo se ha revisado para adoptar explícitamente las mismas líneas rojas de seguridad que Anthropic. Sin embargo, los expertos legales señalan que es difícil confirmar esta afirmación sin ver el contrato completo.

El 4 de marzo, Anthropic recibió una carta oficial del Departamento de Defensa de los Estados Unidos confirmando que la empresa había sido identificada como un riesgo para la cadena de suministro de seguridad nacional. Anthropic afirmó que esta designación es más limitada de lo que Hegseth afirmó en las redes sociales, restringiendo solo a los contratistas de usar Claude en contratos de defensa.

Sin embargo, una carta vista por la revista Time dirigida al presidente del Comité de Inteligencia del Senado, Tom Cotton, reveló que el Departamento de Defensa también invocó otra disposición legal, una que podría permitir a las agencias gubernamentales fuera del Pentágono excluir a Anthropic de sus contratos y cadenas de suministro. Esta medida requiere la aprobación de altos funcionarios del Departamento de Defensa y da a Anthropic una ventana de 30 días para responder.

Este conflicto podría desencadenar un efecto dominó en toda la industria de la IA. Dean Ball, que participó en la redacción de la Iniciativa de IA de Trump y ahora trabaja en el grupo de expertos Foundation for American Innovation, dijo: "Algunas personas en la administración Trump se sentirán muy duras con esto, casi flexionando sus bíceps ante sí mismos por la noche".

Sin embargo, también advirtió que este evento podría llevar a las empresas a ser reacias a trabajar con el Pentágono, incluso a trasladar sus operaciones al extranjero. "A la larga, esto no es bueno para la imagen de los Estados Unidos como un entorno empresarial estable", dijo Ball, "y la estabilidad es en lo que confiamos".

La dirección de Anthropic cree que Claude ayudará a construir sistemas de IA más robustos lo suficientemente potentes como para desempeñar un papel decisivo en la futura estructura de poder global.

Si ese es el caso, entonces el conflicto entre esta empresa y el Pentágono podría ser solo un preludio de un proceso histórico más amplio.

[Enlace al artículo original]

Te puede gustar

Los mercados de predicciones ganan tracción en los EE. UU. y Canadá, Claude lanza la función de Interacción de Gráficos, ¿De qué habla hoy la comunidad inglesa?

¿Qué les importó más a los extranjeros en las últimas 24 horas?

500 millones de dólares, 12 segundos para llegar a cero: Cómo una transacción de Aave alimentó la cadena alimentaria del «bosque oscuro» de Ethereum

Gasta 154 000 $ para comprar AAVE al precio de mercado de solo 111 $.

El agente de IA necesita criptomonedas, no las criptomonedas necesitan IA.

No es la criptografía la que necesita la IA para sobrevivir, sino más bien los agentes de IA los que necesitan la criptografía para ser implementados: cuando la IA pasa realmente de «pensar» a «ejecutar», debe buscar los límites de la autoridad y la financiación dentro de las primitivas programables de la criptografía.

Las stablecoins se están separando de las criptomonedas y se están convirtiendo en la próxima generación de infraestructura para los pagos globales.

El uso de las monedas estables está pasando de facilitar las remesas transfronterizas de bajo coste a respaldar las actividades comerciales generales y los pagos entre empresas.

Los equipos de Web3 deberían dejar de malgastar sus presupuestos de marketing en la plataforma X.

Los anuncios de la parte del proyecto siguen siendo muy importantes, pero ya no deben ser el punto de partida de las actividades promocionales, sino el punto final.

Strive compra acciones de Strategy, y las compañías del tesoro Bitcoin comienzan a anidarse

Cuando las apuestas de todos se colocan en la misma mesa, la diferencia entre "financiación estructurada" y "juego concentrado" puede ser solo unas flechas más dibujadas en el PPT.

Monedas populares

Últimas noticias cripto

Leer más