Игровой шаг Anthropic на IPO: В самый неподходящий момент она решила сказать «Нет»
Представьте себе такой сценарий.
Вы отстаете от графика по оплате коммунальных услуг на три месяца, вы были в больнице в прошлом месяце, вы добросовестно подаете налоговую декларацию каждый год. Эти вещи кажутся несвязанными.
Но в определенной системе ИИ эти три куска информации агрегируются, генерируя красную точку на карте. Эта красная точка представляет ваше местоположение и директивную инструкцию правоохранительных органов, направленную на вас.
Это не научная фантастика. В начале 2026 года США Федеральное агентство по иммиграции провело крупномасштабную операцию в Миннеаполисе, руководствуясь этой логикой. Соответствующая ИИ-система принадлежит компании по обработке данных под названием Palantiр, которая объединяет медицинские записи иммигрантов, счета за коммунальные услуги и налоговую информацию в один алгоритм, холоднокровно отмечая одну за другой цели для преследования.
ИИ превращается в оружие. Не в будущем времени, а в настоящем.
Вопрос уже не в том, произойдет ли это, а в том, кто имеет право решать, что он может, а что не может делать.
27 февраля 2026 года на этот вопрос был получен тревожный ответ.
В тот день компания под названием Anthropic — компания по разработке ИИ, разработчик разговорного ИИ-продукта Claude, конкурент уровня ChatGPT — была официально запрещена правительством США. Причиной запрета стало ее отказ разрешить использование своего ИИ для мониторинга граждан США и автономного выбора целей для ликвидации.
Она была классифицирована как «риск для национальной безопасности», потому что она сказала: «Этого нельзя использовать таким образом».

Что больше всего нужно компании, готовящейся к IPO
Прежде чем ответить на вопрос «Почему Anthropic не пойдет на компромисс», необходимо понять, где она находится сейчас.
Anthropic — одна из самых дорогих в мире компаний в области ИИ, ее стоимость составляет 380 миллиардов долларов, а годовой доход — 14 миллиардов долларов в 2025 году. Ее крупнейшим акционером является Amazon, доля которого превышает долю любого другого акционера. Ее модель ИИ Claude — одна из самых быстрорастущих продуктов ИИ на корпоративном рынке в настоящее время.
По любым стандартам это компания, готовая к выходу на биржу. Фактически, Anthropic действительно готовится к IPO в этом году, что позволит обычным людям покупать ее акции.
Что больше всего нужно компании, готовящейся к IPO? Ответ не требует особых размышлений: стабильность, предсказуемость и отсутствие проблем с регуляторами. Любое негативное событие может повлиять на доверие инвесторов к компании и, таким образом, снизить цену IPO.
Затем события пошли совершенно в противоположном направлении.
В июле 2025 года Пентагон одновременно заключил контракт на сумму до 200 миллионов долларов с Anthropic, OpenAI (разработчиком ChatGPT), Google и xAI Маска с целью интеграции передовых технологий ИИ в военную систему США. Это была крупнейшая государственная закупка в истории ИИ.
Примечательно, что в контракте Anthropic содержалась деталь, которой не было у других трех компаний. В нем явно были указаны два ограничения на использование: Claude не мог использоваться для массового наблюдения за американскими гражданами или для автономных систем вооружений без человеческого контроля.
OpenAI, Google, xAI, все согласились с тем, что военные могут использовать ИИ для всех законных целей без каких-либо дополнительных ограничений. Только Anthropic провела две красные линии в контракте.
Эти две красные линии позже стали отправной точкой всех проблем.
Ультиматум
В феврале 2026 года Пентагон решил оказать давление на Anthropic.
Министр обороны Пит Хегсет выдвинул ультиматум генеральному директору Anthropic Дарио Амодеи: снять ограничения на использование из контракта, разрешив использовать Claude в любых законных целях. В противном случае Пентагон расторгнет контракт и объявит Anthropic «риском для цепочки поставок». Крайний срок был 27 февраля.
Ответ Дарио был: Нет.
В своем публичном заявлении он написал: «Мы понимаем, что военные решения принимаются правительством, а не частными предприятиями. Но в очень редких случаях мы считаем, что ИИ может подорвать, а не поддержать демократические ценности. У нас чистая совесть, и мы не можем принять их требования».
Эмиль Майкл, руководитель отдела технологий Пентагона, затем опубликовал в социальных сетях сообщение, назвав Дарио мошенником, обвинив его в том, что у него божественный комплекс, и он пытается лично контролировать армию США, рискуя национальной безопасностью.

Затем появился сам Трамп. Он написал на своей собственной социальной платформе, Truth Social, что Anthropic — это «компания, пробуждающая радикальный левый», которая «поделала катастрофическую ошибку», и приказал: всем федеральным агентствам прекратить немедленно использовать все продукты Anthropic, при этом переход должен быть завершен в течение 6 месяцев.
Пентагон оперативно классифицировал Anthropic как «риск цепочки поставок».
Эта маркировка ранее использовалась только для обозначения компаний, связанных с иностранными противниками, такими как Китай. Она использовалась для Huawei и SMIC. Теперь настала очередь американской компании в области ИИ со штаб-квартирой в Сан-Франциско с оценкой в 380 миллиардов долларов.
200 миллионов долларов — это мелочь, настоящая проблема здесь
Первоначальная реакция многих людей была: потеря государственного контракта на 200 миллионов долларов — это всего лишь небольшая доля для Anthropic с годовым доходом в 14 миллиардов долларов.
Эта оценка верна, но акцент неправильный.
Настоящее влияние исходит от самой маркировки «риск цепочки поставок». Это означает, что любая компания, сотрудничающая с армией США, должна доказать, что ее бизнес не связан с Anthropic. Это не мягкое этическое давление, а строгая обязанность по соблюдению требований.
Следуя этой линии рассуждений, масштабы воздействия начинают выглядеть менее оптимистично.
Amazon Web Services — это основная операционная инфраструктура Claude, а также крупнейший облачный провайдер для правительства США, при этом между ними существует глубокая интеграция. Компания по анализу данных Palantir, обслуживая военные и разведывательные агентства США, использует Claude. Компания по оборонным технологиям Anduriл обрабатывает данные с использованием Claude в проектах, связанных с Пентагоном.
Теперь этим клиентам приходится делать выбор: продолжать использовать Claude, сталкиваясь с давлением сотрудничества с компанией, представляющей «риск для цепочки поставок», или заменить Claude, инструмент, глубоко интегрированный в их рабочие процессы.
Оба варианта являются убыточными для Anthropic. Это реальный риск, которым нужно управлять, он гораздо более серьезный, чем сумма контракта в 200 миллионов долларов.
Все эти неприятности происходят перед IPO.
Почему все же произошло отклонение
Ситуация становится интригующей.
Компания, которая стремится к IPO, в последний момент, когда это необходимо, получает проблемы, но она решила противостоять давлению правительства. Это ошибка в деловом суждении или расчетливая азартная игра?
Если поставить два варианта рядом, логика станет яснее.
Если они пойдут на компромисс, контракт будет спасен, отношения с правительством будут сохранены, и непосредственные проблемы исчезнут. Но самая главная история бренда Anthropic за последние три года — «самая ответственная компания в области ИИ», «безопасность прежде всего» — в этот момент получит трещину.
Больший риск не немедленный. Как только Claude будет фактически использоваться для широкомасштабного наблюдения или принятия решений об автономном оружии, как только произойдет какая-либо неудача, потеря будет не только контрактом, но и всей концепцией оценки компании. Премия, которую инвесторы изначально заплатили за историю «Ответственного ИИ», исчезнет в одночасье.
Если откажут, потеряют 200 миллионов долларов, получат ярлык риска цепочки поставок и, по сути, закроют правительственный рынок. Но рекламная кампания «Безопасность прежде всего» получила самое дорогостоящее публичное одобрение в истории. Ни один бюджет на пиар не смог бы купить такой эффект, поскольку компания была запрещена правительством за отказ позволить ИИ отслеживать граждан страны.
В заявлении Дарио есть предложение, на которое стоит обратить внимание: «Наша оценка и доходы растут только после этой позиции».
Это заявление для пиара или деловая оценка? Это может быть и то, и другое, но это не противоречит друг другу.
Есть контрпример, который стоит учитывать. Компания Palantir, упомянутая ранее компания по обработке данных, которая использовала ИИ для помощи федеральному иммиграционному агентству в отслеживании целей, пошла совершенно другим путем. Она полностью удовлетворила все требования правительства, открывшись для отслеживания иммиграции, анализа разведывательных данных и определения военных целей. В результате она была отвергнута социально ответственным кругом основного капитала почти на двадцать лет, не могла долгое время привлекать деньги и была исключена из числа крупных фондов.
Затем, в 2024 году, когда военный нарратив ИИ стал основной темой рынка, цена акций компании выросла на 150% за год, а рыночная стоимость превысила 400 миллиардов долларов.
Два пути, две судьбы, у каждой своя логика. Palantir обменял двадцать лет терпения на сегодняшнюю эксплозию. Anthropic делает ставку на другую логику оценки — в условиях сегодняшней ожесточенной однородной конкуренции среди компаний в области ИИ «самый безопасный ИИ» — это не просто этическая позиция, но и реальная конкурентная преграда.
Какая ставка больше — пока неизвестно. Но в Anthropic явно считают, что цена компромисса выше, чем цена отказа.
Сможет ли ставка Дарио окупиться?
Ответ на этот вопрос зависит от нескольких переменных, которые еще не реализовались.
Во-первых, это реальный отклик корпоративных клиентов. Amazon, Palantir и Anduril активно отключат лингвального ассистента Claude из-за ярлыка «риск цепочки поставок» или решат оставаться в стороне и ждать, пока ситуация изменится? В настоящее время эти компании не сделали публичного заявления. Если они решат подождать и посмотреть, фактические потери Anthropic действительно составят всего 200 миллионов долларов из правительственного контракта.
Следующая проблема - это практическая сложность замены правительства. Даже собственный департамент Пентагона, использующий Claude внутри, признает: Claude в настоящее время является одной из самых мощных доступных моделей ИИ, в то время как Grok Маска все еще отстает от нее в техническом плане. Замена означает снижение качества использования. Кто понесет эти затраты?
Наконец, есть неожиданно далеко идущие последствия этого вопроса. В тот самый день, когда Anthropic был заблокирован, Сэм Альтман, генеральный директор OpenAI, разработчика ChatGPT, публично занял позицию: OpenAI и Anthropic разделяют «одну и ту же красную линию» относительно границы использования военного ИИ, и обе компании занимают единую позицию.
Иными словами, если правительство ищет альтернативу, которая готова полностью подчиняться без каких-либо ограничений, вариантов гораздо меньше, чем кажется.

Процесс милитаризации ИИ не замедлится из-за этого. Grok Маска уже проник в секретную сеть Пентагона, другие компании в области ИИ не упустили возможность получить военные контракты, а системы оружия с поддержкой ИИ продолжают развиваться.
Выбор Anthropic не меняет эту траекторию. Меняется только то, где она находится на этой траектории.
Но одно можно сказать наверняка: это первый случай в истории индустрии ИИ, когда крупная компания открыто противостояла давлению правительства, основываясь на четких принципах, даже если в итоге она заплатила за это своей репутацией. Независимо от исхода этой азартной игры, этот прецедент теперь существует.
Последняя арифметическая задача для читателя: компания стоимостью 380 миллиардов долларов ради двух принципов, записанных в контракте, отказалась от всего государственного рынка и была классифицирована как угроза национальной безопасности.
В современную эпоху ускоренной милитаризации ИИ то, как вы решаете эту задачу, зависит от того, что вы считаете самым ценным в будущем.
Вам также может понравиться

Хакертон WEEX AI: Как этому победителю в торговле с использованием ИИ удалось добиться успеха?
Самоучка, увлечённый торговлей с использованием ИИ, вошёл в десятку лучших участников хакертона WEEX AI. Узнайте о мышлении, инструментах ИИ и уроках, стоящих за этой впечатляющей работой.

Один баланс, чтобы править всем: Цель Gravitas — стать ведущим брокерским агентством на блокчейне

Человек, который продал свои NFT на пике бума, теперь продает новый ковш в OpenClaw

Почему OpenAI пытается догнать Claude Code?

Виталик написал предложение, в котором объясняется, как тайно использовать большие модели ИИ

Удвоение цены акций Circle и смена парадигмы стейблкоинов

Всплеск опционов на цепочке.ActionEvent

Журнал «Time» называет Anthropic самой разрушительной компанией в мире

Рынок предсказаний набирает популярность в США и Канаде, компания Claude запускает функцию взаимодействия с диаграммами, о чем сегодня говорит английское сообщество?

500 миллионов долларов, 12 секунд до нуля: Как транзакция Aave накормила "Темный лес" экосистемы Ethereum

Агент ИИ нуждается в Крипто, а не Крипто в ИИ

Стейблкоины отрываются от криптовалют, становясь инфраструктурой следующего поколения для глобальных платежей

Командам Web3 следует прекратить тратить маркетинговые бюджеты на платформу X

Strive покупает акции Strategy, а компании-казначейства Bitcoin начинают вкладывать друг в друга

Ключевая информация о рынке 12 марта: чего вы не заметили?

Стремитесь купить акции Strategy, компания Bitcoin Treasury начинает вкладывать куклы друг в друга

Новый центр Крипто

Долгая статья бывшего директора по продукту Coinbase: У меня есть сожаления, но я все еще твердо верю в криптовалюту
Хакертон WEEX AI: Как этому победителю в торговле с использованием ИИ удалось добиться успеха?
Самоучка, увлечённый торговлей с использованием ИИ, вошёл в десятку лучших участников хакертона WEEX AI. Узнайте о мышлении, инструментах ИИ и уроках, стоящих за этой впечатляющей работой.