ІПЦ Антропік: У найнесподіваніший момент вона вирішила сказати «ні»
Уявіть такий сценарій.
Ви заборгували за комунальні послуги за три місяці, минулого місяця ви зверталися до лікарні, щороку сумлінно подаєте податкову декларацію. Ці речі здаються непов'язаними.
Але в певній системі штучного інтелекту ці три фрагменти інформації об'єднуються, генеруючи червону крапку на карті. Ця червона крапка представляє ваше місцезнаходження та директивну вказівку правоохоронних органів, спрямовану на вас.
Це не наукова фантастика. На початку 2026 року в США Федеральне агентство з питань імміграції провело масштабну операцію в Міннеаполісі, керуючись цією логікою. Відповідна система штучного інтелекту належить компанії з обробки даних під назвою Palantir, яка інтегрує медичні записи іммігрантів, рахунки за комунальні послуги та податкову інформацію в алгоритм, холоднокровно позначаючи цілі для переслідування одна за одною.
Штучний інтелект перетворюється на зброю. Не в майбутньому часі, а в теперішньому.
Питання вже не в тому, чи це станеться, а в тому, хто має право вирішувати, що він може, а чого не може робити.
27 лютого 2026 року на це питання було отримано тривожну відповідь.
У той день компанія під назвою Anthropic — компанія зі штучного інтелекту, розробник продукту для розмовного штучного інтелекту Claude, конкурент на рівні ChatGPT — була офіційно заборонена урядом США. Причиною заборони стало її відмову дозволити використовувати свій штучний інтелект для стеження за громадянами США та автономного вибору цілей для усунення.
Її класифікували як "ризик для національної безпеки", оскільки вона заявила: "Це не можна використовувати таким чином".

Чого найбільше потребує компанія, що готується до випуску акцій
Перш ніж відповісти на запитання «Чому Anthropic не піде на компроміс?», необхідно зрозуміти, де вона зараз знаходиться.
Anthropic – одна з найдорожчих у світі компаній зі штучним інтелектом, вартість якої становить 380 мільярдів доларів, а річний дохід – 14 мільярдів доларів у 2025 році. Її найбільшим акціонером є Amazon, частка якого перевищує частку будь-якого іншого акціонера. Її модель штучного інтелекту Claude – один із найшвидше зростаючих продуктів штучного інтелекту на корпоративному ринку наразі.
За будь-якими стандартами це компанія, готова до виходу на публічний ринок. Насправді Anthropic дійсно готується до IPO цього року, що дозволить звичайним людям купувати її акції.
Що найбільше потрібно компанії, яка готується до IPO? Відповідь не вимагає багато думок: стабільність, передбачуваність і відсутність регуляторних проблем. Будь-яка негативна подія може вплинути на довіру інвесторів до компанії і, таким чином, знизити ціну IPO.
Потім ситуація пішла зовсім іншим шляхом.
У липні 2025 року Пентагон одночасно уклав контракт на суму до 200 мільйонів доларів з Anthropic, OpenAI (розробником ChatGPT), Google та xAI Маска з метою інтеграції передових технологій штучного інтелекту в військову систему США. Це була найбільша державна закупівля в історії штучного інтелекту.
Зокрема, контракт Anthropic містив деталь, якої не було в інших трьох компаній. Він чітко вказував два обмеження щодо використання: Claude не можна використовувати для масового спостереження за американськими громадянами або для автономних систем озброєння без нагляду людини.
OpenAI, Google, xAI, всі погодилися, що військові можуть використовувати штучний інтелект для всіх законних цілей без будь-яких додаткових обмежень. Тільки Anthropic поставила два червоні пункти в контракті.
Ці два червоні пункти пізніше стали відправною точкою всіх неприємностей.
Ультиматум
У лютому 2026 року Пентагон вирішив чинити тиск на Anthropic.
Міністр оборони Піт Хегсет висунув ультиматум генеральному директору Anthropic Даріо Амодеї: зніміть обмеження на використання з контракту, дозволяючи використовувати Claude в усіх законних цілях. Інакше Пентагон скасує контракт і визначить Anthropic як «ризик у ланцюжку поставок». Крайній термін був 27 лютого.
Відповідь Даріо була такою: Ні.
У публічній заяві він написав: «Ми розуміємо, що військові рішення приймаються урядом, а не приватними підприємствами. Але в дуже рідкісних випадках ми вважаємо, що ШІ може підривати, а не підтримувати демократичні цінності. Ми маємо чисту совість і не можемо прийняти їхні вимоги».
Еміль Майкл, керівник технологічного напрямку Пентагону, потім розмістив у соціальних мережах пост, назвавши Даріо шахраєм, звинувативши його в тому, що він має комплекс бога і намагається особисто контролювати армію США, ризикуючи національній безпеці.

Потім прийшов сам Трамп. Він написав на своїй соціальній платформі Truth Social, що Anthropic - це "радикальна компанія лівого пробудження", яка "помилилася катастрофічно", і наказав: всім федеральним урядовим агентствам негайно припинити використання всіх продуктів Anthropic, перехід має бути завершений протягом 6 місяців.
У Пентагоні оперативно класифікували Anthropic як "ризик ланцюга постачання".
Ця мітка раніше використовувалася лише для позначення компаній, пов'язаних з іноземними противниками, такими як Китай. Вона використовувалася для Huawei та SMIC. Тепер настала черга американської компанії зі штучного інтелекту зі штаб-квартирою в Сан-Франциско з оцінкою в 380 мільярдів доларів.
200 мільйонів доларів - це дрібниця, справжня проблема тут
Початкова реакція багатьох людей була такою: втрата державного контракту на суму 200 мільйонів доларів - це лише невелика частка для Anthropic з річним доходом у 14 мільярдів доларів.
Ця оцінка правильна, але акцент неправильний.
Справжній вплив виходить від самої мітки "ризик ланцюга постачання". Це означає, що будь-яка компанія, яка співпрацює з армією США, повинна довести, що її бізнес не мав відношення до Anthropic. Це не м'який етичний тиск, а сувора вимога щодо дотримання вимог.
Якщо продовжувати цей ланцюжок думок, сфера впливу починає виглядати менш оптимістично.
Amazon Web Services є основною операційною інфраструктурою Claude, а також найбільшим постачальником хмарних послуг для уряду США, причому між ними існує глибока інтеграція. Компанія з аналітики даних Palantir, яка обслуговує армію США та розвідувальні агентства, використовує Claude. Компанія з оборонних технологій Anduriл обробляє дані за допомогою Claude в проектах, пов'язаних із Пентагоном.
Тепер цим клієнтам доводиться робити вибір: продовжувати використовувати Claude, стикаючись із тиском через співпрацю з компанією, яка становить "ризик для ланцюга постачання", або замінити Claude, інструмент, який глибоко інтегрований у їхні робочі процеси.
Обидва варіанти є втратами для Anthropic. Це реальний ризик, яким потрібно керувати, набагато серйозніший, ніж сума контракту в 200 мільйонів доларів.
Усі ці неприємності відбуваються перед IPO.
Чому відмова все ж сталася
Ситуація стає інтригуючою.
Компанія, яка поспішає до IPO, останнє, що їй потрібно в цей критичний момент, — це неприємності, проте вона вирішила протистояти тиску уряду. Чи це помилка в бізнес-рішенні, чи розрахована азартна гра?
Поставте два варіанти поруч, і логіка стане зрозумілішою.
Якщо вони підуть на компроміс, контракт буде збережено, відносини з урядом збережуться, а негайні неприємності зникнуть. Але найважливіша наративна марка Anthropic за останні три роки — «найвідповідальніша компанія в галузі штучного інтелекту», «безпека на першому місці» — отримає тріщину в цей момент.
Більший ризик не є негайним. Як тільки Claude буде фактично використано для широкомасштабного спостереження або прийняття рішень щодо автономної зброї, як тільки станеться якась невдача, втрати будуть не лише контракту, але й всієї теорії оцінки компанії. Премія, яку інвестори спочатку заплатили за історію «Відповідального ШІ», зникне за одну ніч.
Якщо відмовляться, втратять 200 мільйонів доларів, отримають ярлик ризику в ланцюжку постачання і фактично закриють державний ринок. Але слоган "Безпека понад усе" отримав найдорожче публічне схвалення в історії. Жоден бюджет на зв'язки з громадськістю не міг би забезпечити такий ефект, адже компанія була під забороною уряду за відмову дозволити ШІ стежити за громадянами країни.
У заяві Даріо є речення, на яке варто звернути увагу: "Наша оцінка та доходи зростають лише після цієї позиції".
Це речення є заявою для зв'язків з громадськістю чи діловим судженням? Це може бути і те, й інше, але вони не суперечать одне одному.
Є контрприклад, який варто врахувати. Компанія Palantir, про яку згадувалося раніше, що використовувала ШІ для допомоги федеральному імміграційному агентству відстежувати цілі, обрала абсолютно протилежний шлях. Вона повністю задовольняла всі вимоги уряду, була відкрита для відстеження імміграції, розвідки та військового цілепокладання. В результаті вона була відкинута соціально відповідальним основним колом капіталу майже на двадцять років, не могла довгий час залучати кошти і була відсторонена великими фондами.
Потім, у 2024 році, коли військова тематика ШІ стала основною історією ринку, ціна її акцій зросла на 150% за рік, а її ринкова вартість перевищила 400 мільярдів доларів.
Два шляхи, дві долі, кожна зі своєю логікою. Palantir обміняв двадцять років терпіння на сьогоднішній вибух. Anthropic робить ставку на іншу логіку оцінки — у сьогоднішній дедалі жорсткішій гомогенній конкуренції серед компаній зі штучним інтелектом "найбезпечніший ШІ" — це не просто етична позиція, а реальний бізнес-рубікон.
Яка ставка більша, досі невідомо. Але Anthropic явно вважає, що ціна компромісу вища, ніж відмова.
Чи може ставка Даріо окупитися?
Відповідь на це питання залежить від кількох змінних, які ще не реалізувалися.
По-перше, це реальна реакція корпоративних клієнтів. Amazon, Palantir і Anduril активно відключать Claude через тег "ризик ланцюга постачання" чи вирішать залишатися осторонь і чекати, поки ситуація зміниться? Наразі ці компанії не зробили публічної заяви. Якщо вони вирішать почекати і подивитися, фактичними втратами Anthropic дійсно будуть лише урядовий контракт на суму 200 мільйонів доларів.
Далі йде практична складність заміни уряду. Навіть власний департамент Пентагону, який використовує Claude внутрішньо, визнає: Claude наразі є однією з найпотужніших доступних моделей штучного інтелекту, тоді як Grok Маска все ще відстає від неї в технічному плані. Заміна означає зниження рівня використання. Хто понесе ці витрати?
Нарешті, є несподівано далекосяжний вплив цієї справи. У той самий день, коли Anthropic був заблокований, Сем Альтман, генеральний директор OpenAI, розробника ChatGPT, публічно зайняв позицію: OpenAI та Anthropic поділяють "ту саму червону лінію" щодо меж використання військового штучного інтелекту, і обидві компанії займають єдину позицію.
Іншими словами, якщо уряд шукає альтернативу, яка готова повністю підкоритися без будь-яких обмежень, варіантів набагато менше, ніж уявлялося.

Процес озброєння штучним інтелектом не сповільниться через це. Grok Маска вже проник у закриту мережу Пентагону, інші компанії зі штучним інтелектом не упустили військових контрактів, а системи озброєння з підтримкою штучного інтелекту продовжують вдосконалюватися.
Вибір Anthropic не змінює цю траєкторію. Те, що змінюється, це те, де вона знаходиться на цій траєкторії.
Але одне можна сказати напевно: це перший випадок в історії індустрії штучного інтелекту, коли велика компанія відкрито протистояла тиску уряду на основі чітких принципів, навіть якщо в кінцевому підсумку вона заплатила за це ціну, будучи забороненою. Незалежно від результату цієї азартної гри, цей прецедент тепер існує.
Остання арифметична задача залишається за читачем: компанія вартістю 380 мільярдів доларів заради двох принципів, написаних у контракті, відмовилася від усього державного ринку і була класифікована як загроза національній безпеці.
В епоху прискореного озброєння штучним інтелектом сьогодні, як ви розрахуєте це рівняння, залежить від того, що ви вважаєте найціннішим у майбутньому.
Вам також може сподобатися

Хакатон WEEX AI: Як цьому переможцю торгівлі з використанням штучного інтелекту вдалося досягти успіху?
Аматор торгівлі з використанням штучного інтелекту, який навчався самостійно, досяг результатів, що потрапили до топ-10 на хакатоні WEEX AI. Дізнайтеся про менталітет, інструменти штучного інтелекту та уроки, що стоять за цим вражаючим результатом.

Один баланс, що керує всіма: Амбіції Gravitas щодо створення ланцюгового прайм-брокера

Той, хто зняв гроші на піку NFT, тепер продає новий лом у відкритому клоунастві

Чому OpenAI намагається наздогнати Claude Code замість того, щоб випереджати його?

Віталік написав пропозицію, яка навчить вас таємно використовувати великі моделі штучного інтелекту

Подвоєння ціни акцій Circle та зміна парадигми стейблкоїнів

Журнал «Time» назвав Anthropic найруйнівнішою компанією світу

Ринок прогнозів набирає популярності в США та Канаді, Claude запускає функцію взаємодії з діаграмами, про що сьогодні говорить англомовна спільнота?

500 мільйонів доларів, 12 секунд до нуля: Як транзакція Aave нагодувала «Темний ліс» ефіріуму

АІ-агент потребує Crypto, а не Crypto потребує АІ

Стабільні монети відходять від криптовалют, стаючи наступним поколінням інфраструктури для глобальних платежів

Командам Web3 слід перестати витрачати маркетингові бюджети на платформі X

Strive купує акції Strategy, а компанії, що зберігають біткойни, починають вкладати кошти одна в одну

Ключові дані ринку 12 березня, скільки ви втратили?

Стреміться купити акції Strategy, компанія Bitcoin Treasury починає гніздити ляльки одна з одною

Новий центр Crypto

Які шанси на збільшення вартості токена HYPE у 5 разів?

Торгівля золотом і сріблом з комісією 0 %: Поділіться винагородою в розмірі 300 000 доларів США на PAXG, XAUT і XAG
Кампанія з дорогоцінними металами WEEX вводить торгівлю без комісії та пул винагород у розмірі 300 000 доларів США, пропонуючи користувачам нові можливості для взаємодії з токенимизованими ринками золота та срібла на WEEX.
Хакатон WEEX AI: Як цьому переможцю торгівлі з використанням штучного інтелекту вдалося досягти успіху?
Аматор торгівлі з використанням штучного інтелекту, який навчався самостійно, досяг результатів, що потрапили до топ-10 на хакатоні WEEX AI. Дізнайтеся про менталітет, інструменти штучного інтелекту та уроки, що стоять за цим вражаючим результатом.