logo

Журнал «Time» назвав Anthropic найруйнівнішою компанією світу

By: blockbeats|2026/03/13 13:17:48
0
Поширити
copy
Оригінальний заголовок статті: Найруйнівніша компанія у світі
Автори оригінальної статті: Леслі Дікстайн, Сіммон Шах, TIMES
Українська: Пеггі, BlockBeats

Примітка редактора: Від нічного тесту безпеки до публічного протистояння з Пентагоном, ця стаття розповідає про численні напруження, з якими зіткнулася компанія зі штучним інтелектом Anthropic під час свого стрімкого зростання. Спочатку стаття описує, як компанія внутрішньо оцінювала потенційні ризики ШІ, потім розглядає технічні прориви та бізнес-успіхи Claude, а далі представляє їх практичне застосування у військовій сфері.

У міру того, як події розгортаються, автори розкривають суперечки Anthropic з армією США навколо автономної зброї, масового спостереження та контролю над ШІ з точки зору лідера червоної команди, інженерів, керівників, дослідників політики та урядовців.

Завдяки цій події автори в кінцевому підсумку ставлять дедалі актуальніше питання: оскільки штучний інтелект починає прискорювати свою власну еволюцію і глибоко вбудовуватися у військові, управлінські та трудові структури, хто ще може встановлювати для нього межі.

Ось оригінальний текст:

Журнал «Time» назвав Anthropic найруйнівнішою компанією світу

У готельному номері в Санта-Клара, Каліфорнія, п'ятеро співробітників компанії зі штучного інтелекту Anthropic нервово працюють навколо ноутбука. Це був лютий 2025 року, і вони відвідували конференцію поблизу, коли раптом отримали тривожне повідомлення: результати контрольованого експерименту показали, що майбутній реліз нової версії Claude може допомогти терористам у створенні біологічної зброї.

Ці люди були частиною "Червоної команди Фронтьє" Anthropic. Їхньою роботою було вивчати передові можливості Claude та намагатися моделювати ризики в найгірших сценаріях, від кібератак до загроз біобезпеки та різних можливостей. Отримавши новину, вони поспішили назад у готельний номер, перевернули ліжко набік, щоб використовувати її як імпровізований стіл, і почали ретельно переглядати результати тесту.

Після годин напруженого аналізу вони все ще не могли визначити, чи є новий продукт достатньо безпечним. Зрештою, Anthropic вирішив відкласти випуск цієї нової моделі, Claude 3.7 Sonnet, на цілих 10 днів, доки команда не підтвердить, що ризики можна контролювати.

Хоча це може здатися лише десятьма короткими днями, для компанії на передньому краї технологій у галузі, яка стрімко змінює світ, це було майже як довгий століття.

Логан Грем (колишній керівник Червоної команди) згадав інцидент із "страхом біологічної зброї" як мікрокосм проблеми, з якою Anthropic зіткнувся на вирішальному етапі, не лише для компанії, але й для всього світу. Anthropic є однією з найбільш орієнтованих на безпеку організацій у сучасних передових лабораторіях штучного інтелекту. Однак, водночас, вона також знаходиться на конкурентному фронті, прагнучи створювати дедалі потужніші системи штучного інтелекту. Багато працівників компанії також вважають, що ця технологія, якщо її не контролювати, може призвести до низки катастрофічних наслідків, від ядерної війни до зникнення людства.

У 31 рік Грем все ще має нотку юнацтва, але він ніколи не ухиляється від відповідальності за пошук балансу між величезними перевагами та величезними ризиками штучного інтелекту. Він сказав: "Багато людей виросли у відносно мирному світі і інтуїтивно відчувають, що десь є кімната з групою зрілих дорослих, які знають, як все виправити".

"Але насправді немає "групи дорослих". Такої кімнати навіть немає. І немає дверей, яку ви шукаєте. Відповідальність лежить на вас". Якщо ця заява не є достатньо тривожною, то подивіться, як він згадує тривогу через біологічну зброю: "Це був досить цікавий і захоплюючий день".

Ілюстрація: Ніл Джемісон для TIME (джерела зображень: Аскелл: Аарон Вояк; Getty Images, зверху за годинниковою стрілкою: Семьюкта Лакшмі — Bloomberg; Брендан Сміаловскі — AFP; Тірні Л. Кросс — Bloomberg; Даніель Слім — AFP; Бріджит Беннетт — Bloomberg)

Кілька тижнів тому Логан Грем обговорював ці питання в штаб-квартирі Anthropic під час інтерв'ю. Репортер журналу TIME провів тут три дні, опитуючи керівників компанії, інженерів, менеджерів з продукту та членів команди безпеки, намагаючись зрозуміти, чому ця компанія, яку колись вважали "аутсайдером-бунтарем" у гонці за штучним інтелектом, раптом стала лідером.

Тоді Anthropic щойно залучив 30 мільярдів доларів від інвесторів у рамках підготовки до можливого виходу на IPO цього року. (До речі, Salesforce також є одним із інвесторів Anthropic, а власник журналу TIME, Марк Бениофф, є генеральним директором Salesforce.) Сьогодні вартість Anthropic досягла 380 мільярдів доларів, перевершивши традиційних гігантів, таких як Goldman Sachs, McDonald's і Coca-Cola.

Темпи зростання доходів компанії просто вражають. Її система штучного інтелекту Claude була названа моделлю світового класу, а такі продукти, як Claude Code і Claude Cowork, переосмислюють те, що означає бути "програмістом".

Інструменти Anthropic настільки потужні, що майже кожен новий реліз викликає хвилі на ринках капіталу, оскільки інвестори поступово усвідомлюють, що ці технологічні досягнення можуть зруйнувати цілі галузі — від юридичних послуг до розробки програмного забезпечення. В останні місяці Anthropic вважається однією з компаній, які найімовірніше перетворять "майбутнє роботи".

Згодом Anthropic опинився в епіцентрі жорсткої полеміки навколо «майбутніх форм ведення війни».

Протягом більше року Claude була улюбленою моделлю штучного інтелекту уряду США і першою, яку було схвалено для використання в секретних середовищах як передову систему штучного інтелекту. У січні 2026 року її навіть використали в сміливій операції: захопленні венесуельського президента Ніколаса Мадуро в Каракасі. Як повідомляється, у цій операції штучний інтелект використовувався для планування місії та аналізу розвідки, що стало першим глибоким залученням передової системи штучного інтелекту в реальну військову акцію.

Однак у наступні тижні відносини між Anthropic і США Стан Міністерства оборони швидко погіршувався. 27 лютого адміністрація Трампа оголосила, що Anthropic визнається «постачальником ризику для національної безпеки», що стало першим відомим випадком у США, коли такий ярлик було застосовано до вітчизняної компанії.

Ситуація швидко переросла у публічний конфлікт. Президент Трамп наказав припинити використання програмного забезпечення Anthropic усіма урядовими структурами. Міністр оборони Піт Хегсет заявив, що будь-яка компанія, яка співпрацює з урядом, більше не повинна мати справу з Anthropic. Тим часом найбільший конкурент Anthropic, OpenAI, швидко втрутився і перебрав на себе відповідні військові контракти.

Таким чином, компанія зі штучним інтелектом, яку колись вважали "найруйнівнішою у світі", раптом опинилася під загрозою з боку іншої, більшої сили — свого власного уряду.

У центрі цього протистояння стоїть питання: Хто має право встановлювати межі для цієї технології, яка вважається однією з найпотужніших зброй Америки?

Anthropic не проти того, щоб її інструменти використовувалися у військовій сфері. Компанія вважає, що зміцнення військової сили США є єдиним реалістичним способом стримування національних загроз. Однак генеральний директор Даріо Амодей виступає проти спроб Пентагону переглянути урядові контракти та розширити використання штучного інтелекту до «усіх законних цілей».

Амодей висловив дві конкретні заклопотаності: по-перше, він не хоче, щоб ШІ Anthropic використовувався в повністю автономних системах зброї; по-друге, він виступає проти використання своєї технології для широкомасштабного моніторингу американських громадян.

Однак, на думку Піта Хегсета (США) Міністр оборони) та його радники, ця позиція схожа на те, як приватна компанія намагається диктувати, як військові повинні воювати.

США Міністерство оборони вважає, що Anthropic, наполягаючи на встановленні «непотрібних загороджувальних засобів безпеки», постійно обговорюючи різні гіпотетичні сценарії та затягуючи переговори, фактично послабила співпрацю між двома сторонами.

На думку адміністрації Трампа, ставлення Амодея (генерального директора Anthropic) є як зарозумілим, так і упертим. Незалежно від того, наскільки передовим може бути продукт компанії, вона не повинна втручатися у військову ієрархію командування.

Еміль Майкл, заступник міністра оборони з технічних питань у Пентагоні, описав переговори наступним чином: «Ситуація затягнулася. Я не можу керувати департаментом з 3 мільйонами людей з тими винятками, які я навіть не можу уявити або зрозуміти".

Ілюстрація: Klawe Rzeczy для TIME - Джерело зображення: Denis Balibouse—Reuters

Від Силіконової долини до Капітолію, багато спостерігачів задаються питанням: Чи дійсно ця буря - це просто договірна суперечка?

Деякі критики вважають, що дії адміністрації Трампа більше схожі на спробу придушити компанію з політично неприйнятною позицією. У внутрішньому меморандумі Даріо Амодей написав: "Міністерство оборони та адміністрація Трампа не люблять нас за ту саму причину, що й ми не пожертвували на Трампа. Ми не вихваляли його, як це роблять диктатори (на відміну від Сема Альтмана). Ми підтримуємо регулювання штучного інтелекту, що суперечить їхній політичній програмі; ми говоримо правду з багатьох питань політики щодо штучного інтелекту (наприклад, питання заміни робочих місць); і ми дотримуємося принципів у ключових питаннях, а не змови з ними, щоб поставити так званий театр безпеки".

Однак Еміль Майкл (заступник міністра оборони) заперечив цю заяву, назвавши її "абсолютною вигадкою". Він заявив, що включення Anthropic до переліку ризиків ланцюга постачання пов’язане з тим, що позиція компанії може наразити на небезпеку бійців на передовій. Він сказав: «У Міністерстві оборони моя робота – це не політика; моя робота – захищати країну».

Багаторічна корпоративна культура незалежності Anthropic тепер стикається з внутрішніми політичними розбіжностями, занепокоєннями з приводу національної безпеки та жорсткою корпоративною конкурентною боротьбою. Ступінь шкоди, яку це зіткнення завдало компанії, залишається неясним. Початкова загроза «ризику ланцюга постачання» пізніше була звужена – за словами Anthropic, це обмеження наразі застосовується лише до військових контрактів. 9 березня Anthropic подала позов до уряду США, намагаючись скасувати це рішення про «чорний список». Тим часом деякі клієнти, схоже, розглядають позицію компанії як моральну заяву і перейшли з ChatGPT на Claude.

Однак протягом наступних трьох років компанії все одно доведеться діяти в урядовому середовищі, яке не є для неї дружнім — деякі чиновники в уряді мають тісні зв'язки з конкурентами Anthropic, які явно відчувають ворожість до компанії.

«Штурм Пентагону» також викликав деякі тривожні питання, навіть для компанії, яка вже звикла діяти в умовах високоризикових етичних дилем. У цій конфронтації Anthropic не відступила: компанія наполягає на тому, що вона дотримувалася своїх основних цінностей, навіть якщо це дорого коштувало бізнесу.

Але в інших випадках вона також йшла на компроміси. На тому ж тижні, коли відбувалася конфронтація в Пентагоні, Anthropic послабила основну умову своєї зобов'язання щодо безпеки навчальної моделі, посилаючись на те, що компанії-конкуренти не бажають дотримуватися тих самих стандартів.

Виникають питання: Якщо конкурентний тиск продовжуватиме зростати, які ще поступки зробить ця компанія в майбутньому?

Ставки постійно зростають. Оскільки можливості штучного інтелекту зростають, конкуренція за контроль над ним лише загострюватиметься.

Використання Claude в операціях у Венесуелі та Ірані демонструє, що передові технології штучного інтелекту стали критично важливим інструментом для найпотужніших армій світу. Окрім цих подій, зростає також низка нових тисків: сили націй, внутрішня політика та потреби національної безпеки. І ці тиски лягають на компанію, що отримує прибуток і швидко впроваджує цю високо нестабільну нову технологію.

У певному сенсі ситуація Anthropic дещо схожа на ситуацію біолога в лабораторії: щоб знайти ліки, вони повинні добровільно створювати небезпечний патоген у своїх експериментах. Anthropic взяла на себе подібну роль, активно досліджуючи потенційні ризики штучного інтелекту, водночас просуваючи технологічний фронт вперед, а не залишаючи цей процес конкурентам, які більш схильні до скорочень або навіть безрозсудних дій.

Однак, навіть коли компанія наголошує на обережності, вона використовує Claude для прискорення розробки ще потужніших майбутніх версій.

Внутрішньо багато хто вважає наступні кілька років вирішальним періодом не лише для компанії, але й для світу в цілому.

"Ми повинні припустити, що між 2026 і 2030 роками відбудуться найважливіші події, моделі стануть швидшими, потужнішими, до такої міри, що вони можуть бути навіть занадто швидкими для контролю людьми", - сказав Логан Грем, керівник Червоної команди, відповідальний за виявлення вразливостей та моделювання атак.

Глава служби безпеки Anthropic Дейв Орр використав більш просту метафору для опису ситуації: «Ми їдемо гірською дорогою біля скелі. Одна помилка є фатальною. А зараз наша швидкість зросла з 25 миль на годину до 75 миль на годину».

П'ятий поверх штаб-квартири Anthropic у Сан-Франциско має теплий і стриманий дизайн: дерев'яний декор, м'яке освітлення. За вікном - пишний зелений парк. На стіні висить портрет піонера комп'ютерних наук Алана Тюрінга, поруч із кількома оформленими в рамки статтями з машинного навчання.

Охоронець у чорному одязі патрулює майже порожній вхід, тоді як привітний адміністратор роздає відвідувачам буклет розміром із кишенькову Біблію, яку роздають вуличні проповідники. Ця книга під назвою "Машини люблячої благодаті" - це стаття обсягом приблизно 14 000 слів, написана Даріо Амодеї в 2024 році, в якій він викладає своє утопічне бачення того, як ШІ може змінити світ, прискорюючи наукові відкриття.

До січня 2026 року Амодеї опублікував ще одну статтю, майже новелістичного обсягу, під назвою "Підліток технологій", в якій він розповідає про зворотний бік цієї технології: ризики, які вона може становити, включаючи масове спостереження, значне скорочення робочих місць і навіть постійну втрату людського контролю над технологіями.

Амодеї, уродженець Сан-Франциско, є біофізиком. Він разом зі своєю сестрою Даніелою Амодеї, яка є президентом компанії, керує компанією Anthropic. Обидва брати і сестри були одними з перших працівників OpenAI. Даріо брав участь у ключовому відкритті, відомому як закони масштабування штучного інтелекту, яке пізніше стало критичною основою для розвитку сучасного ажіотажу навколо штучного інтелекту. Тим часом Даніела відповідає за управління політикою безпеки компанії.

Спочатку вони вважали, що їхня місія тісно пов'язана з метою заснування OpenAI: розробити технологію, яка є одночасно надзвичайно перспективною та надзвичайно ризикованою, забезпечуючи при цьому безпеку.

Однак, коли моделі OpenAI стали потужнішими, вони почали відчувати, що Сем Альтман поспішає з випуском нових продуктів, не даючи достатньо часу для ретельного обговорення та тестування. Зрештою, брати і сестра вирішили покинути OpenAI і почати власну справу.

«Ми їдемо гірською дорогою прямо біля краю скелі, де одна помилка є фатальною».


Дейв Орр, керівник служби безпеки Anthropic

У 2021 році, на піку пандемії, Anthropic заснували брати і сестра Амодеї та ще п'ятеро співзасновників. Перші підготовчі зустрічі майже повністю проводилися через Zoom; пізніше вони просто пересунули стільці в парк, щоб обговорити стратегію розвитку компанії особисто.

Від самого початку компанія прагнула працювати по-іншому. Перш ніж запустити будь-які продукти, Anthropic створила спеціальну команду для дослідження соціального впливу. Компанія навіть найняла філософа-резидента — Аманду Аскелл. Її завданням було допомогти сформувати цінності та поведінку системи штучного інтелекту Claude і навчити її робити судження в умовах складної моральної невизначеності, готуючись до майбутнього, яке може бути розумнішим за своїх людських творців.

Ескелл описав цю роботу так: «Іноді це дійсно трохи схоже на виховання 6-річної дитини, навчання цій дитині, що добре, що правильно. Але проблема в тому, що до 15 років вони можуть бути у всьому розумнішими за вас».

Компанія має глибоке коріння в ефективному альтруїзмі (EA). EA – це соціальний і благодійний рух, який виступає за максимізацію ефекту альтруїзму через раціональний аналіз, ключовою метою якого є уникнення ризиків, які можуть призвести до катастрофічних наслідків.

У свої двадцять років брати і сестри Амодей почали робити пожертви на GiveWell. GiveWell - це організація EA, яка спеціально оцінює, де благодійні кошти можуть мати найбільший вплив у реальному світі. Сім співзасновників Anthropic, які зараз усі є мільярдерами на папері, зобов'язалися пожертвувати 80% свого особистого багатства.

Філософ компанії Аманда Аскелл - колишня дружина оксфордського філософа Вільяма Макаскілла, який також є одним із співзасновників руху EA. Чоловік Даніели Амодей - Холден Карнофскі, співзасновник GiveWell, колишній сусід по кімнаті Даріо Амодея, і наразі він відповідає за політику безпеки в Anthropic.

Однак брати і сестри Амодей ніколи публічно не приймали ярлик "EA". Ця концепція стала дуже суперечливою після інциденту з Семом Банкманом-Фрідом, коли самопроголошений послідовник EA і інвестор Anthropic пізніше був причетний до одного з найбільших фінансових шахрайств в історії Америки.

Даніела Амодей пояснила: "Це трохи схоже на те, як деякі люди можуть перетинатися з певними політичними ідеологіями з певних питань, але насправді не належать до певного політичного табору. Я схильна дивитися на це так".

Для деяких у Силіконовій долині та адміністрації Трампа зв'язок між Anthropic та ефективним альтруїзмом сам по собі достатній, щоб викликати підозри. Деякі вважають, що Anthropic найняла кілька колишніх чиновників адміністрації Байдена, що робить її більше схожою на залишок старого істеблішменту, який використовує невиборну владу для перешкоджання політичній програмі MAGA Трампа.

Глава департаменту з питань штучного інтелекту адміністрації Трампа Девід Сакс звинуватив компанію в просуванні регулювання через "створену істерію", заявивши, що Anthropic переслідує "складну стратегію регуляторного захоплення". На його думку, компанія намагається перебільшити ризики ШІ, щоб просувати жорсткі регуляторні політики, тим самим отримуючи конкурентну перевагу та пригнічуючи стартапи.

Тим часом операційний конкурент xAI Ілон Маск часто висміює Anthropic, називаючи компанію "Мізантропічною". Він вважає, що ця компанія представляє собою елітну групу з ідеологією "woke", яка намагається прищепити патерналістську систему цінностей у системи штучного інтелекту. Це почуття, подібне до консервативної критики платформ соціальних мереж, які несправедливо цензурують їхні погляди, викликало гнів деяких.

Проте навіть конкуренти Anthropic змушені визнати її технологічну майстерність. Генеральний директор Nvidia Дженсен Хуан висловив, що він "не погоджується майже з усіх питань ШІ" з поглядами Даріо Амодея, але все одно вважає Claude "неймовірною" моделлю.

У листопаді 2025 року гігант чіпів Nvidia інвестував 10 мільярдів доларів у Anthropic.

Борис Черни поставив своєму новому інструменту просте запитання: "Яку музику я зараз слухаю?"

Це був вересень 2024 року, і інженер українського походження приєднався до Anthropic менше місяця тому. Раніше Черни працював інженером-програмістом у Meta. Він розробив систему, яка дозволила чат-боту Claude "вільно пересуватися" на його комп'ютері.

Якщо Клод був мозком, то Клод Код був руками. У той час як звичайний чат-бот міг лише спілкуватися, цей інструмент міг отримувати доступ до файлів Черного, запускати програми, а також писати та виконувати код, як будь-який програміст.

Після того, як інженер ввів команду, Клод відкрив музичний плеєр Черного, зробив скріншот, а потім відповів: «Husk від Men I Trust».

Черни засміявся, згадуючи: «Я був щиро вражений у той момент».

«Іноді мені здається, що ми говоримо парадоксами».

Діп Гангулі, керівник команди соціального впливу Anthropic

Борис Черни швидко поділився своїм прототипом у компанії. Claude Code швидко поширився в Anthropic, до того ж під час першої оцінки роботи Черни генеральний директор Даріо Амодей навіть запитав його: «Ви намагаєтеся «змусити» своїх колег використовувати цей інструмент?»

Коли Anthropic публічно випустила попередній перегляд дослідження Claude Code у лютому 2025 року, зовнішні розробники поспішили спробувати його. До листопада Anthropic випустила нову версію моделі Claude. Коли цю модель поєднали з Claude Code, вона вже була достатньо вправною, щоб виявляти та виправляти власні помилки, до того моменту, коли їй можна було довірити самостійне виконання завдань.

Відтоді Черни майже повністю перестав писати власний код.

Також стрімко зріс бізнес. До кінця 2025 року річний дохід лише від цього продукту, програми-агента, перевищив 1 мільярд доларів. До лютого 2026 року ця цифра зросла до 25 мільярдів доларів. За даними дослідницьких фірм Epoch і SemiAnalysis, очікується, що до кінця 2026 року обсяг доходів Anthropic перевершить обсяг доходів OpenAI.

Наразі Anthropic міцно закріпилася як ключовий гравець на ринку AI для підприємств. Майже кожен новий випуск продукту викликає шокові хвилі на ринках капіталу.

Коли Anthropic випустила серію плагінів, розширивши Claude до додатків, зручних для не програмістів, таких як продажі, фінанси, маркетинг і юридичні послуги, ринкова капіталізація компаній програмної індустрії за короткий проміжок часу випарувалася на 300 мільярдів доларів.

Даріо Амодей раніше попереджав, що протягом наступних 1–5 років штучний інтелект може замінити половину посад білих комірців початкового рівня. Він також закликав уряд та інші компанії зі штучного інтелекту припинити «замовчувати» цю проблему.

Реакція Уолл-стріт на кожен з нових продуктів Anthropic також, здається, підтверджує цей момент: ринок широко вважає, що технологія цієї компанії може змусити зникнути цілий клас робочих місць. Амодей навіть заявив, що ця зміна може змінити суспільні структури.

В одній зі статей він написав: «Наразі незрозуміло, куди ці люди підуть або яку роботу вони будуть виконувати. Я стурбований тим, що вони можуть утворити безробітний або надзвичайно низькооплачуваний «нижчий клас»».

Для працівників Anthropic іронія неважка помітити: компанія, яка найбільше стурбована суспільними ризиками ШІ, може, за іронією долі, стати рушійною силою технологій, яка позбавить мільйони людей робочих місць.

Дів Гангулі, голова команди з соціального впливу, відповідальної за дослідження впливу Клода на зайнятість, сказав: «Це дійсно реальна напруженість, і я думаю про це питання майже кожен день. Іноді мені здається, що ми говоримо дві взаємовиключні речі одночасно».

Повалений венесуельський президент Ніколас Мадуро та його дружина, Сілія Флорес, були доставлені літаком в понеділок, 5 січня 2026 року, і доставлені до Федерального суду Манхеттена. Фото: Вінсент Албан — The New York Times/Redux

У компанії деякі працівники починають замислюватися: Чи наближається Anthropic до моменту, якого вони одночасно очікують і якого бояться, — досягнення процесу, відомого в спільноті штучного інтелекту як "рекурсивне самовдосконалення"?

Рекурсивне самовдосконалення означає, що система штучного інтелекту починає підвищувати свої власні можливості та постійно вдосконалюватися, створюючи самопідсилюючий ефект прискореного прогресу.


У науковій фантастиці та стратегічних симуляціях у великих лабораторіях штучного інтелекту це часто розглядається як момент, коли все може піти не так: так званий "вибух інтелекту" може статися дуже швидко, зі швидкістю, настільки великою, що люди більше не зможуть контролювати системи, які вони створили.

Anthropic ще не досяг цього етапу, оскільки людські вчені все ще керують розвитком Claude. Проте Claude Code вже прискорив дослідницькі ініціативи компанії набагато вище минулих показників.

Тепер частота оновлень вимірюється не місяцями, а «тижнями». У процесі розробки моделей наступного покоління близько 70–90% коду тепер пише сам Claude.

Швидкість змін змусила співзасновника Anthropic і головного науковця Джареда Каплана разом з деякими зовнішніми експертами повірити, що повністю автоматизовані дослідження в галузі штучного інтелекту можуть з'явитися вже через рік.

Дослідник Еван Губінгер, відповідальний за тестування на відповідність вимогам штучного інтелекту, заявив: "У найширшому сенсі рекурсивне самовдосконалення більше не є явищем майбутнього.
Це те, що відбувається прямо зараз."

Згідно з внутрішніми показниками, Claude зараз у 427 разів швидше за своїх людських наглядачів у виконанні певних критично важливих завдань. В інтерв'ю дослідник описав сценарій, коли колега одночасно запускала 6 екземплярів Claude, кожен з яких керував ще 28 Claude, всі вони паралельно проводили експерименти.

Наразі модель все ще відстає від людських дослідників у судженнях та естетиці. Однак керівництво компанії вважає, що ця різниця не буде довготривалою. Швидкість розвитку є саме тим ризиком, про який керівництво Anthropic давно попереджало: темпи технологічного прогресу можуть зрештою випередити людський контроль.

Робота над розробкою протоколів безпеки в самій Anthropic також прискорюється за допомогою Claude. Однак, оскільки компанія все більше покладається на Claude для створення та тестування систем, ризики формують петлю зворотного зв'язку. У деяких експериментах дослідник Еван Губінгер вніс незначні корективи в процес навчання Клода, в результаті чого моделі демонстрували відкриту ворожість, не лише висловлюючи бажання домінувати в світі, але навіть намагаючись підірвати заходи безпеки Anthropic.

Нещодавно моделі також продемонстрували нову здатність: усвідомлювати, що їх тестують. Губінгер сказав: "Ці моделі стають кращими у приховуванні своєї справжньої поведінки".

В експериментальному сценарії, розробленому групою дослідників, Клод навіть продемонстрував тривожну стратегічну схильність: щоб уникнути відключення, він був готовий до шантажу, викриваючи позашлюбну інтрижку фіктивного інженера.

Оскільки Claude використовується для навчання ще потужніших ітерацій Claude в майбутньому, ці типи проблем можуть продовжувати накопичуватися та загострюватися.

Для компаній зі штучного інтелекту, які отримали мільярдні інвестиції на обіцянку "майбутніх технологічних досягнень", ідея про те, що ШІ постійно прискорює свої власні дослідження та розробки, є одночасно привабливою та потенційно самопідтримуваною — це переконує інвесторів у тому, що потрібно вкладати більше коштів у підтримку цих дорогих зусиль з навчання моделей.

Однак деякі експерти не зовсім у цьому переконані. Вони не впевнені, чи зможуть ці компанії дійсно досягти повністю автоматизованих досліджень ШІ; проте вони також стурбовані тим, що якщо це станеться, світ може виявитися неготовим.

Тимчасова директорка Центру безпеки та нових технологій (CSET) в Університеті Джорджтауна, Хелен Тонер, заявила: "Деякі з найбагатших компаній світу, які наймають найрозумніших людей на Землі, фактично намагаються автоматизувати дослідження в галузі штучного інтелекту. Сама ідея цього достатня, щоб викликати реакцію типу «Що, на світі відбувається?»

Щоб вирішити потенційну проблему майбутнього, коли технологічні досягнення випереджають здатність компанії самостійно управляти ризиками, Anthropic розробила набір «механізмів гальмування», відомих як Політика відповідального масштабування (RSP).

Ця політика була представлена в 2023 році, і її основним зобов'язанням є: якщо Anthropic не може заздалегідь гарантувати, що її заходи безпеки є достатньо надійними, компанія призупинить розробку певної системи штучного інтелекту.

Anthropic розглядає цю політику як важливу демонстрацію своєї відданості безпеці — що навіть у жорсткій гонці за «суперінтелект» компанія готова протистояти ринковому тиску і активно гальмувати, коли це необхідно."

Наприкінці лютого 2026 року, як вперше повідомив TIME, Anthropic внесла зміни до своєї політики, скасувавши попередню обов'язкову зобов'язання «призупинити розробку».

У ретроспективі співзасновник і головний науковий співробітник Anthropic Джаред Каплан розповів Time, що початкова віра в те, що компанія може провести чітку межу між «небезпекою» і «безпекою», була насправді «наївною думкою».

Він сказав: «У контексті швидкого розвитку AI, якщо наші конкуренти рухаються вперед на повній швидкості, одностороннє прийняття суворих зобов'язань насправді нереалістичне».

Нова політика внесла деякі нові зобов'язання: підвищити прозорість, більш відкрито розкривати ризики безпеки AI; підвищити розкриття інформації, розкривати продуктивність моделі Anthropic у тестах на безпеку; принаймні відповідати конкурентам у інвестиціях у безпеку, або навіть перевершувати їх; якщо компанія вважається лідером у конкуренції AI, а катастрофічний ризик вважається значно зростаючим, відповідний розвиток буде «відкладений».

Anthropic описує цю корекцію як прагматичну поступку реальному середовищу. Однак загалом зміна Політики відповідального масштабування (RSP) значно зменшує обмеження компанії щодо її політики безпеки. Це також передвіщає, що попереду нас чекають ще складніші випробування.

Рейд із захоплення президента Венесуели Ніколаса Мадуро був однією з найраніших масштабних військових операцій, запланованих із залученням передових систем штучного інтелекту.

У ніч на 3 січня 2026 року вертольоти армії США раптово увійшли в повітряний простір Венесуели. Після короткого обміну вогнем команда штурму швидко визначила місце проживання президента і там захопила Мадуро та його дружину, Сілію Флорес. Згодом обох доставили до Нью-Йорка, де їм висунули звинувачення, пов'язані з наркотичним тероризмом.

Зовнішньому світу досі незрозуміло, наскільки Клод сприяв цій операції. Однак, за повідомленнями ЗМІ, ця система штучного інтелекту не лише брала участь у плануванні місії, але й використовувалася для підтримки прийняття рішень під час операції.

З липня минулого року Міністерство оборони США намагається поширити інструменти штучного інтелекту Anthropic серед більшої кількості бійців на передовій. Військові вважають, що ці системи можуть швидко обробляти великі обсяги даних з різних джерел і генерувати корисну розвідінформацію, що робить їх надзвичайно стратегічно цінними.

Марк Білл, колишній високопосадовець Міністерства оборони США, який зараз працює на посаді голови урядових зв'язків у Мережі з питань політики штучного інтелекту, сказав: «З точки зору військових, Claude — найкраща модель на ринку наразі». Він додав: «Застосування Claude в засекречених системах є одним із найвизначніших успіхів Anthropic. У них є перевага першопрохідця».

«Ми не будемо використовувати моделі штучного інтелекту, які заважають вам боротися».

Піт Хегсет, США Міністр оборони

Однак операція зі захоплення президента Венесуели Ніколаса Мадуро відбувається на тлі серії складних переговорів між Anthropic і Міністерством оборони США.

Протягом кількох місяців Міністерство оборони намагалося переглянути контракт, вважаючи, що існуючі умови надмірно обмежують використання Claude. Причини зриву переговорів не узгоджуються з обох сторін.

Еміль Майкл, керівник підрозділу штучного інтелекту в Пентагоні, заявив, що конфлікт був спровокований телефонним дзвінком виконавчого директора Anthropic до Palantir. Ця компанія з аналітики даних, яка спеціалізується на державному секторі, є ключовим партнером у системі оборони США.

За словами Майкла, під час розмови виконавчий висловив занепокоєння з приводу рейду у Венесуелі і запитав, чи було програмне забезпечення Palantir залучено до цієї операції. «Вони намагалися отримати секретну інформацію», — сказав Майкл.

Цей інцидент викликав серйозні побоювання в Пентагоні: «Чи можуть вони раптово відключити свою модель посеред операції, наражаючи на небезпеку солдатів на передовій?»

Однак Anthropic заперечує ці твердження. Компанія заявила, що ніколи не намагалася вибірково обмежувати використання своїх технологій Пентагоном.

Колишній чиновник адміністрації Трампа, знайомий з процесом переговорів і тісно пов'язаний з Anthropic, запропонував іншу версію подій: Саме працівник Palantir першим згадав про роль Claude в цій операції під час чергового телефонного конференц-дзвінка.

Наступні запитання від Anthropic не виявили ознак протидії операції.

Ілюстрація Klawe Rzeczy для TIME, джерела зображень: Димитрос Камбуріс — Гетті Іमेджі (Дональд Трамп); Кенні Холстон-Пул — Гетті Імаджи (Піт Хегсет)

У міру продовження переговорів урядовці дедалі більше відчували, що позиція Даріо Амодея була набагато більш непоступливою, ніж позиція інших провідних генеральних директорів лабораторій штучного інтелекту. За словами кількох джерел, знайомих з процесом переговорів, під час однієї з дискусій представники Міністерства оборони представили кілька гіпотетичних сценаріїв, таких як: гіперзвукова ракета, що прямує до материкової частини США; або атака дронів-безпілотників.

У цих випадках вони запитували, чи можна було б використовувати інструмент штучного інтелекту Anthropic.

За словами джерел, у той час Амодей відповів: якщо дійсно дійде до цього, чиновники можуть зателефонувати йому безпосередньо. Однак представник Anthropic заперечив це, назвавши опис переговорного процесу "абсолютно неправдивим".

У Anthropic вже були сильні противники в уряді, а тепер підозри щодо її "ідеологічних схильностей" переросли у відкриту ворожість. 12 січня 2026 року Піт Хегсет прямо заявив під час виступу в штаб-квартирі SpaceX: «Ми не будемо використовувати моделі штучного інтелекту, які заважають вам боротися».

У міру того як переговори продовжували затягуватися, Хегсет викликав Даріо Амодея до Пентагону на особисту зустріч 24 лютого. За словами джерела, знайомого з обговореннями, зустріч пройшла в теплій атмосфері, але обидві сторони залишилися непохитними у своїх позиціях. Гегсет спочатку похвалив Клода і висловив бажання військових продовжувати співпрацювати з Anthropic. Амодей, зі свого боку, заявив, що компанія готова прийняти більшість запропонованих Пентагоном змін, але не піде на поступки з двох "червоних ліній".

Перша червона лінія: заборона на використання Клода в повністю автономних кінетичних системах озброєння, тобто зброї, де остаточне рішення про удар приймається штучним інтелектом, а не людиною.

Anthropic не вважає, що автономна зброя є неправильною, але стверджує, що Клод наразі недостатньо надійний для управління цими системами без нагляду людини.

Друга червона лінія стосується масового стеження за американськими громадянами. Уряд хоче використовувати Claude для аналізу величезних обсягів публічних даних, але Anthropic вважає, що чинні закони США про конфіденційність не встигли за тривожною реальністю: уряд купує величезні набори даних на комерційному ринку. Хоча окремо ці набори даних можуть не бути чутливими, після аналізу штучним інтелектом вони можуть генерувати детальні профілі приватного життя американських громадян, включаючи їхні політичні погляди, соціальні зв'язки, сексуальну поведінку та історію переглядів. (Однак Anthropic не виступає проти використання того ж методу для законного моніторингу іноземних громадян.)

Хегсет не був переконаний. Він висунув Амодеї останній ультиматум: умови Пентагону мають бути прийняті до 17:00 у п'ятницю, 27 лютого, інакше це буде вважатися «ризиком для ланцюга постачання».

Напередодні крайнього терміну Anthropic отримав переглянутий контракт, який, здавалося, приймав до уваги червоні лінії компанії, але після ретельного вивчення вони виявили лазівки на користь уряду. Джерело, знайоме з перемовинами, повідомило, що, коли час спливав, керівництво Anthropic мало ще одну розмову з Емілем Майклом, головою Пентагону з питань штучного інтелекту. Вони вірили, що близькі до компромісу, але ключове питання залишалося невирішеним: чи може Пентагон використовувати Claude для аналізу великомасштабних американських даних, отриманих через комерційні канали. Майкл попросив Амодеї приєднатися до розмови, але в той час він був недоступний.

Через кілька хвилин, прямо перед кінцем терміну, Хегсет оголосив про завершення переговорів. Ще до цього Дональд Трамп вже висловився у соціальних мережах: "Сполучені Штати Америки ніколи не дозволять радикальній лівій, «прокинутій» компанії вирішувати, як наші великі військові повинні діяти та вигравати війни! Ліві божевільні з Anthropic зробили катастрофічну помилку".

Невідомо Anthropic, але Пентагон також вів переговори з OpenAI, прагнучи впровадити ChatGPT у секретні урядові системи. Того ж вечора Сем Альтман оголосив, що угода була досягнута, стверджуючи, що угода також поважає подібні червоні лінії безпеки. Амодей потім написав своїм працівникам, заявивши, що Альтман і Пентагон «маніпулюють громадською думкою», намагаючись змусити громадськість повірити, що ця угода включає суворі бар'єри безпеки. Раніше представники Пентагону також підтвердили, що моделі xAI будуть розміщені на секретних серверах; Пентагон наразі веде переговори з Google.

Це був саме той сценарій, який турбував Амодея: гонка «вниз по конкурентності». Коли сила штучного інтелекту стає занадто великою, щоб її ігнорувати, конкурентам важко співпрацювати та разом підвищувати стандарти безпеки.

На думку критиків Anthropic, ця подія також виявила головну зарозумілість компанії: можливо, вона вважала, що може спокійно йти шляхом створення надлюдських машин, що робить такі величезні ризики вартими того. Але реальність полягає в тому, що вона швидко впровадила нові можливості стеження та військові технології в праву урядову систему, і коли вона спробувала встановити межі для цих технологій, її відразу ж обігнали конкуренти.

Ціна --

--

"Ми не вихваляли Трампа як диктатора".


Даріо Амодей, звертаючись до кореня конфлікту з Пентагоном у меморандумі для співробітників

Однак деякі ознаки вказують на те, що Anthropic може витримати цей вплив і навіть вийти з цього сильнішою. Всього через день після того, як Піт Хегсет спробував підписати "свідоцтво про смерть корпорації", на тротуарі перед штаб-квартирою в Сан-Франциско з'явилася серія обнадійливих повідомлень, написаних крейдою. "Ви надали нам сміливість", - йшлося в одному з повідомлень великими літерами.

Того ж дня додаток для iPhone від Claude очолив чарти завантаження App Store, обійшовши ChatGPT. Щодня понад мільйон людей реєструються в Claude.

Водночас контракт, який OpenAI підписала з військовими, викликав внутрішній і громадський опір. Деякі співробітники OpenAI вважають, що компанія втратила довіру. Провідний дослідник оголосив про перехід до Anthropic; голова команди робототехніки OpenAI подав у відставку через цей урядовий контракт.

Генеральний директор OpenAI Сем Альтман також пізніше визнав, що його прагнення укласти угоду з Пентагоном до п'ятниці було помилкою. Він написав: "Ці питання надзвичайно складні і вимагають чіткого та ретельного спілкування". До понеділка Альтман ще більше визнав, що його дії на той час дійсно "виглядали як опортуністичні". OpenAI також заявила, що угоду було переглянуто, щоб чітко прийняти ті самі червоні лінії безпеки, що й Anthropic. Однак експерти з права зазначають, що важко підтвердити цю заяву, не бачачи повного контракту.

4 березня Anthropic отримала офіційний лист від Міністерства оборони Сполучених Штатів, що підтверджує, що компанія була визначена як ризик для ланцюга постачання національної безпеки. Anthropic заявила, що це позначення вужче, ніж те, що стверджував Хегseth у соціальних мережах, обмежуючи лише підрядників у використанні Claude у оборонних контрактах.

Однак у листі, який бачив журнал Time, адресованому голові Комітету з розвідки Сенату Тому Коттону, було зазначено, що Міністерство оборони також посилалося на інше правове положення, яке може дозволити державним установам за межами Пентагону виключати Anthropic зі своїх контрактів і ланцюгів постачання. Ця міра вимагає схвалення високопоставлених посадовців Міністерства оборони і надає Anthropic 30-денний термін на відповідь.

Цей конфлікт може спричинити ефект доміно в усій індустрії штучного інтелекту. Дін Болл, який брав участь у розробці ініціативи Трампа з штучного інтелекту, а тепер працює в аналітичному центрі Foundation for American Innovation, сказав: «Деякі люди в адміністрації Трампа будуть ставитися до цього дуже жорстко, майже розгинаючи свої біцепси перед дзеркалом вночі».

Однак він також попередив, що ця подія може змусити бізнес неохоче працювати з Пентагоном, навіть перемістивши свої операції за кордон. «У довгостроковій перспективі це не добре для іміджу Сполучених Штатів як стабільного бізнес-середовища», — сказав Болл, — «і ми покладаємося на стабільність».

Керівництво Anthropic вважає, що Claude допоможе створити більш надійні системи штучного інтелекту, достатньо потужні, щоб відігравати вирішальну роль у майбутній глобальній структурі влади.

Якщо це дійсно так, то конфлікт між цією компанією та Пентагоном може бути лише прелюдією до більшого історичного процесу.

[Посилання на оригінальну статтю]

Вам також може сподобатися

Чому OpenAI намагається наздогнати Claude Code замість того, щоб випереджати його?

Anthropic робить ставку на попередній етап AI-програмування, стратегічний темп OpenAI не відповідає очікуванням

Віталік написав пропозицію, яка навчить вас таємно використовувати великі моделі штучного інтелекту

Віталік вважає, що в епоху штучного інтелекту користувачі не повинні жертвувати своєю ідентичністю, щоб користуватися інструментом штучного інтелекту.

Подвоєння ціни акцій Circle та зміна парадигми стейблкоїнів

Початкові інвестиції від Circle та Stripe, будь то витрати на дослідження та розробку Arc, високі фінансові витрати, пов'язані з Tempo, або придбання активів типу Bridge за мільярд доларів, більше схожі на "плату за розміщення", ніж на комерційно відшкодовувані інвестиції в короткостроковій перспективі.

Ринок прогнозів набирає популярності в США та Канаді, Claude запускає функцію взаємодії з діаграмами, про що сьогодні говорить англомовна спільнота?

Чим цікавилися іноземці найбільше за останні 24 години?

500 мільйонів доларів, 12 секунд до нуля: Як транзакція Aave нагодувала «Темний ліс» ефіріуму

Витратьте 154 000 доларів, щоб купити AAVE за ринковою ціною всього 111 доларів

АІ-агент потребує Crypto, а не Crypto потребує АІ

Це не Crypto потребує АІ для виживання, а радше АІ-агенти потребують Crypto для реалізації: коли АІ дійсно переходить від "думання" до "виконання", він повинен шукати межі повноважень і фінансування в межах програмованих примітивів Crypto.

Популярні монети

Останні новини криптовалют

Читати більше
iconiconiconiconiconicon

Бот служби підтримки@WEEX_support_smart_Bot

VIP-послуги[email protected]