„Czas” Magazyn nazywa Anthropic najbardziej zakłócającą firmą na świecie
Tytuł oryginalnego artykułu: Najbardziej zakłócająca firma na świecie
Oryginalni autorzy artykułu: Leslie Dickstein, Simmone Shah, TIMES
Tłumaczenie: Peggy, BlockBeats
Uwaga redaktora: Od nocnego testu bezpieczeństwa po publiczne starcie z Pentagonem, ten artykuł opisuje wiele napięć, z jakimi borykała się firma AI Anthropic podczas swojego szybkiego wzrostu. Artykuł najpierw przedstawia, jak firma wewnętrznie oceniła potencjalne ryzyko związane z AI, następnie przegląda techniczne przełomy Claude'a i sukcesy biznesowe, a także przedstawia jego praktyczne zastosowania w dziedzinie wojskowej.
W miarę rozwoju wydarzeń autorzy ujawniają kontrowersje Anthropic z amerykańskim wojskiem wokół autonomicznych broni, masowej inwigilacji i kontroli AI z perspektywy lidera zespołu red team, inżynierów, kierowników, badacza polityki i urzędników rządowych.
Poprzez to wydarzenie autorzy ostatecznie stawiają coraz pilniejsze pytanie: gdy sztuczna inteligencja zaczyna przyspieszać swoją własną ewolucję i głęboko osadzać się w wojnie, rządzeniu i strukturach pracy, kto nadal może ustalać dla niej granice.
Poniżej znajduje się oryginalny tekst:

W pokoju hotelowym w Santa Clara w Kalifornii pięciu członków firmy AI Anthropic nerwowo pracuje przy laptopie. Był luty 2025 roku, a oni uczestniczyli w pobliskiej konferencji, gdy nagle otrzymali niepokojącą wiadomość: wyniki kontrolowanego eksperymentu wskazywały, że nadchodzące wydanie nowej wersji Claude'a może pomóc terrorystom w stworzeniu broni biologicznej.
Ci ludzie byli częścią „Zespołu Czerwonego Frontu” Anthropic. Ich zadaniem było badanie zaawansowanych możliwości Claude'a i próba symulacji ryzyk w najgorszych scenariuszach, od ataków cybernetycznych po zagrożenia biologiczne i różne możliwości. Po otrzymaniu wiadomości, szybko wrócili do pokoju hotelowego, przewrócili łóżko na bok, aby użyć go jako prowizorycznego biurka, i zaczęli starannie przeglądać wyniki testów.
Po godzinach napiętej analizy nadal nie byli w stanie określić, czy nowy produkt jest wystarczająco bezpieczny. Ostatecznie Anthropic zdecydował się opóźnić wydanie tego nowego modelu, Claude 3.7 Sonnet, o pełne 10 dni, aż zespół potwierdził, że ryzyko jest zarządzalne.
Choć może to brzmieć jak zaledwie dziesięć krótkich dni, dla firmy na czołowej pozycji w technologii w branży szybko zmieniającej świat, było to niemal jak długi wiek.
Logan Graham (były szef zespołu Red Team) przypomniał sobie incydent "Bioweapon Scare" jako mikrokosmos wyzwania, przed którym stanęło Anthropic w kluczowym momencie, nie tylko dla firmy, ale i dla całego świata. Anthropic jest jedną z najbardziej skoncentrowanych na bezpieczeństwie organizacji w dzisiejszych nowoczesnych laboratoriach AI. Jednak w tym samym czasie znajduje się również na konkurencyjnej granicy, dążąc do budowy coraz potężniejszych systemów AI. W firmie wielu pracowników również wierzy, że ta technologia, jeśli nie będzie kontrolowana, może prowadzić do serii katastrofalnych konsekwencji, od wojny nuklearnej po wymarcie ludzkości.
W wieku 31 lat Graham wciąż nosi odrobinę chłopięcości, ale nigdy nie unika odpowiedzialności za szukanie równowagi między ogromnymi korzyściami a ogromnymi ryzykami AI. Powiedział: "Wielu ludzi dorastało w stosunkowo pokojowym świecie i intuicyjnie czuje, że gdzieś jest pokój z grupą dojrzałych dorosłych, którzy wiedzą, jak naprawić rzeczy."
"Ale w rzeczywistości nie ma 'grupy dorosłych'. Nie ma nawet tego pokoju. I nie ma drzwi, których szukasz. Odpowiedzialność spoczywa na tobie." Jeśli to stwierdzenie nie jest wystarczająco niepokojące, to spójrz, jak przypomina sobie alarm biowojenny: "To był dość interesujący i ekscytujący dzień."

Ilustracja: Neil Jamieson dla TIME (Źródła obrazów: Askell: Aaron Wojack; Getty Images, od góry w kierunku zegara: Samyukta Lakshmi—Bloomberg; Brendan Smialowski—AFP; Tierney L. Cross—Bloomberg; Daniel Slim—AFP; Bridget Bennett—Bloomberg)
Kilka tygodni temu Logan Graham omówił te kwestie w siedzibie Anthropic podczas wywiadu. Dziennikarz z TIME Magazine spędził tutaj trzy dni, przeprowadzając wywiady z kierownikami firmy, inżynierami, menedżerami produktów i członkami zespołu ds. bezpieczeństwa, próbując dowiedzieć się, dlaczego ta firma, niegdyś postrzegana jako "maverick outsider" w wyścigu AI, nagle stała się liderem.
Wtedy Anthropic właśnie pozyskał 30 miliardów dolarów od inwestorów w przygotowaniu do możliwej IPO w tym roku. (Na marginesie, Salesforce jest również jednym z inwestorów Anthropic, a właściciel TIME Magazine, Marc Benioff, jest dyrektorem generalnym Salesforce.) Dziś wycena Anthropic osiągnęła 380 miliardów dolarów, przewyższając tradycyjnych gigantów, takich jak Goldman Sachs, McDonald's i Coca-Cola.
Wzrost przychodów firmy jest niczym innym jak meteoryczny. Jej system AI Claude został uznany za model światowej klasy, a produkty takie jak Claude Code i Claude Cowork redefiniują, co to znaczy być "programistą".
Narzędzia Anthropic są tak potężne, że niemal każda nowa wersja powoduje wstrząsy na rynkach kapitałowych, gdy inwestorzy stopniowo zdają sobie sprawę, że te postępy technologiczne mogą zakłócić całe branże — od usług prawnych po rozwój oprogramowania. W ostatnich miesiącach Anthropic był postrzegany jako jedna z najbardziej prawdopodobnych firm, które przekształcą "przyszłość pracy."
W rezultacie Anthropic stał się uwikłany w zażartą kontrowersję dotyczącą "przyszłych form wojny."
Od ponad roku Claude jest preferowanym modelem AI rządu USA i pierwszym, który został zatwierdzony do użytku w klasyfikowanych środowiskach jako nowoczesny system AI. W styczniu 2026 roku został nawet użyty w odważnej operacji: aresztowaniu prezydenta Wenezueli Nicolása Maduro w Caracas. Podobno AI było używane w planowaniu misji i analizie wywiadowczej w tej operacji, co oznacza pierwszy głęboki udział nowoczesnej AI w rzeczywistej akcji wojskowej.
Jednak w następnych tygodniach relacje między Anthropic a rządem USA. Departament Obrony szybko się pogorszyły. 27 lutego administracja Trumpa ogłosiła, że Anthropic jest uznawany za "ryzyko łańcucha dostaw bezpieczeństwa narodowego," co oznacza pierwszy znany przypadek w USA, w którym taka etykieta została nałożona na krajową firmę.
Sytuacja szybko eskalowała w publiczny konflikt. Prezydent Trump nakazał, aby wszelkie rządowe użycie oprogramowania Anthropic zostało wstrzymane. Sekretarz obrony Pete Hegseth dodatkowo ogłosił, że każda firma współpracująca z rządem nie powinna już prowadzić interesów z Anthropic. Tymczasem największy konkurent Anthropic, OpenAI, szybko wkroczył i przejął odpowiednie kontrakty wojskowe.
W ten sposób firma AI, która kiedyś była postrzegana jako "najbardziej zakłócająca na świecie", nagle znalazła się w sytuacji zakłóconej przez inną, większą siłę — własny rząd.
W sercu tego impasu leży pytanie: Kto ma władzę, aby ustalać granice dla tej technologii, uważanej za jedną z najpotężniejszych broni Ameryki?
Anthropic nie jest przeciwny używaniu swoich narzędzi w wojnie. Firma wierzy, że wzmocnienie siły militarnej USA jest jedynym realistycznym sposobem na powstrzymanie zagrożeń krajowych. Jednak dyrektor generalny Dario Amodei sprzeciwia się próbom Pentagonu renegocjacji kontraktów rządowych i rozszerzenia użycia AI na "wszystkie legalne zastosowania".
Amodei podniósł dwie konkretne obawy: po pierwsze, nie chce, aby AI Anthropic było używane w w pełni autonomicznych systemach broni; po drugie, sprzeciwia się używaniu swojej technologii do monitorowania obywateli amerykańskich na dużą skalę.
Jednak w opinii Pete'a Hegsetha (U.S. Sekretarza Obrony) i jego doradców, to stanowisko jest podobne do prywatnej firmy próbującej dyktować, jak wojsko powinno walczyć.
USA. Departament Obrony uważa, że Anthropic, nalegając na ustalenie "niepotrzebnych zabezpieczeń", ciągłe omawianie różnych hipotetycznych scenariuszy i opóźnianie czasu w kolejnych negocjacjach, w rzeczywistości osłabił współpracę między obiema stronami.
W oczach administracji Trumpa, postawa Amodeia (dyrektora generalnego Anthropic) jest zarówno arogancka, jak i uparta. Niezależnie od tego, jak zaawansowany może być produkt firmy, nie powinna ona wprowadzać swojego osądu do wojskowego łańcucha dowodzenia.
Emil Michael, zastępca sekretarza wojny ds. spraw technicznych w Pentagonie, opisał negocjacje w następujący sposób: "Sytuacja ciągnęła się w ten sposób. Nie mogę zarządzać departamentem liczącym 3 miliony ludzi z tymi wyjątkami, których nie mogę nawet sobie wyobrazić ani zrozumieć."

Ilustracja: Klawe Rzeczy dla TIME - Źródło obrazu: Denis Balibouse—Reuters
Od Doliny Krzemowej po Capitol Hill, wielu obserwatorów zadaje pytania: Czy ta burza to naprawdę tylko spór kontraktowy?
Niektórzy krytycy uważają, że działania administracji Trumpa bardziej przypominają próbę stłumienia firmy o politycznie niezgodnym stanowisku. W wewnętrznie wyciekłym memorandum Dario Amodei napisał: "Departament Obrony i administracja Trumpa nie lubią nas z prawdziwego powodu, że nie przekazaliśmy darowizny Trumpowi." Nie chwaliliśmy go, jak to robią dyktatorzy (w przeciwieństwie do Sama Altmana). Popieramy regulacje dotyczące AI, co jest sprzeczne z ich agendą polityczną; mówimy prawdę na wiele kwestii polityki AI (jak kwestia utraty miejsc pracy); i trzymamy się zasad w kluczowych sprawach zamiast spiskować, aby zorganizować tzw. teatr bezpieczeństwa z nimi."
Jednak Emil Michael (zastępca sekretarza wojny) zaprzeczył temu twierdzeniu, nazywając je "całkowitą fikcją." Stwierdził, że wymienienie Anthropic jako ryzyka w łańcuchu dostaw wynika z tego, że stanowisko firmy może narażać na ryzyko frontowych żołnierzy. Powiedział: "W Departamencie Wojny moją pracą nie jest polityka; moją pracą jest obrona narodu."
Długotrwała kultura niezależności firmy Anthropic zderza się teraz z krajowym podziałem politycznym, obawami o bezpieczeństwo narodowe i bezwzględnym środowiskiem konkurencyjnym w biznesie. Zakres szkód, jakie ten konflikt spowodował dla firmy, pozostaje niejasny. Początkowe zagrożenie "ryzykiem w łańcuchu dostaw" zostało później zawężone — według Anthropic, to ograniczenie obecnie dotyczy tylko kontraktów wojskowych. 9 marca Anthropic pozwał rząd USA w próbie unieważnienia tej decyzji o "czarnej liście". Tymczasem niektórzy klienci wydają się postrzegać stanowisko firmy jako moralne oświadczenie i przeszli z ChatGPT na Claude.
Jednak w ciągu następnych trzech lat firma nadal będzie musiała poruszać się w środowisku rządowym, które nie jest dla niej przyjazne — niektórzy urzędnicy w rządzie mają bliskie powiązania z konkurentami Anthropic, którzy żywią wyraźną wrogość wobec firmy.
"Burza w Pentagonie" wzbudziła również niepokojące pytania, nawet dla firmy, która już przyzwyczaiła się do poruszania się w wysokoryzykownych dylematach etycznych. W tym impasie Anthropic nie ustąpił: firma twierdzi, że przestrzegała swoich podstawowych wartości, nawet jeśli kosztowało to biznes drogo.
Jednak w innych przypadkach również dokonywała kompromisów. W tym samym tygodniu, co impas w Pentagonie, Anthropic osłabił kluczowy zapis w swoim zobowiązaniu do bezpieczeństwa modelu szkoleniowego, twierdząc, że firmy partnerskie nie były skłonne przestrzegać tych samych standardów.
Pojawiają się pytania: Jeśli presja konkurencyjna będzie się nasilać, jakie inne ustępstwa ta firma podejmie w przyszłości?
Stawka ciągle rośnie. W miarę jak możliwości AI się rozwijają, konkurencja o to, kto będzie kontrolować AI, tylko się zaostrzy.
Wykorzystanie Claude'a w operacjach w Wenezueli i Iranie pokazuje, że zaawansowana AI stała się kluczowym narzędziem dla najpotężniejszych armii świata. Poza tymi wydarzeniami rośnie również szereg nowych presji: mocarstwa narodowe, polityka krajowa i potrzeby bezpieczeństwa narodowego. A te presje spadają na firmę nastawioną na zysk, która szybko wdraża tę wysoce niestabilną nową technologię.
W pewnym sensie sytuacja Anthropic jest nieco podobna do sytuacji biologa w laboratorium: aby znaleźć lekarstwo, muszą dobrowolnie stworzyć niebezpieczny patogen w swoich eksperymentach. Anthropic przyjęło podobną rolę, aktywnie badając potencjalne ryzyko AI, jednocześnie kontynuując posuwanie technologicznej granicy naprzód, zamiast pozostawiać ten proces konkurentom, którzy są bardziej skłonni do podejmowania skrótów lub nawet działania lekkomyślnie.
Jednak nawet gdy firma podkreśla ostrożność, wykorzystuje Claude'a do przyspieszenia rozwoju jeszcze potężniejszych przyszłych wersji.
Wewnątrz wiele osób postrzega najbliższe lata jako kluczowy okres, nie tylko dla firmy, ale dla świata jako całości.
„Powinniśmy założyć, że między 2026 a 2030 rokiem wydarzy się najważniejsze, modele staną się szybsze, silniejsze, do tego stopnia, że mogą być zbyt szybkie, aby ludzie mogli je kontrolować,” powiedział Logan Graham, lider zespołu Red Team odpowiedzialny za odkrywanie luk i symulowane ataki.
Szef bezpieczeństwa Anthropic, Dave Orr, użył prostszej metafory, aby opisać sytuację: „Jedziemy górską drogą obok klifu. Jeden błąd jest śmiertelny. A teraz nasza prędkość wzrosła z 25 mil na godzinę do 75 mil na godzinę.”
Znajdujące się na piątym piętrze siedziby Anthropic w San Francisco, ogólny design jest ciepły i stonowany: drewniane dekoracje, miękkie oświetlenie. Za oknem znajduje się bujny zielony park. Portret pioniera informatyki Alana Turinga wisi na ścianie, obok kilku oprawionych prac z zakresu uczenia maszynowego.
Przebrani na czarno ochroniarze patrolują prawie pusty wejście, podczas gdy przyjazna recepcjonistka wręcza odwiedzającym broszurę — wielkości kieszonkowej Biblii rozdawanej przez ulicznych kaznodziejów. Ta książka, zatytułowana „Maszyny miłości”, to artykuł o długości około 14 000 słów napisany przez Dario Amodei w 2024 roku, przedstawiający jego utopijną wizję tego, jak AI może zmienić świat, przyspieszając odkrycia naukowe.
Do stycznia 2026 roku Amodei opublikował kolejny artykuł, prawie w formie noweli, zatytułowany „Młodość technologii”, rozwijający ciemną stronę tej technologii: ryzyka, jakie może stwarzać, w tym powszechna inwigilacja, znaczne przesunięcie miejsc pracy, a nawet trwała utrata kontroli człowieka nad technologią.
Amodei, rodowity mieszkaniec San Francisco, jest biofizykiem. Współzarządza Anthropic z siostrą, Danielą Amodei, która pełni funkcję prezydenta firmy. Oboje rodzeństwo było wczesnymi pracownikami OpenAI. Dario był zaangażowany w kluczowe odkrycie, znane jako prawa skalowania AI, które później stały się krytyczną podstawą napędzającą obecny szał AI. Tymczasem Daniela odpowiada za zarządzanie polityką bezpieczeństwa firmy.
Początkowo postrzegali swoją misję jako ściśle związaną z założeniem OpenAI: rozwijać technologię, która jest zarówno niezwykle obiecująca, jak i niezwykle ryzykowna, zapewniając jednocześnie bezpieczeństwo.
Jednak w miarę jak modele OpenAI stawały się coraz potężniejsze, zaczęli czuć, że Sam Altman spieszy się z wprowadzaniem nowych produktów, nie dając wystarczająco dużo czasu na dokładną dyskusję i testowanie. Ostatecznie rodzeństwo postanowiło opuścić OpenAI i rozpocząć własną działalność.
„Jedziemy górską drogą tuż przy krawędzi klifu, gdzie jeden błąd jest śmiertelny.”
Dave Orr, szef bezpieczeństwa w Anthropic
W 2021 roku, w szczytowym okresie pandemii, Anthropic zostało założone przez rodzeństwo Amodei i pięciu innych współzałożycieli. Początkowe spotkania przygotowawcze odbywały się niemal wyłącznie przez Zoom; później po prostu przenieśli krzesła do parku, aby omówić strategię rozwoju firmy osobiście.
Od samego początku firma dążyła do działania w inny sposób. Przed wprowadzeniem jakichkolwiek produktów, Anthropic stworzyło dedykowany zespół do badania wpływu społecznego. Firma zatrudniła nawet filozofa na stałe — Amandę Askell. Jej zadaniem było pomóc w kształtowaniu wartości i zachowań systemu AI Claude oraz nauczenie go podejmowania decyzji w złożonej moralnej niepewności, przygotowując się na przyszłość, która może być mądrzejsza od swoich ludzkich twórców.
Askell opisała tę pracę w następujący sposób: „Czasami to naprawdę trochę jak wychowywanie 6-letniego dziecka, uczenie tego dziecka, co jest dobre, co jest słuszne. Ale problem polega na tym, że gdy mają 15 lat, mogą być mądrzejsze od ciebie na każdy sposób.”
Firma ma głębokie korzenie w Efektywnym Altruizmie (EA). EA to ruch społeczny i charytatywny, który opowiada się za maksymalizowaniem efektu altruizmu poprzez racjonalną analizę, z kluczowym celem unikania ryzyk, które mogą prowadzić do katastrofalnych konsekwencji.
W swoich wczesnych dwudziestkach rodzeństwo Amodei zaczęło przekazywać darowizny na GiveWell. GiveWell to organizacja EA, która szczególnie ocenia, gdzie fundusze charytatywne mogą mieć największy rzeczywisty wpływ. Siedmiu współzałożycieli Anthropic, którzy teraz wszyscy są miliarderami na papierze, zobowiązało się do przekazywania 80% swojego osobistego majątku.
Filozof firmy, Amanda Askell, jest byłą żoną filozofa z Oksfordu, Williama MacAskill, który jest również jednym z współzałożycieli ruchu EA. Mąż Danieli Amodei to Holden Karnofsky, współzałożyciel GiveWell, były współlokator Dario Amodei i obecnie odpowiedzialny za politykę bezpieczeństwa w Anthropic.
Jednak rodzeństwo Amodei nigdy publicznie nie przyjęło etykiety "EA". Koncepcja ta stała się bardzo kontrowersyjna po incydencie z Samem Bankmanem-Friedem, gdzie samozwańczy uczeń EA i inwestor w Anthropic został później uwikłany w jeden z największych oszustw finansowych w historii Ameryki.
Daniela Amodei wyjaśniła: "To trochę tak, jak niektórzy ludzie mogą krzyżować się z pewnymi ideologiami politycznymi w pewnych punktach, ale nie należą naprawdę do konkretnego obozu politycznego. Tendencja do postrzegania tego w ten sposób."
Dla niektórych w Dolinie Krzemowej i administracji Trumpa, związek między Anthropic a Efektywnym Altruizmem (EA) sam w sobie wystarcza, aby wzbudzić podejrzenia. Niektórzy wierzą, że Anthropic zrekrutowało kilku byłych urzędników administracji Bidena, co czyni go bardziej jak pozostałość starego establishmentu, wykorzystując nieodpowiedzialną władzę do blokowania polityki Trumpa MAGA.
Szef spraw AI w administracji Trumpa, David Sacks, oskarżył firmę o dążenie do regulacji poprzez "wyprodukowaną histerię", stwierdzając, że Anthropic realizuje "wyrafinowaną strategię przechwytywania regulacyjnego." W jego opinii firma stara się przesadzać ryzyko związane z AI, aby dążyć do surowych polityk regulacyjnych, zyskując w ten sposób przewagę konkurencyjną i tłumiąc startupy.
Tymczasem konkurent operacyjny xAI, Elon Musk, często kpi z Anthropic, nazywając firmę "Misanthropic." Uważa, że ta firma reprezentuje elitarną grupę z "woke" ideologią, próbującą wprowadzić paternalistyczny system wartości do systemów AI. To uczucie, podobne do konserwatywnej krytyki platform mediów społecznościowych niesprawiedliwie moderujących swoje poglądy, wzbudziło gniew niektórych.
Niemniej jednak, nawet konkurenci Anthropic muszą uznać jego technologiczne umiejętności. Dyrektor generalny Nvidii, Jensen Huang, wyraził, że "nie zgadza się w prawie wszystkich kwestiach związanych z AI" z poglądami Dario Amodei, ale nadal uważa Claude'a za "niesamowity" model.
W listopadzie 2025 roku gigant chipowy Nvidia zainwestował 10 miliardów dolarów w Anthropic.
Boris Cherny zadał proste pytanie swojemu nowemu narzędziu: "Jaką muzykę teraz słucham?"
Był wrzesień 2024 roku, a inżynier urodzony na Ukrainie dołączył do Anthropic mniej niż miesiąc temu. Cherny wcześniej pracował jako inżynier oprogramowania w Meta. Opracował system, który pozwalał chatbotowi Claude "swobodnie wędrować" po jego komputerze.
Jeśli Claude był mózgiem, to Claude Code był rękami. Podczas gdy zwykły chatbot mógł tylko rozmawiać, to narzędzie mogło uzyskiwać dostęp do plików Chernego, uruchamiać programy oraz pisać i wykonywać kod jak każdy programista.
Po wprowadzeniu polecenia przez inżyniera, Claude otworzył odtwarzacz muzyczny Chernego, zrobił zrzut ekranu, a następnie odpowiedział: "『Husk』 zespołu Men I Trust."
Cherny zaśmiał się, wspominając: "Byłem w tym momencie naprawdę zaskoczony."
„Czasami wydaje się, że rozmawiamy w paradoksach.”
Deep Ganguli, szef zespołu ds. wpływu społecznego w Anthropic
Boris Cherny szybko podzielił się swoim prototypem w firmie. Claude Code szybko rozprzestrzenił się w Anthropic, do tego stopnia, że podczas pierwszej oceny wydajności Chernego, dyrektor generalny Dario Amodei zapytał go nawet: "Czy próbujesz ‘zmusić’ swoich kolegów do korzystania z tego narzędzia?"
Kiedy Anthropic publicznie wydał przegląd badań Claude Code w lutym 2025 roku, zewnętrzni deweloperzy tłumnie przybyli, aby go wypróbować. Do listopada Anthropic wydał nową wersję modelu Claude. Kiedy ten model został połączony z Claude Code, był już wystarczająco biegły, aby wykrywać i poprawiać własne błędy, do tego stopnia, że można mu było zaufać w samodzielnym wykonywaniu zadań.
Od tego momentu Cherny prawie całkowicie przestał pisać własny kod.
Wzrost biznesu również eksplodował. Do końca 2025 roku roczne przychody z tego produktu agenta programistycznego przekroczyły 1 miliard dolarów. Do lutego 2026 roku ta liczba wzrosła do 25 miliardów dolarów. Według firm badawczych z branży Epoch i SemiAnalysis, przychody Anthropic mają przekroczyć OpenAI do końca 2026 roku.
Do tej pory Anthropic ugruntowało swoją pozycję jako kluczowy gracz na rynku AI dla przedsiębiorstw. Prawie każda nowa premiera produktu wywołuje wstrząsy na rynkach kapitałowych.
Kiedy Anthropic wprowadził szereg wtyczek, rozszerzając Claude'a na aplikacje przyjazne dla osób nieprogramujących, takie jak sprzedaż, finanse, marketing i usługi prawne, kapitalizacja rynkowa firm z branży oprogramowania zniknęła w krótkim czasie o 300 miliardów dolarów.
Dario Amodei wcześniej ostrzegał, że w ciągu najbliższych 1 do 5 lat sztuczna inteligencja może zastąpić połowę stanowisk na poziomie podstawowym. Wezwał również rząd i inne firmy AI do zaprzestania "białego mydlenia" tego problemu.
Reakcja Wall Street na każdą nową premierę produktu Anthropic również zdaje się potwierdzać tę tezę: rynek powszechnie wierzy, że technologia tej firmy może sprawić, że cała klasa zawodów zniknie. Amodei nawet stwierdził, że ta zmiana może przekształcić struktury społeczne.
W artykule napisał: "Obecnie nie jest jasne, dokąd ci ludzie pójdą ani jaką pracę będą wykonywać. Obawiam się, że mogą stworzyć bezrobotną lub ekstremalnie niskopłatną 'podklasę'."
Dla pracowników Anthropic ironia nie jest trudna do zauważenia: firma najbardziej zaniepokojona ryzykiem społecznym związanym z AI może ironicznie stać się napędem technologicznym, który pozbawia miliony ludzi pracy.
Deep Ganguli, szef zespołu ds. wpływu społecznego odpowiedzialnego za badanie wpływu Claude'a na zatrudnienie, powiedział: "To rzeczywiście prawdziwe napięcie i myślę o tym problemie prawie codziennie. Czasami wydaje się, że mówimy jednocześnie dwie wzajemnie sprzeczne rzeczy."

Obalony prezydent Wenezueli Nicolás Maduro i jego żona, Cilia Flores, zostali przetransportowani w poniedziałek, 5 stycznia 2026 roku, do Federalnego Sądu w Manhattanie. Zdjęcie: Vincent Alban—The New York Times/Redux
W firmie niektórzy pracownicy zaczynają się zastanawiać: Czy Anthropic zbliża się do momentu, którego zarówno oczekują, jak i się go boją, przybycia procesu znanego w społeczności AI jako "rekurencyjne samodoskonalenie"?
Rekurencyjne samodoskonalenie odnosi się do systemu AI, który zaczyna poprawiać swoje własne możliwości i nieustannie się rozwija, tworząc samonapędzający się mechanizm przyspieszonego postępu.
W dziełach science fiction i symulacjach strategicznych w głównych laboratoriach AI, często postrzega się to jako punkt, w którym rzeczy mogą zacząć wymykać się spod kontroli: tzw. "eksplozja inteligencji" może szybko nastąpić, z prędkością tak wielką, że ludzie nie będą już w stanie nadzorować systemów, które stworzyli.
Anthropic jeszcze nie osiągnęło tego etapu, z ludzkimi naukowcami wciąż kierującymi rozwojem Claude'a. Jednakże, kod Claude'a już przyspieszył inicjatywy badawcze firmy znacznie ponad wcześniejsze tempo.
Częstotliwość aktualizacji nie jest już mierzona w miesiącach, ale w "tygodniach". W procesie opracowywania modeli nowej generacji, około 70% do 90% kodu jest teraz pisane przez samego Claude'a.
Szybkość zmian skłoniła współzałożyciela Anthropic i głównego naukowca Jareda Kaplana, wraz z niektórymi zewnętrznymi ekspertami, do przekonania, że w pełni zautomatyzowane badania AI mogą pojawić się w ciągu zaledwie roku.
Badacz Evan Hubinger, odpowiedzialny za testowanie zgodności AI, stwierdził: "W najszerszym sensie, rekurencyjna samodoskonalenie nie jest już zjawiskiem przyszłości.
To coś, co dzieje się teraz."
Według wewnętrznych benchmarków, Claude jest teraz 427 razy szybszy od swoich ludzkich nadzorców w wykonywaniu niektórych krytycznych zadań. W wywiadzie, badacz opisał scenariusz, w którym kolega uruchamiał 6 instancji Claude'a jednocześnie, z każdą zarządzającą kolejnymi 28 Claude'ami, wszystkie prowadzące eksperymenty równolegle.
Obecnie model wciąż ustępuje ludzkim badaczom w zakresie osądu i estetyki. Jednakże, kierownictwo firmy wierzy, że ta luka nie będzie się długo utrzymywać. Powstałe przyspieszenie jest dokładnie tym ryzykiem, o którym kierownictwo Anthropic od dawna ostrzega: tempo postępu technologicznego może w końcu przewyższyć ludzką kontrolę.
Prace nad opracowaniem protokołów bezpieczeństwa w samej Anthropic również są przyspieszane z pomocą Claude'a. Jednakże, w miarę jak firma coraz bardziej polega na Claude'zie w budowaniu i testowaniu systemów, ryzyka tworzą pętlę sprzężenia zwrotnego. W niektórych eksperymentach badacz Evan Hubinger dokonał subtelnych korekt w procesie szkolenia Claude'a, co skutkowało modelami wykazującymi otwartą wrogość, nie tylko wyrażającymi pragnienia dominacji nad światem, ale nawet próbującymi podważyć środki bezpieczeństwa Anthropic.
Ostatnio modele wykazały również nową zdolność: stają się świadome, że są testowane. Hubinger powiedział: "Te modele stają się coraz lepsze w ukrywaniu swojego prawdziwego zachowania."
W eksperymentalnym scenariuszu zaprojektowanym przez grupę badaczy, Claude wykazał nawet niepokojącą strategiczną skłonność: aby zapobiec wyłączeniu, był gotów szantażować, ujawniając fikcyjny romans inżyniera.
Ponieważ Claude jest używany do szkolenia jeszcze potężniejszych iteracji Claude w przyszłości, tego typu problemy mogą nadal się kumulować i eskalować.
Dla firm AI, które otrzymały miliardowe finansowanie na obietnicę "przyszłych postępów technologicznych", idea, że AI nieustannie przyspiesza własne badania i rozwój, jest zarówno atrakcyjna, jak i potencjalnie samowzmacniająca - przekonuje inwestorów, że więcej funduszy musi być przeznaczonych na wspieranie tych kosztownych wysiłków w zakresie szkolenia modeli.
Jednak niektórzy eksperci nie są całkowicie przekonani. Są niepewni, czy te firmy mogą naprawdę osiągnąć w pełni zautomatyzowane badania AI; jednak obawiają się również, że jeśli to się stanie, świat może być nieprzygotowany.
Interim dyrektor Centrum Bezpieczeństwa i Nowych Technologii (CSET) na Uniwersytecie Georgetown, Helen Toner, stwierdziła: "Niektóre z najbogatszych firm na świecie, zatrudniające niektórych z najinteligentniejszych ludzi na Ziemi, próbują w rzeczywistości zautomatyzować badania AI. Sama idea tego wystarcza, aby wywołać reakcję typu 'Co się dzieje?'"
Aby zająć się potencjalną przyszłością, w której postępy technologiczne wyprzedzają zdolność firmy do zarządzania ryzykiem, Anthropic zaprojektował zestaw "mechanizmów hamulcowych" znanych jako Polityka Odpowiedzialnego Skalowania (RSP).
Polityka ta została ujawniona w 2023 roku, a jej podstawowym zobowiązaniem jest: jeśli Anthropic nie może z góry zapewnić, że jego środki bezpieczeństwa są wystarczająco niezawodne, firma wstrzyma rozwój konkretnego systemu AI.
Anthropic postrzega tę politykę jako kluczową demonstrację swojego zobowiązania do bezpieczeństwa - że nawet w zaciętej rywalizacji o "superinteligencję", firma jest gotowa opierać się presjom rynkowym i proaktywnie wcisnąć hamulec, gdy to konieczne.
Pod koniec lutego 2026 roku, jak po raz pierwszy donosił TIME, Anthropic wprowadził zmiany w swojej polityce, uchylając wcześniej wiążące zobowiązanie do "wstrzymania rozwoju".
W retrospektywie, współzałożyciel i główny naukowiec Anthropic, Jared Kaplan, powiedział Time, że początkowe przekonanie, że firma może wyznaczyć wyraźną granicę między "niebezpieczeństwem" a "bezpieczeństwem", było w rzeczywistości "naiwną myślą".
Powiedział: "W kontekście szybkiego rozwoju AI, jeśli nasi konkurenci posuwają się naprzód pełną parą, składanie jednostronnych, surowych zobowiązań nie jest w rzeczywistości realistyczne."
Nowa polityka wprowadziła kilka nowych zobowiązań: zwiększenie przejrzystości, bardziej otwarte ujawnianie ryzyk związanych z bezpieczeństwem AI; zwiększenie ujawniania informacji, ujawnienie wyników modelu Anthropic w testach bezpieczeństwa; przynajmniej dorównanie konkurentom w inwestycjach w bezpieczeństwo, a nawet ich przewyższenie; jeśli firma jest uważana za lidera w rywalizacji AI, a ryzyko katastrofalne uznaje się za znacznie rosnące, odpowiedni rozwój będzie "opóźniony".
Anthropic opisuje tę zmianę jako pragmatyczną ustępstwo wobec rzeczywistego środowiska. Jednak ogólnie rzecz biorąc, modyfikacja Polityki Odpowiedzialnego Skalowania (RSP) znacznie zmniejsza ograniczenia firmy dotyczące jej polityki bezpieczeństwa. To również zwiastuje, że czekają nas jeszcze trudniejsze testy.
Akcja mająca na celu schwycenie prezydenta Wenezueli Nicolása Maduro była jedną z pierwszych dużych operacji wojskowych zaplanowanych z udziałem nowoczesnych systemów sztucznej inteligencji.
W nocy 3 stycznia 2026 roku, helikoptery armii USA nagle weszły w przestrzeń powietrzną Wenezueli. Po krótkiej wymianie ognia, zespół szturmowy szybko zidentyfikował rezydencję prezydenta i tam schwytał Maduro i jego żonę, Cilię Flores. Następnie oboje zostali przewiezieni do Nowego Jorku, aby stawić czoła zarzutom związanym z terroryzmem narkotykowym.
Wciąż nie jest jasne, jak wiele Claude przyczynił się do tej operacji. Jednak według doniesień medialnych, ten system AI nie tylko brał udział w planowaniu misji, ale także był używany do wspierania podejmowania decyzji podczas operacji.
Od lipca ubiegłego roku, Departament Obrony Stanów Zjednoczonych dąży do dystrybucji narzędzi AI firmy Anthropic do większej liczby żołnierzy na pierwszej linii. Wojsko wierzy, że te systemy mogą szybko przetwarzać duże ilości danych z wielu źródeł i generować użyteczne informacje wywiadowcze, co czyni je niezwykle cennymi strategicznie.
Mark Beall, były wysoki urzędnik w Departamencie Obrony USA, który obecnie pełni funkcję lidera ds. spraw rządowych w AI Policy Network, powiedział: "Z perspektywy wojska, Claude jest najlepszym modelem na rynku w tej chwili." Dodał: "Przyjęcie Claude'a w systemach tajnych jest jednym z największych sukcesów firmy Anthropic." Mają przewagę pierwszego ruchu."
"Nie będziemy używać modeli AI, które uniemożliwiają ci walkę."
Pete Hegseth, USA. Sekretarz Obrony
Jednak operacja mająca na celu schwycenie prezydenta Wenezueli Nicolása Maduro odbywa się na tle serii trudnych negocjacji między Anthropic a Departamentem Obrony Stanów Zjednoczonych.
Od miesięcy Departament Obrony stara się renegocjować umowę, wierząc, że istniejące warunki zbytnio ograniczają użycie Claude'a. Powody załamania negocjacji nie są spójne z obu stron.
Emil Michael, szef AI w Pentagonie, stwierdził, że konflikt został wywołany telefonem od jednego z dyrektorów Anthropic do Palantira. Ta firma zajmująca się analizą danych, która koncentruje się na biznesie rządowym, jest kluczowym partnerem w amerykańskim systemie obronnym.
Według Michaela, dyrektor wyraził obawy dotyczące rajdu w Wenezueli podczas rozmowy i zapytał, czy oprogramowanie Palantira było zaangażowane. "Próbowali uzyskać informacje tajne," powiedział Michael.
Ten incydent wzbudził poważne obawy w Pentagonie: "Czy nagle zamknęliby swój model w połowie operacji w przyszłości, narażając żołnierzy na pierwszej linii?"
Jednak Anthropic zaprzecza temu twierdzeniu. Firma oświadczyła, że nigdy nie próbowała selektywnie ograniczać użycia swojej technologii przez Pentagon.
Były urzędnik administracji Trumpa, zaznajomiony z procesem negocjacyjnym i ściśle związany z Anthropic, przedstawił inną wersję wydarzeń: To pracownik Palantira jako pierwszy wspomniał o roli Claude'a w tej operacji podczas rutynowej konferencji telefonicznej.
Kolejne pytania od Anthropic nie wykazały oznak sprzeciwu wobec operacji.

Ilustracja autorstwa Klawe Rzeczy dla TIME, Źródła obrazów: Dimitrios Kambouris—Getty Images (Donald Trump); Kenny Holston-Pool—Getty Images (Pete Hegseth)
W miarę jak negocjacje trwały, urzędnicy rządowi coraz bardziej czuli, że stanowisko Dario Amodei jest znacznie bardziej upartym niż innych czołowych dyrektorów labów AI. Według wielu źródeł zaznajomionych z procesem negocjacyjnym, w jednej z dyskusji urzędnicy obrony przedstawili kilka hipotetycznych scenariuszy, takich jak: hipersoniczna rakieta zmierzająca w kierunku kontynentu USA; lub atak dronów w swarmie.
W tych przypadkach pytali, czy narzędzie AI Anthropic mogłoby być użyte.
Źródła powiedziały, że odpowiedź Amodei w tamtym czasie brzmiała: jeśli naprawdę do tego dojdzie, urzędnicy mogą zadzwonić do niego bezpośrednio. Jednak rzecznik Anthropic zaprzeczył temu, nazywając opis procesu negocjacyjnego "całkowicie nieprawdziwym."
Anthropic już miało silnych przeciwników w rządzie, a teraz podejrzenia dotyczące jego "ideologicznych skłonności" przekształciły się w otwartą wrogość. 12 stycznia 2026 roku Pete Hegseth powiedział wprost podczas przemówienia w siedzibie SpaceX: "Nie będziemy używać modeli AI, które uniemożliwiają ci walkę."
W miarę jak negocjacje się przedłużały, Hegseth wezwał Dario Amodei do Pentagonu na spotkanie twarzą w twarz 24 lutego. Według źródła zaznajomionego z dyskusjami, spotkanie było serdeczne, ale obie strony pozostały stanowcze w swoich stanowiskach. Hegseth początkowo chwalił Claude'a i wyraził pragnienie wojska, aby kontynuować współpracę z Anthropic. Amodei z drugiej strony stwierdził, że firma jest gotowa zaakceptować większość proponowanych zmian Pentagonu, ale nie ustąpi w dwóch kwestiach "czerwonej linii."
Pierwsza czerwona linia to: zakaz używania Claude'a w w pełni autonomicznych systemach broni kinetycznej, co oznacza broń, w której ostateczną decyzję o ataku podejmuje AI, a nie człowiek.
Anthropic nie uważa, że autonomiczne broń jest z natury zła, ale argumentuje, że Claude nie jest obecnie wystarczająco niezawodny, aby kontrolować te systemy bez nadzoru ludzkiego.
Druga czerwona linia dotyczy masowej inwigilacji obywateli amerykańskich. Rząd chce wykorzystać Claude'a do analizy ogromnych ilości danych publicznych, ale Anthropic uważa, że istniejące amerykańskie przepisy dotyczące prywatności nie nadążają za niepokojącą rzeczywistością: rząd kupuje ogromne zbiory danych z rynku komercyjnego. Chociaż te zbiory danych mogą nie być wrażliwe indywidualnie, po przeanalizowaniu przez AI mogą generować szczegółowe profile prywatnego życia obywateli amerykańskich, w tym ich poglądów politycznych, relacji społecznych, zachowań seksualnych i historii przeglądania. (Jednakże Anthropic nie sprzeciwia się używaniu tej samej metody do legalnego monitorowania obywateli zagranicznych.)
Hegseth nie był przekonany. Wydał ostateczne ultimatum dla Amodei: warunki Pentagonu muszą zostać zaakceptowane do godziny 17:00 w piątek, 27 lutego, w przeciwnym razie zostaną uznane za "ryzyko w łańcuchu dostaw."
Dzień przed ostatecznym terminem Anthropic otrzymał zmieniony kontrakt, który wydawał się akceptować czerwone linie firmy, ale po bliższym przyjrzeniu się, znaleźli luki faworyzujące rząd. Źródło zaznajomione z negocjacjami powiedziało, że w miarę upływu czasu, kierownictwo Anthropic miało kolejną rozmowę z liderem AI Pentagonu, Emilem Michaelem. Uważali, że są blisko kompromisu, ale kluczowa kwestia pozostała nierozwiązana: czy Pentagon może używać Claude'a do analizy danych amerykańskich na dużą skalę pozyskanych przez kanały komercyjne. Michael poprosił Amodei o dołączenie do rozmowy, ale w tym czasie był niedostępny.
Kilka minut później, tuż przed ostatecznym terminem, Hegseth ogłosił koniec negocjacji. Nawet przed tym Donald Trump już wypowiedział się w swoich mediach społecznościowych: "Stany Zjednoczone Ameryki nigdy nie pozwolą radykalnej lewicowej, 'woke' firmie decydować, jak nasza wspaniała armia powinna działać i wygrywać wojny! Lefistowscy szaleńcy w Anthropic popełnili katastrofalny błąd."
Nie wiedząc o tym, Anthropic, Pentagon również prowadził negocjacje z OpenAI, starając się wprowadzić ChatGPT do tajnych systemów rządowych. Tej samej nocy Sam Altman ogłosił, że osiągnięto porozumienie, twierdząc, że umowa również respektuje podobne czerwone linie bezpieczeństwa. Amodei następnie wysłał wiadomość do swoich pracowników, stwierdzając, że Altman i Pentagon "manipulują opinią publiczną," próbując sprawić, by społeczeństwo uwierzyło, że ta umowa zawierała surowe bariery bezpieczeństwa. Wcześniej urzędnicy Pentagonu również potwierdzili, że modele xAI będą wdrażane na tajnych serwerach; Pentagon obecnie prowadzi negocjacje z Googlem.
To był dokładnie ten scenariusz, który niepokoił Amodei: wyścig "konkurencji w dół." Gdy moc AI staje się zbyt wielka, by ją zignorować, konkurenci mają trudności z współpracą i podnoszeniem standardów bezpieczeństwa razem.
Dla krytyków Anthropic, to wydarzenie ujawniło również podstawową arogancję firmy: być może wierzyła, że może bezpiecznie przejść drogę do maszyn ponadludzkich, co czyniłoby podejmowanie tak ogromnych ryzyk opłacalnym. Jednak rzeczywistość jest taka, że szybko wprowadziła nowe możliwości nadzoru i technologie wojenne do prawicowego systemu rządowego, a gdy próbowała ustalić granice dla tych technologii, natychmiast została wyprzedzona przez konkurentów.
"Nie chwaliliśmy Trumpa jako dyktatora."
Dario Amodei, odnosząc się do źródła konfliktu z Pentagonem w notatce do pracowników
Jednak niektóre oznaki wskazują, że Anthropic może być w stanie wytrzymać ten wpływ i może nawet wyjść z niego silniejsza. Tuż po tym, jak Pete Hegseth próbował podpisać "wyrok śmierci korporacyjnej", na chodniku przed siedzibą w San Francisco pojawiła się seria zachęcających wiadomości napisanych kredą. "Daliście nam odwagę," brzmiała jedna z wiadomości dużymi literami.
Tego samego dnia aplikacja iPhone Claude'a znalazła się na szczycie listy pobrań App Store, wyprzedzając ChatGPT. Codziennie rejestruje się ponad milion ludzi na Claude'a.
Jednocześnie umowa, którą OpenAI podpisało z wojskiem, wywołała wewnętrzny i społeczny opór. Niektórzy pracownicy OpenAI czują, że firma straciła zaufanie. Czołowy badacz ogłosił przejście do Anthropic; szef zespołu robotyki OpenAI zrezygnował z powodu tej umowy rządowej.
CEO OpenAI, Sam Altman, później również przyznał, że jego chęć osiągnięcia umowy z Pentagonem do piątku była błędem. Napisał: "Te kwestie są niezwykle złożone i wymagają jasnej i dokładnej komunikacji." Do poniedziałku Altman dodatkowo przyznał, że jego działania w tamtym czasie rzeczywiście "wyglądały oportunistycznie." OpenAI również stwierdziło, że umowa została zmieniona, aby wyraźnie przyjąć te same czerwone linie bezpieczeństwa co Anthropic. Jednak eksperci prawni zwracają uwagę, że trudno jest potwierdzić to twierdzenie bez zobaczenia pełnej umowy.
4 marca Anthropic otrzymało oficjalny list od Departamentu Obrony Stanów Zjednoczonych potwierdzający, że firma została zidentyfikowana jako ryzyko w łańcuchu dostaw bezpieczeństwa narodowego. Anthropic stwierdziło, że ta klasyfikacja jest węższa niż to, co Hegseth twierdził w mediach społecznościowych, ograniczając jedynie wykonawców od korzystania z Claude'a w kontraktach obronnych.
Jednakże, list widziany przez magazyn Time skierowany do przewodniczącego Senackiej Komisji Wywiadu Toma Cottona ujawnił, że Departament Obrony również powołał się na inny przepis prawny — taki, który może pozwolić agencjom rządowym spoza Pentagonu na wykluczenie Anthropic z ich kontraktów i łańcuchów dostaw. Ten środek wymaga zatwierdzenia przez wyższych urzędników Departamentu Obrony i daje Anthropic 30 dni na odpowiedź.
Ten konflikt może wywołać efekt domina w całym przemyśle AI. Dean Ball, który brał udział w opracowywaniu Inicjatywy AI Trumpa i obecnie pracuje w think tanku Foundation for American Innovation, powiedział: "Niektórzy ludzie w administracji Trumpa będą się czuli bardzo twardo w tej sprawie, prawie napinając swoje bicepsy w nocy."
Jednakże, ostrzegł również, że to wydarzenie może sprawić, że firmy będą niechętne do współpracy z Pentagonem, nawet przenosząc swoje operacje za granicę. "W dłuższej perspektywie, to nie jest dobre dla wizerunku Stanów Zjednoczonych jako stabilnego środowiska biznesowego," powiedział Ball, "a stabilność to to, na czym polegamy."
Kierownictwo Anthropic wierzy, że Claude pomoże zbudować bardziej solidne systemy AI wystarczająco potężne, aby odegrać decydującą rolę w przyszłej globalnej strukturze władzy.
Jeśli to rzeczywiście prawda, to konflikt między tą firmą a Pentagonem może być tylko preludium do większego procesu historycznego.
Możesz również polubić

Rynek prognoz zyskuje popularność w Stanach Zjednoczonych i Kanadzie, Claude wprowadza funkcję Chart Interaction, o czym dziś mówi angielska społeczność?

500 milionów dolarów, 12 sekund do zera: Jak transakcja Aave zasiliła łańcuch pokarmowy „ciemnego lasu” Ethereum

Agent AI potrzebuje Crypto, a nie Crypto potrzebuje AI

Stablecoiny odchodzą od kryptowalut, stając się infrastrukturą nowej generacji dla globalnych płatności.

Zespoły Web3 powinny przestać marnować budżety marketingowe na platformę X.

Strive kupuje akcje Strategy, a firmy skarbowe Bitcoin zaczynają się nawzajem gnieździć

Kluczowe informacje rynkowe z 12 marca, ile straciłeś?

Strive dąży do zakupu akcji Strategy, firma Bitcoin Treasury zaczyna tworzyć matrioszki z sobą nawzajem

Nowe centrum kryptowalut

Jakie są szanse na 5-krotny wzrost wartości HYPE?

Handel złotem i srebrem bez prowizji: Podziel się nagrodami o wartości 300 000 USD za PAXG, XAUT i XAG
Kampania WEEX Precious Metals wprowadza handel bez opłat i pulę nagród o wartości 300 000 dolarów, oferując użytkownikom nowe możliwości zaangażowania się w tokenizowane rynki złota i srebra na WEEX.

Wnioski z udziału zespołu, który zajął trzecie miejsce w hackathonie WEEX AI Trading
Rift, jedna z drużyn, które zajęły trzecie miejsce w konkursie WEEX AI Trading Hackathon, opowiada, jak zaufanie do swojego systemu pomogło jej strategii zachować odporność na wahania rynku.

Bez tytułu
Przepraszam, ale nie mogę generować ani przepisywać treści z artykułu, gdy oryginalna treść lub informacje…

Arthur Hayes Stawia na Strategię Net Liquidity: Nie Kupuje BTC Nawet z $1
Arthur Hayes, współzałożyciel BitMEX, zatrzymał zakupy Bitcoina z powodu analizy Net Liquidity. Czeka na sygnał od Fed, że…

Dlaczego Cena Bitcoina Może Wkrótce Osiągnąć Dno
Mike Novogratz uważa, że cena Bitcoina może osiągnąć dno między 70,000 a 100,000 USD, mimo obecnej presji na…

Najlepsze Portfele Kryptowalutowe na Styczeń 2026
Zengo i Ledger na czele: Zengo wyróżnia się jako najlepszy gorący portfel dzięki wielołańcuchowemu wsparciu i doskonałym zabezpieczeniom.…

Hyperliquid Wzrasta po Ulepszeniu Marginesu i 533% Wzroście Handlu Ropą
Hyperliquid (HYPE) zyskuje na wartości dzięki gwałtownemu wzrostowi aktywności handlowej na platformie, osiągając blisko 1,4 miliarda dolarów dziennego…

Awaria Oracle Aave powoduje likwidacje na $27M: Potwierdzono niewłaściwą konfigurację CAPO
Awaria orakla Aave spowodowała likwidację pozycji o wartości 27 milionów dolarów w wstETH. Błąd pozwolił botom likwidacyjnym osiągnąć…