Dlaczego OpenAI próbuje dogonić Claude Code?

By: blockbeats|2026/03/13 18:15:49
0
Udostępnij
copy
Tytuł oryginalnego artykułu: Wewnątrz wyścigu OpenAI o dogonienie Claude Code
Autor oryginalnego artykułu: Maxwell Zeff, Wired
Tłumaczenie: Peggy, BlockBeats

Uwaga redakcyjna: W szybko rozwijającym się środowisku programistów AI, OpenAI, które niegdyś było liderem fali generatywnej AI dzięki ChatGPT, stało się nieoczekiwanie „ścigającym” w tym kluczowym wyścigu. W wyraźym kontraście, Anthropic, założony przez byłych członków OpenAI, szybko zyskał popularność wśród społeczności deweloperów i na rynku przedsiębiorstw dzięki Claude Code, stając się jednym z kluczowych liderów w dziedzinie narzędzi programistycznych AI.

W tym artykule, na podstawie wywiadów z kadrą zarządzającą OpenAI, inżynierami i kilkoma deweloperami, ujawniamy prawdziwy proces stojący za tą konkurencją: od wczesnych dni, gdy projekt OpenAI Codex został podzielony, zasoby zostały przeniesione na ChatGPT i modele multimodalne, do wewnętrznej reintegracji zespołu i przyspieszonego wprowadzenia na rynek produktów programistycznych AI, OpenAI przechodzi transformację od strategicznego nadzoru do kompleksowego nadrabiania zaległości. W pewnym sensie, nie jest to opóźnienie w możliwościach technicznych, ale niezgodność tempa strategicznego: przełom w ChatGPT zmienił priorytety firmy, partnerstwo z Microsoft ograniczyło mapę drogową produktu, podczas gdy Anthropic wcześniej postawił na ścieżkę programowania AI.

Poza tą konkurencją stopniowo pojawiają się głębsze problemy: gdy agenci AI zaczynają przejmować więcej pracy kognitywnej, procesy rozwoju oprogramowania, a nawet sama praca biurowa, mogą zostać na nowo zdefiniowane.

Poniżej znajduje się oryginalny artykuł:

Prezes OpenAI, Sam Altman, opiera nogi o krzesło biurowe, odchyla głowę do tyłu, patrząc w sufit, jakby zastanawiał się nad jeszcze nie uformowaną odpowiedzią. W pewnym sensie jest to również związane ze środowiskiem.

Nowa siedziba OpenAI w Mission Bay w San Francisco to nowoczesny budynek ze szkła i jasnego drewna, który niemal przypomina „świątynię technologii”. Na półce wystawowej za recepcją znajdują się podręczniki przedstawiające „Ery sztucznej inteligencji”, jakby przedstawiały drogę do technologicznego oświecenia. Ściana klatki schodowej jest wypełniona plakatami z kamieniami milowymi rozwoju sztucznej inteligencji, z których jeden dokumentuje taki moment: tysiące widzów na żywo oglądało, jak maszyna pokonała najlepszy zespół esportowy w meczu „Dota 2”. W korytarzach tam i z powrotem poruszają się badacze w bluzach z hasłami drużyn, na jednej z nich jest napisane: „Dobre badania wymagają czasu”. Oczywiście, najlepiej gdyby nie trwały zbyt długo.

Siedzimy w dużej sali konferencyjnej. Moje pytanie do Altmana dotyczyło trwającej rewolucji w programowaniu AI i tego, dlaczego OpenAI nie wydaje się być liderem tej fali.

Obecnie miliony inżynierów oprogramowania zaczęły przekazywać część swojej pracy programistycznej AI, co po raz pierwszy zmusza wielu ludzi z Doliny Krzemowej do zmierzenia się z rzeczywistością: automatyzacja może dotknąć ich własne miejsca pracy. Agenci kodujący stają się zatem jednym z niewielu przypadków, w których firmy są skłonne płacić za sztuczną inteligencję wyższą cenę. W teorii taki moment mógłby i powinien być kolejnym „triumfem” na plakacie OpenAI. Ale teraz imię najchętniej wybierane przez klientów nie należy do nich.

Przedmiotowa firma ma rywala, Anthropic, firmę zajmującą się sztuczną inteligencją, założoną przez byłych członków OpenAI. Dzięki swojemu produktowi Claude Code, Anthropic doświadczyła wykładniczego wzrostu. W lutym firma ujawniła, że produkt ten stanowi prawie jedną piątą jej działalności, co odpowiada rocznemu dochodowi przekraczającemu 2,5 miliarda dolarów. Natomiast według źródła zaznajomionego z tą sprawą, na koniec stycznia roczny dochód z wewnętrznego produktu programistycznego OpenAI, OpenAI Codex, wyniósł zaledwie nieco ponad 1 miliard dolarów.

Powstaje pytanie: dlaczego OpenAI pozostaje w tyle w tej rywalizacji w dziedzinie programowania AI?

„Wartość bycia pierwszym jest ogromna” — powiedział Sam Altman po chwili namysłu. „Doświadczyliśmy tego z ChatGPT”.

Jednak jego zdaniem nadszedł czas, aby OpenAI w pełni wykorzystało programowanie AI. Uważa, że istniejące możliwości modelu firmy są wystarczająco potężne, aby wspierać wysoce złożone agenty kodujące. Oczywiście takie możliwości nie są przypadkowe; firma zainwestowała miliardy dolarów w szkolenie modeli w tym celu.

„To będzie ogromny biznes” — powiedział Altman. „Nie tylko ze względu na wartość ekonomiczną, jaką sam w sobie przynosi, ale także ze względu na ogólną produktywność, jaką może wyzwolić programowanie”. Zrobił krótką przerwę i dodał: „Rzadko używam tego terminu lekko, ale myślę, że jest to prawdopodobnie jeden z tych rynków, który osiągnie skalę sięgającą bilionów dolarów”.

Ponadto uważa, że OpenAI Codex może być „najbardziej prawdopodobną ścieżką” do osiągnięcia sztucznej ogólnej inteligencji (AGI). Według definicji OpenAI, AGI to system sztucznej inteligencji, który może przewyższyć wydajność człowieka w większości ekonomicznie wartościowych zadań.

Dlaczego OpenAI próbuje dogonić Claude Code?

Sam Altman, dyrektor generalny OpenAI. Zdjęcie: Mark Jayson Quines.

Jednak pomimo pewnej oceny Altmana w swobodny sposób, rzeczywistość w firmie w ciągu ostatnich kilku lat była znacznie bardziej skomplikowana. Aby zrozumieć pełniejszą wewnętrzną historię, przeprowadziłem wywiady z ponad 30 źródłami, w tym obecnymi dyrektorami i pracownikami OpenAI, z którymi rozmawiałem za zgodą firmy, a także z kilkoma byłymi pracownikami, którzy podzielili się spostrzeżeniami na temat wewnętrznych operacji firmy pod warunkiem zachowania anonimowości. Łącząc te opowieści, ujawnia się niezwykła sytuacja: OpenAI stara się nadrobić zaległości.

Wróćmy do 2021 roku. W tamtym czasie Altman i inni członkowie zarządu OpenAI zaproszeni do ich wczesnego biura w dzielnicy Mission w San Francisco, dziennikarza WIRED, Steven'a Levy'ego, aby obejrzał prezentację nowej technologii. Był to projekt oparty na GPT-3, wytrenowany przy użyciu dużej ilości kodu open-source z GitHub.

Podczas prezentacji na miejscu, członkowie zarządu pokazali, jak to narzędzie, zwane OpenAI Codex, może otrzymywać instrukcje w języku naturalnym i generować proste fragmenty kodu.

„Może ono rzeczywiście wykonywać działania w świecie komputerów za Ciebie” – wyjaśnił w tamtym czasie prezes i współzałożyciel OpenAI, Greg Brockman. „Mamy do czynienia z systemem, który naprawdę potrafi wykonywać polecenia”. Nawet w tamtym czasie badacze z OpenAI powszechnie wierzyli, że Codex stanie się kluczową technologią w tworzeniu „super asystenta”.

W tym okresie kalendarze Altmana i Brockmana były niemal w całości wypełnione spotkaniami z Microsoft — gigantem branży oprogramowania i największym inwestorem OpenAI. Microsoft planował wykorzystać Codex do zapewnienia wsparcia technicznego dla jednego ze swoich pierwszych komercyjnych produktów AI: narzędzia do ukończenia kodu o nazwie GitHub Copilot, które można było bezpośrednio włączyć do codziennie używanych środowisk programistycznych.

Jeden z pierwszych pracowników OpenAI wspomina, że na tym etapie Codex „potrafił właściwie tylko uzupełniać automatycznie”. Jednakże kierownictwo Microsoft nadal postrzegało to jako znaczący sygnał nadejścia ery sztucznej inteligencji.

W czerwcu 2022 roku, gdy GitHub Copilot został oficjalnie wydany, w ciągu kilku krótkich miesięcy przyciągnął setki tysięcy użytkowników.

Greg Brockman, prezes OpenAI. Zdjęcie: Mark Jayson Quines.

Pierwotny zespół OpenAI odpowiedzialny za Codex został później przeniesiony do innych projektów. Były wczesny pracownik wspomina, że w tamtym czasie firma uważała, że przyszłe modele będą z natury posiadać możliwości programistyczne, więc nie było potrzeby utrzymywania niezależnego zespołu projektowego Codex w dłuższej perspektywie. Niektórzy inżynierowie zostali przeniesieni do zespołu pracującego nad rozwojem DALL-E 2, podczas gdy inni zajęli się szkoleniem GPT-4. Uważano to za kluczowy krok w zbliżeniu OpenAI do AGI.

W rezultacie, w listopadzie 2022 roku, uruchomiono ChatGPT, który w ciągu dwóch miesięcy zyskał ponad 100 milionów użytkowników. W rezultacie praktycznie wszystkie inne projekty w firmie zostały wstrzymane. W kolejnych latach OpenAI nie miał dedykowanego zespołu pracującego nad produktami programistycznymi AI. Były członek zaangażowany w projekt Codex stwierdził, że po sukcesie ChatGPT programowanie AI przestało być zgodne z nowym strategicznym celem firmy, jakim jest „najpierw produkt konsumencki”. Tymczasem branża uznała, że dziedzina ta została w dużej mierze „objęta” przez GitHub Copilot, który zasadniczo należał do terytorium Microsoftu. OpenAI zapewniało przede wszystkim wsparcie dla podstawowych modeli.

Dlatego w 2023 i 2024 roku zasoby OpenAI były bardziej ukierunkowane na wielomodalne modele AI i inteligentne agenty. Systemy te zostały zaprojektowane tak, aby jednocześnie rozumieć tekst, obrazy, filmy i dźwięk oraz wchodzić w interakcje z kursorem i klawiaturą jak ludzie. Ten kierunek wydawał się bardziej zgodny z ówczesnymi trendami w branży: Modele generowania obrazów Midjourney szybko zyskały popularność w mediach społecznościowych, a branża powszechnie uważała, że duże modele językowe muszą być w stanie „widzieć” i „słyszeć” świat, aby naprawdę osiągnąć wyższy poziom inteligencji.

W przeciwieństwie do tego, Anthropic wybrał inną ścieżkę. Chociaż firma również rozwijała chatboty i modele multimodalne, wydawało się, że wcześniej dostrzegła potencjał umiejętności programowania. W niedawnym podcastzie Brockman przyznał również, że Anthropic od wczesnego etapu był „głęboko skoncentrowany na umiejętności programowania”. Zauważył, że Anthropic nie tylko korzystał z złożonych pytań programistycznych z konkursów akademickich podczas szkolenia modeli, ale także zintegrował znaczną ilość „nieładnych” problemów z kodem z autentycznych repozytoriów.

„To była lekcja, której dopiero później zrozumieliśmy” — powiedział Brockman.

Na początku 2024 roku Anthropic zaczął używać tych danych z autentycznych repozytoriów kodu do szkolenia Claude'a 3.5 Sonnet. Gdy model został wydany w czerwcu, wielu użytkowników było pod wrażeniem jego umiejętności programistycznych.

Ten trend był szczególnie widoczny w startupie o nazwie Cursor. Firma założona przez grupę młodych ludzi w wieku dwudziestu kilku lat opracowała narzędzie programistyczne AI, które pozwala programistom opisywać wymagania w języku naturalnym, a AI bezpośrednio modyfikuje kod. Po zintegrowaniu nowego modelu Anthropic przez Cursor, jego baza użytkowników szybko rosła, ujawnił źródło zbliżone do firmy.

Kilka miesięcy później Anthropic rozpoczął wewnętrzne testy własnego produktu - agenta programistycznego Claude Code.

Gdy popularność Cursora nadal rosła, OpenAI podjęło krótkotrwałą próbę przejęcia startupu. Jednak według wielu źródeł zbliżonych do firmy, założyciele Cursora odrzucili propozycję, zanim negocjacje mogły pójść dalej. Wierząc w znaczący potencjał branży programowania AI, chcieli pozostać niezależni i kontynuować rozwój.

Andrey Mishchenko, szef działu badań OpenAI Codex. Zdjęcie: Mark Jayson Quines.

W tamtym czasie OpenAI szkoliło swój pierwszy tzw. „model wnioskowania”, OpenAI o1. Modele te mogą iteracyjnie analizować problem, zanim dostarczą odpowiedzi. Po wydaniu OpenAI stwierdziło, że model ten doskonale sprawdza się w „dokładnym generowaniu i debugowaniu złożonego kodu”.

Mieszczenko wyjaśnił, że kluczowym powodem, dla którego modele sztucznej inteligencji poczyniły znaczący postęp w umiejętności programowania, jest to, że programowanie jest „zadaniem weryfikowalnym”. Kod działa lub nie działa, dostarczając bardzo jasnych informacji zwrotnych dla modelu. Gdy wystąpi błąd, system może szybko zidentyfikować problem. OpenAI wykorzystało tę pętlę informacyjną, aby nieustannie trenować o1 na coraz bardziej złożonych problemach programistycznych.

„Bez możliwości swobodnego eksplorowania bazy kodu, wprowadzania modyfikacji i testowania własnych wyników — co wszystko stanowi część zdolności do „rozumowania” — dzisiejsze agenty programistyczne nie mogłyby osiągnąć obecnego poziomu”, powiedział.

Do grudnia 2024 r. wiele małych zespołów w OpenAI zaczęło skupiać się na wewnętrznym programowaniu agentów AI. Jednym z tych zespołów kierował wspólnie Mishchenko i Thibault Sottiaux. Sottiaux, były pracownik Google DeepMind, jest obecnie szefem Codex w OpenAI.

Początkowo ich zainteresowanie agentem programistycznym wynikało głównie z wewnętrznych potrzeb badawczo-rozwojowych, z zamiarem wykorzystania sztucznej inteligencji do zautomatyzowania dużej ilości powtarzalnych prac inżynierskich, takich jak zarządzanie zadaniami szkoleniowymi modeli, monitorowanie stanu działania klastra kart graficznych itp.

Innym równoległym przedsięwzięciem kierował Alexander Embiricos. Wcześniej był odpowiedzialny za projekt agenta multimodalnego OpenAI, a teraz pełni funkcję kierownika produktu Codex. Embiricos opracował projekt demonstracyjny o nazwie Jam, który szybko rozpowszechnił się w firmie.

Thibault Sottiaux, szef OpenAI Codex. Zdjęcie: Mark Jayson Quines.

W przeciwieństwie do sterowania komputerem za pomocą myszy i klawiatury, Jam może bezpośrednio uzyskać dostęp do linii poleceń komputera. Demo Codex z 2021 r. pokazywało jedynie generowanie kodu przez sztuczną inteligencję, który ludzie mogli uruchamiać ręcznie, w przeciwieństwie do wersji Embiricos, która mogła wykonywać ten kod samodzielnie. Przypomniał sobie oglądanie na ekranie laptopa zapisanego w czasie rzeczywistym działania Jamma, które odświeżało się i aktualizowało, czując się niemalże zszokowany.

„Przez jakiś czas myślałem, że interakcja multimodalna może być drogą do osiągnięcia naszej misji. Na przykład ludzie dzielący się ekranami z SI przez cały dzień, pracujący razem” — powiedział Embiricos — „Wtedy nagle stało się bardzo jasne: być może umożliwienie modelom bezpośredniego programistycznego dostępu do komputerów jest prawdziwą drogą do osiągnięcia tego celu”.

Te rozproszone projekty zajęły kilka miesięcy, aby stopniowo zintegrować się w spójnym kierunku. Na początku 2025 roku, gdy OpenAI zakończyło szkolenie modelu OpenAI o3, który był bardziej zoptymalizowany do zadań programistycznych niż OpenAI o1, firma w końcu miała podstawy technologiczne do stworzenia prawdziwego produktu programistycznego opartego na sztucznej inteligencji. Jednakże, w tym samym czasie, Claude Code firmy Anthropic był gotowy do publicznego wydania.

Przed wydaniem Claude Code (uruchomionym w lutym 2025 roku jako „ograniczony podgląd badawczy”, a w pełni uruchomionym w maju), głównym modelem w dziedzinie programowania AI nadal było tzw. „vibe coding”. Deweloperzy napędzali postęp projektu za pomocą narzędzi wspomaganych przez AI, przy czym ludzie kontrolowali kierunek, a AI uzupełniała konkretne implementacje po drodze. Takie narzędzia przyciągnęły już miliardy dolarów inwestycji.

Ale nowy produkt Anthropic zmienił ten paradygmat. Podobnie jak w przypadku demonstracji Jam, Claude Code mógł działać bezpośrednio przez wiersz poleceń komputera, co oznaczało, że miał dostęp do wszystkich plików i aplikacji programistów. Programowanie nie było już tylko „wspomagane przez AI”; raczej programiści mogli powierzyć całe zadanie bezpośrednio agentowi AI.

W obliczu tej zmiany OpenAI zaczęło przyspieszać udostępnianie konkurencyjnych produktów. Sottiaux wspomina, że w marcu 2025 roku zgromadził „zespół sprint”, którego zadaniem było zintegrowanie wielu wewnętrznych zespołów w firmie w ciągu zaledwie kilku tygodni, aby szybko wprowadzić na rynek produkt do programowania AI.

W międzyczasie Altman próbował również „skrócić sobie drogę” poprzez przejęcie, oferując 3 miliardy dolarów za przejęcie startupu zajmującego się programowaniem AI, Windsurf. Kierownictwo OpenAI wierzyło, że ta transakcja przyniesie firmie dojrzały produkt programistyczny AI, doświadczony zespół i istniejącą bazę klientów korporacyjnych.

Jednak przejęcie to później utknęło w martwym punkcie. Według The Wall Street Journal, problem pojawił się z największym partnerem OpenAI, Microsoft. Microsoft domagał się dostępu do praw własności intelektualnej Windsurf. Od 2021 roku Microsoft korzysta z modeli OpenAI, aby wspierać GitHub Copilot, produkt, który stał się punktem kulminacyjnym w konferencjach zarządczych Microsoft. Jednak wraz z wydaniem nowych programistycznych agentów AI, takich jak Cursor, Windsurf i Claude Code, GitHub Copilot zaczął wydawać się przestarzały w porównaniu z poprzednią generacją narzędzi AI. Gdyby OpenAI miał wypuścić kolejny nowy produkt programistyczny, nie wróżyłoby to dobrze Microsoft.

Negocjacje dotyczące przejęcia miały miejsce w czasie, gdy relacje OpenAI z Microsoftem były najbardziej napięte. Obie strony ponownie negocjowały umowę o współpracy, a OpenAI starało się zmniejszyć kontrolę Microsoft nad swoimi produktami AI i zasobami obliczeniowymi. Ostatecznie przejęcie Windsurf padło ofiarą tej walki o władzę. W lipcu OpenAI wycofało się z transakcji. Następnie Google zatrudnił założycieli Windsurf, podczas gdy pozostali pracownicy zostali przejęci przez inną firmę programistyczną zajmującą się sztuczną inteligencją, Cognition.

„W tamtym czasie z pewnością miałem nadzieję, że transakcja się uda” — powiedział Altman — „ale nie każda transakcja jest w naszej gestii”. Wspomniał, że chociaż miał nadzieję, iż przejęcie Windsurf „do pewnego stopnia przyspieszy nasz postęp”, równie imponującym był dla niego rozmach zespołu Codex. Podczas gdy trwały negocjacje, Sottiaux i Embiricos nadal rozwijali produkt i wprowadzali aktualizacje.

W sierpniu Altman postanowił zwiększyć wysiłki na wszystkich frontach.

Alexander Embiricos, kierownik produktu OpenAI Codex. Zdjęcie: Mark Jayson Quines.

Ulubionym sposobem Grega Brockmana na ocenę możliwości sztucznej inteligencji jest zaprojektowana przez niego gra, zwana „odwróconym testem Turinga”. Kilka lat temu sam napisał kod tej gry, a teraz deleguje zadanie na agenta sztucznej inteligencji, który ma je zrealizować od podstaw.

Zasady gry są proste: dwóch graczy zasiada przed osobnymi komputerami, każdy widzi na ekranie dwa okna czatu. Jedno okno łączy się z innym człowiekiem, podczas gdy drugie łączy się z AI. Gracze muszą zgadnąć, które okno należy do AI i spróbować przekonać przeciwnika, że to oni są AI.

Brockman powiedział, że przez większość ubiegłego roku najpotężniejsze modele OpenAI potrzebowały godzin na skonfigurowanie takiej gry, wymagając wielu wyraźnych instrukcji i pomocy ze strony człowieka. Jednak w grudniu ubiegłego roku Codex był w stanie bezpośrednio wygenerować w pełni grywalną wersję za pomocą dobrze skonstruowanego polecenia, wspieranego przez nowy model GPT-5.2.

Zmiana ta nie przeszła niezauważona tylko przez Brockmana. Deweloperzy na całym świecie zaczęli również dostrzegać, że możliwości programistów AI nagle uległy znaczącej poprawie. Dyskusje na temat programowania AI, początkowo skoncentrowane na Claude Code, szybko przyciągnęły uwagę mediów głównego nurtu poza kręgiem technologicznym Doliny Krzemowej.

Nawet niektórzy zwykli użytkownicy, niebędący programistami, zaczęli korzystać z AI, aby bezpośrednio tworzyć swoje projekty oprogramowania.

Ten wzrost popularności nie jest przypadkowy. W tym czasie zarówno Anthropic, jak i OpenAI zainwestowały znaczną kwotę, aby pozyskać większą liczbę użytkowników agentów programistycznych AI. Kilku deweloperów powiedziało WIRED , że ich abonament na Codex lub Claude Code w wysokości 200 USD miesięcznie w rzeczywistości zapewnia kredyty za ponad 1000 USD. Ten dość „hojny” limit to w zasadzie strategia rynkowa: najpierw przyzwyczaić programistów do korzystania z narzędzi programistycznych AI w codziennej pracy, a następnie pobierać opłaty w zależności od użycia w środowiskach korporacyjnych.

Według wielu źródeł, w 2025 roku liczba użytkowników Codexa stanowiła zaledwie około 5% liczby użytkowników Claude Code. Do stycznia 2026 roku liczba użytkowników Codexa wzrosła do około 40% liczby użytkowników Claude Code.

George Pickett, programista, który od 10 lat pracuje w startupie technologicznym, ostatnio zaczął nawet organizować spotkania offline na temat Codexu.

„Wydaje mi się całkiem jasne, że zastępujemy pracę biurową agentami AI”, powiedział Pickett. „Jeśli chodzi o to, co to oznacza dla społeczeństwa, szczerze mówiąc, nikt nie może tego z całą pewnością powiedzieć. Z pewnością będzie to miało ogromny wpływ, ale ogólnie jestem optymistą co do przyszłości.”

Tymczasem Simon Last, współzałożyciel firmy produkującej oprogramowanie zwiększające wydajność, Notion, wycenianej na około 11 miliardów dolarów, stwierdził, że po wydaniu GPT-5.2 on i główny zespół inżynieryjny firmy przeszli na korzystanie z Codexu głównie ze względu na jego lepszą stabilność.

„Odkryłem, że Claude Code często mnie „okłamywał””, powiedział Last. „Mówił, że zadanie jest w trakcie wykonywania, a tak naprawdę nie było.”

Katy Shi, badaczka z OpenAI. Zdjęcie: Mark Jayson Quines.

Katy Shi z OpenAI, odpowiedzialna za badania nad zachowaniem modelu Codex, stwierdziła, że podczas gdy niektórzy opisują domyślny styl Codex jako „suchego chleba”, coraz więcej użytkowników zaczyna doceniać ten bezpardonowy styl komunikacji. „Wiele pracy inżynierskiej polega na tym, aby móc przyjmować krytyczne uwagi bez postrzegania ich jako zniewagi”, powiedziała.

Tymczasem niektóre duże korporacje również zaczęły wdrażać Codex. Fidji Simo, dyrektor generalna OpenAI's Applied Business, powiedziała: „ChatGPT stał się synonimem sztucznej inteligencji, co daje nam ogromną przewagę na rynku B2B. Przedsiębiorstwa są bardziej skłonne do wdrażania technologii, z którą pracownicy są już zaznajomieni. Dodała, że podstawową strategią OpenAI w sprzedaży Codex jest pakowanie go z ChatGPT i innymi produktami OpenAI.

Jeetu Patel, prezes i dyrektor ds. produktów w firmie Cisco, jasno dał pracownikom do zrozumienia, że nie muszą się martwić o koszty korzystania z Codexu, ponieważ kluczowe jest jak najszybsze zapoznanie się z tym narzędziem. Gdy pracownicy wyrażają obawy: „Czy korzystanie z tych narzędzi sprawi, że stracę pracę?”, odpowiedź Patela brzmi: „Nie. Ale mogę zagwarantować, że jeśli ich nie wykorzystasz, stracisz pracę, ponieważ przestaniesz być konkurencyjny.”

Obecnie niepokój związany z agentami programowania AI znacznie wykracza poza krąg technologiczny Doliny Krzemowej. W zeszłym miesiącu The Wall Street Journal przypisał część wyprzedaży akcji technologicznych o wartości biliona dolarów Claude'owi Code, ponieważ inwestorzy obawiają się, że rozwój oprogramowania może wkrótce zostać masowo zastąpiony przez AI. Kilka tygodni później, po tym jak Anthropic ogłosił, że Claude Code może być wykorzystany do modernizacji starych systemów działających w COBOL (które są bardzo powszechne w maszynach IBM), IBM doświadczył najgorszego dnia od 25 lat.

Tymczasem OpenAI pracuje również nad tym, aby agenci programowania AI zyskały uznanie w publicznej dyskusji. Firma wydała nawet miliony dolarów na emisję reklamy OpenAI Codex podczas Super Bowl, zamiast promować ChatGPT.

W siedzibie OpenAI w Mission Bay niemal nikt nie potrzebuje przekonywać do korzystania z Codex. Wielu inżynierów, z którymi rozmawiałem, twierdzi, że rzadko sami piszą kod, spędzając większość czasu na rozmowach z Codex. Czasami nawet „programują w parach”.

W siedzibie głównej uczestniczyłem w hackathonie Codex. W dużym pomieszczeniu zgromadziło się około 100 inżynierów, z których każdy miał cztery godziny na zaprezentowanie swoich najlepszych projektów wykonanych w systemie Codex. Przedstawiciel OpenAI stał z przodu, patrząc na swój laptop i ogłaszając nazwy zespołów przez mikrofon. Napięci przedstawiciele zespołów wchodzili na scenę, prezentując swoje projekty AI nieco drżącymi głosami. Zwycięzca otrzymał plecak Patagonia jako nagrodę.

Wiele projektów zostało zbudowanych przy użyciu Codex i miały na celu pomóc inżynierom lepiej korzystać z Codex. Na przykład jeden zespół opracował narzędzie do automatycznego podsumowywania wiadomości Slack w cotygodniowych raportach; inny stworzył wewnętrzny przewodnik AI podobny do Wikipedii, aby wyjaśnić różne wewnętrzne usługi OpenAI. W przeszłości tworzenie takich prototypów często zajmowało dni, a nawet tygodnie, ale teraz wystarczy jedno popołudnie.

Gdy wychodziłem, spotkałem przy drzwiach Kevina Weila, byłego dyrektora wykonawczego Instagrama, który teraz kieruje działem „OpenAI for Science” w OpenAI. Powiedział mi, że Codex pracował przez całą noc, aby wykonać dla niego pewne zadania projektowe, które przejrzy następnego ranka. Ten rytm pracy stał się dla niego i setek pracowników OpenAI codzienną normą. Jednym z celów OpenAI na 2026 rok jest opracowanie „automatycznego stażysty” do badania samej sztucznej inteligencji.

Simo wyobraża sobie, że w przyszłości Codex będzie wykorzystywany nie tylko do programowania, ale również będzie dążył do stania się silnikiem wykonywania zadań dla ChatGPT i wszystkich produktów OpenAI, obsługującym różne rzeczywiste zadania dla użytkowników. Altman wyraził również silne pragnienie wprowadzenia na rynek uniwersalnej wersji Codeksa, ale nadal obawia się zagrożeń dla bezpieczeństwa.

Wspomniał, że pod koniec stycznia 2026 roku przyjaciel bez żadnego doświadczenia technicznego poprosił go o pomoc w zainstalowaniu popularnego agenta programowania AI o nazwie OpenClaw. Altman odrzucił prośbę, ponieważ jego zdaniem „na razie nie był to dobry pomysł”, ponieważ OpenClaw mógłby przypadkowo usunąć ważne pliki.

Jak na ironię, kilka tygodni później OpenAI ogłosiło, że zatrudniło twórcę OpenClaw.

Wielu programistów mówiło mi, że rywalizacja między Codex a Claude Code nigdy nie była tak intensywna. Ale w miarę jak te narzędzia wciąż się doskonalą i są coraz częściej integrowane z procesami biznesowymi, pytania dotyczące społeczeństwa nie ograniczają się już tylko do tego, „które narzędzie do programowania AI należy wybrać”.

Amelia Glaese, wiceprezes ds. badań i zarządzania zgodnością w OpenAI. Zdjęcie: Mark Jayson Quines.

Niektóre organizacje czują obawy, że w wyścigu, by dogonić Claude'a Code'a, OpenAI może pomijać kwestie bezpieczeństwa. Organizacja non-profit o nazwie Midas Project oskarżyła OpenAI o zaniechanie działań na rzecz bezpieczeństwa przy udostępnianiu GPT-5.3-Codex, nie ujawniając w pełni potencjalnych zagrożeń cyberbezpieczeństwa modelu.

W odpowiedzi Glaese stwierdził, że OpenAI nie poświęciło bezpieczeństwa, rozwijając Codex, a firma dodała, że Midas Project źle zrozumiał jej zobowiązania w zakresie bezpieczeństwa.

Nawet Greg Brockman, współzałożyciel OpenAI, który w zeszłym roku przekazał 25 milionów dolarów na rzecz Super PAC przyjaznego AI i organizacji popierającej Donalda Trumpa, a mimo to nadal optymistycznie oznajmiał „jesteśmy na dobrej drodze do osiągnięcia AGI”, ma mieszane uczucia co do tej nowej rzeczywistości.

W kręgach inżynierów z Doliny Krzemowej Brockman zawsze był znany ze swojego „bardzo zaangażowanego” stylu zarządzania: tego typu szef, który jeszcze w nocy przed premierą produktu będzie przeszukiwał bazę kodu. Do pewnego stopnia to bardziej „dystansowane” podejście sprawia, że teraz czuje się swobodnie. „Uświadamiasz sobie, że w przeszłości twój mózg był zajęty wieloma niepotrzebnymi szczegółami” — mówi.

Jednak jednocześnie, gdy stajesz się „dyrektorem generalnym setek tysięcy agentów sztucznej inteligencji”, pozwalając tym systemom realizować twoje cele i wizję, trudno jest już zagłębić się w szczegóły każdego rozwiązania problemu.

„W pewnym sensie sprawia to wrażenie, jakbyś tracił „punkt widzenia” samego problemu” — mówi Brockman.

[Link do oryginalnego artykułu]

Cena --

--

Możesz również polubić

Vitalik napisał propozycję uczącą, jak potajemnie korzystać z dużych modeli sztucznej inteligencji

Vitalik uważa, że w erze sztucznej inteligencji użytkownicy nie powinni rezygnować ze swojej tożsamości, aby korzystać z narzędzi AI.

Podwojenie ceny akcji Circle i zmiana paradygmatu stablecoinów

Początkowe inwestycje od Circle i Stripe, niezależnie od tego, czy są to wydatki na badania i rozwój dla Arka, wysokie koszty finansowania związane z Tempo, czy miliardowe przejęcia aktywów typu Bridge, są bardziej podobne do "opłat za umieszczenie" niż do inwestycji komercyjnych, które można odzyskać w krótkim okresie.

„Czas” Magazyn nazywa Anthropic najbardziej zakłócającą firmą na świecie

Najbardziej ostrożna firma w zakresie AI stworzyła najbardziej niebezpieczną AI

Rynek prognoz zyskuje popularność w Stanach Zjednoczonych i Kanadzie, Claude wprowadza funkcję Chart Interaction, o czym dziś mówi angielska społeczność?

Co najbardziej interesowało obcokrajowców w ciągu ostatnich 24 godzin?

500 milionów dolarów, 12 sekund do zera: Jak transakcja Aave zasiliła łańcuch pokarmowy „ciemnego lasu” Ethereum

Wydaj 154 000 dolarów, aby kupić AAVE po cenie rynkowej wynoszącej zaledwie 111 dolarów.

Agent AI potrzebuje Crypto, a nie Crypto potrzebuje AI

To nie Crypto potrzebuje AI, aby przetrwać, ale raczej agenci AI potrzebują Crypto, aby mogło być wdrożone: kiedy AI naprawdę przejdzie od „myślenia” do „wykonywania”, musi poszukać granic władzy i finansowania w programowalnych prymitywach Crypto.

Popularne monety

Najnowsze wiadomości kryptowalutowe

Czytaj więcej