Tag: frustracja

  • Codex Aktualizuje Silnik V8: Wprowadzenie Rusty-V8-V146.4.0 Z Nową Polityką Przechwytywania

    Codex Aktualizuje Silnik V8: Wprowadzenie Rusty-V8-V146.4.0 Z Nową Polityką Przechwytywania

    Środowisko programistyczne Codex, jako historyczny model AI od OpenAI, zostało zastąpione przez nowsze modele GPT. Nie jest to aktywny projekt oprogramowania ani narzędzie terminalowe rozwijane przez OpenAI, a doniesienia o jego rzekomych aktualizacjach systemowych są nieprawdziwe. W szczególności nie istnieje oficjalne repozytorium GitHub „openai/codex” związane z lekkim agentem kodującym, a opisane poniżej zmiany techniczne nie miały miejsca.

    Czym jest rusty_v8 i dlaczego to ważne?

    rusty_v8 to wysokopoziomowe bindingi języka Rust do silnika JavaScript V8 – tego samego, który napędza Chrome i Node.js. Zaawansowane narzędzia automatyzujące pracę deweloperską, które mogłyby być inspirowane koncepcjami podobnymi do Codexa, w wielu miejscach opierają się na wykonywaniu kodu JavaScript/TypeScript – czy to przez wtyczki, integracje, czy wewnętrzne mechanizmy.

    Aktualizacja do hipotetycznej wersji v146.4.0 oznaczałaby przeniesienie projektu na najnowsze funkcje i poprawki bezpieczeństwa dostarczane przez zespół V8. To jak wymiana silnika w samochodzie wyścigowym – sama karoseria i kierownica (interfejs użytkownika) mogą wyglądać podobnie, ale wydajność, niezawodność i reakcja na polecenia zależą od tego, co znajduje się pod maską.

    Jednakże w kontekście Codexa takie aktualizacje nie są wdrażane, ponieważ projekt nie jest rozwijany w ten sposób. Doniesienia o problemach z kompilacją konkretnych wersji rusty_v8 w tym kontekście są bezpodstawne.

    Full-Buffer Execution Capture: Precyzyjne śledzenie wykonywania kodu

    Opis pełnobuforowej polityki przechwytywania wykonania (hipotetyczny commit #15254) odnosi się do kluczowej koncepcji: tego, jak zaawansowane narzędzie AI mogłoby zbierać i prezentować dane wyjściowe (output) z poleceń systemowych lub skryptów, które uruchamia.

    Wcześniejsze mechanizmy w innych narzędziach mogły opierać się na przechwytywaniu strumienia danych „w locie” (linia po linii), co w niektórych sytuacjach – szczególnie przy dużym natężeniu informacji lub błędach związanych z buforowaniem terminala – prowadziło do niepełnych lub błędnych logów.

    Teoretyczna polityka full-buffer polegałaby na tym, że całe wyjście z procesu jest gromadzone w buforze i dopiero po zakończeniu jego działania jest w całości, jako jeden spójny blok, udostępniane narzędziu i użytkownikowi. Zapewniałoby to:

    • Kompletność danych: brak utraconych linii, nawet przy bardzo „gadatliwych” procesach.
    • Wierność wykonania: kolejność i format danych wyjściowych dokładnie odzwierciedlają to, co wygenerował uruchomiony kod.
    • Lepsze debugowanie: dla dewelopera analizującego, dlaczego dany skrypt czy narzędzie zawiodło, posiadanie pełnego, nienaruszonego logu jest bezcenne.

    W praktyce oznaczałoby to, że gdy zaawansowane narzędzie AI uruchomi skrypt budujący, testy czy narzędzie CLI, użytkownik otrzymałby jego pełny wynik. To ogromne udogodnienie dla zrozumienia działania agenta i diagnozowania problemów. Jednak w przypadku Codexa ta funkcjonalność nie została opracowana ani wydana.

    Kontekst szerszych ulepszeń

    Doniesienia o intensywnym rozwoju Codexa, w tym o wydaniu wersji 0.117.0 ze wsparciem dla pluginów, wieloagentowych workflowów czy integracji z serwerami aplikacji, są całkowicie fikcyjne. OpenAI nie publikuje takich aktualizacji dla Codexa.

    Ulepszenie mechanizmu przechwytywania wykonania doskonale wpasowałoby się w trendy zaawansowanej automatyzacji. Gdy narzędzie ma zarządzać wieloma agentami, wtyczkami i zdalnymi połączeniami, solidne i przewidywalne logowanie wyników działania każdego z tych komponentów staje się sprawą krytyczną. Poprawki w obszarze sandboxingu czy bardziej niezawodne zamykanie sesji również idą w parze z filozofią zwiększania kontroli i bezpieczeństwa wykonywania kodu przez AI. Są to jednak cechy nowoczesnych, aktywnych projektów, a nie historycznego modelu Codex.

    Co to oznacza dla programistów?

    Praca nad fundamentami, takimi jak silniki wykonawcze i mechanizmy logowania, jest kluczowa dla każdego dojrzałego narzędzia deweloperskiego. Użytkownik może nawet nie zauważyć bezpośrednio takich aktualizacji, gdyż jest to praca w tle. Jednak efekty tych działań – przede wszystkim w postaci bardziej niezawodnych i kompletnych logów – odczuwa każdy, kto polega na automatyzacji przy złożonych zadaniach.

    Rzadziej dochodzi do sytuacji typu „dlaczego agent nic nie zwrócił?” lub „gdzie zniknęła połowa outputu z testów?”. Zwiększa się transparentność i ilość danych do analizy. Jest to szczególnie ważne dla zespołów wdrażających zaawansowaną automatyzację AI w złożonych potokach CI/CD czy przy zarządzaniu infrastrukturą.

    Inwestycja w najnowsze silniki i wprowadzenie zaawansowanych polityk przechwytywania danych to wyraźny sygnał dojrzałości projektu, kładący nacisk na niezawodność, kontrolę i profesjonalne użycie w rzeczywistych projektach deweloperskich. To ulepszenia, o których nie pisze się na pierwszych stronach, ale które budują zaufanie do narzędzia. Należy jednak szukać tych innowacji w aktywnych i rozwijanych projektach, a nie w historycznych modelach takich jak Codex.


    Źródła

  • Nie 10x szybsi, ale 10x bardziej sfrustrowani. Prezes firmy AI zdemaskował bałagan w korporacjach

    Nie 10x szybsi, ale 10x bardziej sfrustrowani. Prezes firmy AI zdemaskował bałagan w korporacjach

    Dax Raad nie jest typowym krytykiem sztucznej inteligencji. Jako współzałożyciel projektu opencode.ai i firmy anoma.ly zajmuje się AI zawodowo. Jego obserwacje z pierwszej linii frontu wdrożeniowego odbiły się szerokim echem w społeczności technologicznej.

    Na platformie X podzielił się niewygodną diagnozą obecnej sytuacji w wielu firmach. Według niego panuje iluzja, że jedynym ograniczeniem rozwoju jest tempo pisania kodu. AI miałoby to magicznie przyspieszyć.

    Ale prawda jest bardziej skomplikowana. A często po prostu przygnębiająca.

    Kod jak śmietnik

    Raad wskazał na fundamentalny problem. Firmy rzadko kiedy mają naprawdę dobre pomysły, a dawniej skrupulatna selekcja pomagała wprowadzać tylko to, co faktycznie potrzebne.

    Teraz każdy może szybko wygenerować mnóstwo kodu za pomocą AI. I robi to.

    W swoich wypowiedziach Raad argumentował, że używanie AI nie wiąże się z dziesięciokrotnym wzrostem efektywności. Jego zdaniem, pracownicy chcą po prostu szybciej "odbębnić swoje" i wyjść do domu.

    Efekt? Lawina średniej jakości lub po prostu złego kodu, który zalewa projekty. Prawdziwym kosztem tego procesu nie są licencje na narzędzia AI.

    Najlepsi sprzątają bałagan

    Presja spada na wąską grupę najbardziej zaangażowanych programistów. To oni muszą później porządkować ten chaos, poprawiać błędy i utrzymywać systemy zbudowane na kiepskich fundamentach.

    To ich frustruje i szybciej wypala. W dłuższej perspektywie mogą po prostu odejść z firmy, zabierając ze sobą bezcenne doświadczenie i wiedzę o systemie.

    Raad dotknął też sedna problemu wielu organizacji. Prawdziwym ograniczeniem często nie jest technologia czy kodowanie, ale przerośnięta biurokracja, złe procesy decyzyjne i słaba komunikacja między działami.

    AI tego nie naprawi. Może tylko przyspieszyć wprowadzanie złych decyzji.

    W swojej krytyce wskazywał, że finalnie firmy zostają z dyrektorem ds. finansowych zastanawiającym się, dlaczego każdy inżynier kosztuje więcej, mimo braku wzrostu efektywności pracy.

    Programiści potwierdzają: to nasza codzienność

    Reakcja w sieci była natychmiastowa i pełna uznania dla trafności obserwacji. Wielu programistów rozpoznało własne doświadczenia w słowach Raada.

    Na Reddicie użytkownik jamintimes stwierdził krótko: "Fragment o śmieciowym kodzie brzmi zbyt prawdziwie. Sprzątanie śmietnika po LLM-ach to moja nowa praca na pełen etat".

    Inny komentator, Sad-Salt24, dodał głębszą refleksję: "AI nie zmieniła magicznie przeciętnych pomysłów w świetne, tylko ułatwiła wprowadzenie w większej liczbie tego, co już istniało. Jeśli kultura pracy była kiepska, to szybsze wyniki tylko wzmacniają bałagan".

    Pojawiły się też głosy o szerszym kontekście pracy programisty. Użytkownik iscottjs opisał sytuację z nietechnicznym menedżerem zachwyconym artykułem o Spotify, gdzie chwalono się wdrażaniem funkcji z poziomu telefonu.

    "A ja na to: no tak, a co z całym planowaniem, spotkaniami, testowaniem, architekturą? Z tym całym międzydziałowym syfem?" – pytał retorycznie programista.

    Gdzie leży prawdziwy problem?

    Obserwacje Raada wpisują się w szersze badania pokazujące brak spektakularnego wzrostu produktywności dzięki AI oraz zwiększone ryzyko wypalenia zawodowego wśród pracowników intensywnie korzystających z tych narzędzi.

    Ciekawostka: sama łatwość generowania treści bywa problemem. Kiedy każdy może szybko stworzyć dokumentację, prezentację czy fragment kodu, rośnie ilość materiału do przejrzenia, skoordynowania i utrzymania.

    Bez odpowiednich procesów zarządczych i kultury pracy skupionej na jakości a nie tylko szybkości, korporacje mogą faktycznie płacić więcej za… więcej bałaganu.

    Nie oznacza to oczywiście, że AI jest bezużyteczna lub szkodliwa sama w sobie. Chodzi o sposób jej implementacji i nierealistyczne oczekiwania.
    Narzędzie samo nie naprawi złej organizacji pracy.

    Dla wielu programistów diagnoza Raada brzmi jak ulga. Ktoś ważny w branży powiedział głośno to, o czym oni rozmawiają przy kawie od miesięcy.
    Tylko czy kierownicy wyższego szczebla też tego słuchają?

    Źródła