Tag: openai

  • Codex 0.114.0: lepsza izolacja, haki i usprawnienia workflow

    Codex 0.114.0: lepsza izolacja, haki i usprawnienia workflow

    Najnowsza wersja narzędzi deweloperskich OpenAI, opartych na modelach takich jak Codex, przynosi zestaw eksperymentalnych funkcji, które mają na celu zwiększenie kontroli i stabilności pracy programistów. To nie jest rewolucyjna aktualizacja, lecz seria precyzyjnych udoskonaleń rozwiązujących konkretne problemy zgłaszane przez społeczność. Głównymi nowościami w tym wydaniu są eksperymentalny tryb kodu dla lepszej izolacji, nowy silnik hooków oraz kluczowe poprawki błędów wpływające na codzienną pracę.

    Eksperymentalny tryb kodu: izolacja na pierwszym planie

    Jedną z najciekawszych nowości jest eksperymentalny tryb kodu (experimental code mode). Jego głównym zadaniem jest zapewnienie bardziej odizolowanych środowisk pracy. W praktyce oznacza to, że różne zadania czy workflowy mogą być uruchamiane w osobnych, wydzielonych kontekstach.

    Po co taka izolacja? Chodzi o redukcję interferencji. Podczas pracy nad kilkoma projektami jednocześnie lub testowania różnych skryptów istnieje ryzyko, że zmiany w jednym środowisku wpłyną nieoczekiwanie na drugie. Nowy tryb ma minimalizować to ryzyko, tworząc "piaskownice" (sandboxy) dla poszczególnych zadań. To podejście jest szczególnie cenne w złożonych pipeline'ach lub podczas eksperymentowania z nowymi bibliotekami, gdzie czystość środowiska ma kluczowe znaczenie.

    Nowy silnik hooków: SessionStart i SessionStop

    Kolejną eksperymentalną funkcją jest silnik hooków (hooks engine). Wprowadza on dwa nowe zdarzenia: SessionStart i SessionStop. Hooki to potężny mechanizm pozwalający deweloperom na "podpinanie" własnej logiki w kluczowych momentach cyklu życia sesji.

    Wyobraź sobie, że chcesz automatycznie uruchomić skrypt czyszczący pliki tymczasowe po zakończeniu sesji, zainicjować konkretną konfigurację środowiska na jej starcie lub wysłać powiadomienie do zespołu. Dzięki nowym hookom takie automatyzacje stają się możliwe bez bezpośredniego modyfikowania jądra (core) narzędzia. Otwiera to drogę do lepszego dostosowywania środowiska do specyficznych potrzeb projektu i wewnętrznych procedur.

    Endpointy health check dla WebSocketów i wyłączanie systemowych skilli

    Endpointy health check dla WebSocketów i wyłączanie systemowych skilli

    Dla osób wdrażających aplikacje oparte na WebSocketach aktualizacja wprowadza praktyczne ulepszenie operacyjne. WebSocket app-server deployments wystawiają teraz endpointy GET /readyz oraz GET /healthz na tym samym listenerze.

    To standardowe, ale niezwykle ważne punkty końcowe w świecie DevOps. Umożliwiają one narzędziom monitorującym (takim jak Kubernetes czy load balancery) łatwe sprawdzanie żywotności i gotowości usługi. Dzięki temu wdrożenia produkcyjne stają się bardziej odporne i łatwiejsze w zarządzaniu.

    Dodano też prosty, ale użyteczny przełącznik konfiguracyjny: możliwość wyłączenia wbudowanych systemowych skilli (bundled system skills). Nie każdy projekt potrzebuje pełnego zestawu domyślnych umiejętności. Dzięki tej opcji użytkownicy mogą odciążyć środowisko z niepotrzebnych komponentów, co może przełożyć się na mniejsze zużycie zasobów i mniejszy "szum" w interakcjach.

    Usprawnienia workflowu: lepsze handoffy i czytelniejszy picker

    Wydanie przynosi też subtelne, ale odczuwalne poprawki w płynności pracy. Handoffy (przekazywanie zadań) zostały wzbogacone o kontekst z transkrypcji w czasie rzeczywistym. Gdy przekazujesz zadanie innemu członkowi zespołu lub wznawiasz pracę nad wątkiem po przerwie, masz teraz lepszy wgląd w to, co działo się wcześniej. Poprawia to ciągłość pracy i skraca czas potrzebny na ponowne wejście w kontekst zadania.

    Ulepszono również mention picker – narzędzie służące do wybierania i odwoływania się do różnych elementów. Poprawki skupiły się na zwiększeniu jego czytelności, co ma przyspieszyć nawigację i zmniejszyć liczbę pomyłek podczas codziennego użytkowania.

    Ważne poprawki błędów zwiększające stabilność

    Ważne poprawki błędów zwiększające stabilność

    Żadne wydanie nie mogłoby się obyć bez poprawek, a w tej aktualizacji są one szczególnie istotne dla stabilności:

    • Naprawiono awarie tmux. To krytyczna poprawka dla użytkowników pracujących w terminalu, gdzie crashe mogły skutkować utratą sesji.
    • Zaostrzono kontrole włączania aplikacji. Naprawiono problem, przez który aplikacje mogły być uruchamiane w nieobsługiwanych sesjach, co prowadziło do niespójnego zachowania.
    • Rozwiązano problem z wątkami oznaczanymi jako "w toku". Dotyczyło to sytuacji, gdy użytkownik zakończył pracę w trakcie działania procesu (mid-run), a później ją wznowił – wątek mógł utknąć w nieprawidłowym stanie.
    • Ulepszono zarządzanie uprawnieniami. Poprawka zachowuje oczekiwane zachowanie dla workspace-write, zapewniając jednocześnie bezpieczną degradację (graceful degradation) w starszych buildach. Jest to kluczowe dla kompatybilności wstecznej.

    Jak zainstalować i kontekst szerszych wydań

    Instalacja nowych narzędzi i bibliotek OpenAI zazwyczaj odbywa się przez menedżery pakietów, takie jak npm. Warto zapoznać się z oficjalną dokumentacją OpenAI, aby poznać aktualne metody instalacji i dostępne pakiety.

    Warto spojrzeć na to wydanie w szerszym kontekście cyklu rozwojowego. Ta aktualizacja koncentruje się na izolacji, hookach i stabilności. Kolejne wersje wprowadzały już bardziej spektakularne nowości, takie jak inspekcja obrazów w pełnej rozdzielczości czy rozszerzony kontekst JavaScript REPL. Pokazuje to iteracyjne podejście: najpierw buduje się solidny fundament i mechanizmy (jak hooki), a potem na nich opiera nowe, bogatsze funkcje.

    Podsumowanie: solidny krok naprzód

    Ta aktualizacja to wydanie inżynieryjne, które może nie rzucać się w oczy efektownymi interfejsami, ale znacząco poprawia jakość i kontrolę nad procesem deweloperskim. Wprowadzenie eksperymentalnego trybu izolacji i silnika hooków wskazuje na kierunek rozwoju platformy w stronę większej modularności, bezpieczeństwa i możliwości automatyzacji. Jednocześnie poprawki błędów związanych z tmux, wątkami i uprawnieniami bezpośrednio rozwiązują problemy użytkowników, zwiększając ogólną niezawodność narzędzia. To właśnie takie aktualizacje, które naprawiają, usprawniają i dają nowe, bazowe możliwości, często mają największy wpływ na produktywność w dłuższej perspektywie.

  • Codex 0.113.0: większa kontrola nad uprawnieniami, rynek pluginów i lepszy serwer aplikacji

    Codex 0.113.0: większa kontrola nad uprawnieniami, rynek pluginów i lepszy serwer aplikacji

    Wydanie Codex 0.113.0 to nie tylko kolejna aktualizacja, ale solidny krok naprzód w budowaniu platformy do zaawansowanej automatyzacji kodowania. OpenAI skupia się na trzech kluczowych filarach: bezpieczeństwie, ekosystemie i użyteczności. Najnowsza wersja wprowadza dynamiczne żądania uprawnień w runtime, ulepsza zarządzanie pluginami i znacząco poprawia wydajność serwera aplikacji. Dla developerów oznacza to większą elastyczność i mniej problemów technicznych.

    Dynamiczne uprawnienia: agent pyta o pozwolenie

    Jedna z najciekawszych nowości to wbudowane narzędzie request_permissions. Do tej pory Codex wymagał predefiniowanego zestawu uprawnień przy uruchomieniu. Jeśli w trakcie pracy agent potrzebował dostępu do nowego zasobu, mógł po prostu przestać działać.

    Teraz to się zmienia. Działający agent może w trakcie wykonywania zadania poprosić użytkownika o dodatkowe uprawnienia, np. dostęp do konkretnego katalogu, połączenia sieciowego czy uruchomienie zewnętrznego polecenia. To rozwiązanie przypomina systemy uprawnień znane z nowoczesnych mobilnych systemów operacyjnych.

    Dlaczego to ważne? Zwiększa płynność pracy. Zamiast przewidywać każdy scenariusz w konfiguracji, możemy zacząć zadanie z podstawowym zestawem uprawnień, a Codex poprosi o więcej w miarę potrzeb. To duży krok w stronę bardziej interaktywnej i opartej na współpracy automatyzacji.

    Dojrzałość ekosystemu pluginów: odkrywanie i zarządzanie

    Pluginy w Codex zyskują na dojrzałości, co widać w kilku konkretnych ulepszeniach. Po pierwsze, dodano endpoint plugin/uninstall, który wreszcie pozwala na czyste usunięcie niechcianych rozszerzeń. To podstawowa funkcja, której brak był dotkliwy przy zarządzaniu środowiskiem.

    Po drugie, metadane zwracane przez polecenie plugin/list są teraz bogatsze. Mamy więcej informacji o samym pluginie, jego autorze czy wymaganiach. Instalacja jest też bezpieczniejsza, ponieważ weryfikacja autoryzacji następuje już na etapie instalacji, a nie dopiero przy pierwszym uruchomieniu. Te zmiany sprawiają, że zarządzanie wtyczkami przestaje być eksperymentem, a staje się przewidywalną częścią workflow.

    Aplikacje i serwer: poprawki i niezawodność

    Ulepszenia serwera aplikacji (app-server) są skierowane do osób, które używają Codex w zautomatyzowanych pipeline'ach lub integrują go z własnymi narzędziami. Wprowadzono między innymi health checki, które zwiększają niezawodność monitorowania.

    Exec został też przeniesiony na nową, wewnątrzprocesową ścieżkę serwera aplikacji, co zwiększa wydajność i stabilność. Te poprawki sprawiają, że integracja Codex z innymi systemami staje się bardziej niezawodna.

    Bezpieczeństwo i konfiguracja: nowy język polityk

    Bezpieczeństwo i konfiguracja: nowy język polityk

    Bezpieczeństwo sandboxa przeszło spory lifting. Wprowadzono wstępne wsparcie dla konfiguracji profili uprawnień (permission-profile) w pliku config.toml. Jest to istotne dla zespołów korporacyjnych i każdego, kto poważnie traktuje bezpieczeństwo. Daje to administratorom narzędzie do definiowania zasad zgodnych z polityką firmy, bez blokowania produktywnej pracy.

    Konfiguracja wyszukiwania w sieci również została rozbudowana. Nie jest to już prosty przełącznik on/off. Możemy skonfigurować filtry, ustawienia zależne od lokalizacji i inne parametry narzędzia, co pozwala dostosować je do specyficznych potrzeb projektu lub wymogów compliance.

    Poprawki i usprawnienia pod maską

    Wydanie przynosi też zestaw ważnych poprawek rozwiązujących codzienne problemy. Dodano ściślejszą walidację katalogu roboczego przy starcie sandboxa, co powinno zwiększyć stabilność działania.

    Dla użytkowników pluginów istotna jest poprawka gwarantująca, że wtyczki ładują się poprawnie w sesjach TUI. Brzmi to technicznie, ale wcześniej mogło się zdarzyć, że plugin był zainstalowany, lecz nie działał w interfejsie tekstowym.

    Ciekawostką jest dodanie funkcji inspekcji obrazów. Dla użytkowników Windowsa mamy dobrą wiadomość: wydania CLI są teraz publikowane także w menedżerze pakietów winget.

    Podsumowanie: w stronę bardziej responsywnej platformie

    Codex 0.113.0 nie rewolucjonizuje jednej konkretnej funkcji, ale konsekwentnie poprawia fundamenty platformy. Wprowadzenie dynamicznych uprawnień to zmiana filozofii – ze sztywnego agenta na współpracownika, który pyta i dostosowuje się na bieżąco. Dojrzałość zarządzania pluginami oraz istotne ulepszenia serwera aplikacji otwierają nowe możliwości integracji i automatyzacji złożonych procesów.

    Nowe wsparcie dla profili uprawnień to odpowiedź na potrzeby profesjonalnego, zespołowego wykorzystania Codex w środowiskach, gdzie kontrola jest kluczowa. Wszystko to uzupełnia solidna porcja poprawek błędów, dzięki którym codzienna praca z narzędziem staje się po prostu przyjemniejsza. Widać wyraźnie, że projekt open-source Codex CLI ewoluuje w kompletne, robustowe środowisko deweloperskie. Aktualizację można zainstalować standardowo przez npm: npm install -g @openai/[email protected].

  • Codex v0.112.0 wprowadza wzmianki @plugin i zaostrza bezpieczeństwo sandboxów

    Codex v0.112.0 wprowadza wzmianki @plugin i zaostrza bezpieczeństwo sandboxów

    Najnowsza wersja terminalowego asystenta programistycznego od OpenAI, Codex 0.112.0, to solidna aktualizacja skupiająca się na dwóch kluczowych obszarach: wygodzie integracji pluginów i bezpieczeństwie wykonywania narzędzi. Wydanie, które trafiło do użytkowników w marcu 2026 roku, nie przynosi rewolucyjnych zmian w interfejsie, ale za to subtelnie, acz znacząco, usprawnia codzienną pracę z AI w terminalu.

    Głównymi nowościami tej odsłony są możliwość bezpośredniego przywoływania pluginów w czacie za pomocą symbolu @ oraz fundamentalne zmiany w polityce sandboxów, które mają zapobiegać nieautoryzowanym działaniom. To ewolucja wpisująca się w trend rozbudowy ekosystemu Codexa – lekkiego agenta, który zdobył już sporą popularność wśród deweloperów.

    Łatwiejsza integracja: wywołaj plugin w rozmowie za pomocą @

    Jedną z bardziej praktycznych nowości jest funkcja @plugin mentions. Do tej pory korzystanie z funkcjonalności pluginów mogło wymagać pamiętania o specyficznych komendach lub kontekstach. Teraz, w trakcie rozmowy z Codexem w terminalu (TUI), wystarczy wspomnieć o pluginie, używając @nazwa_plugina.

    Na przykład, pisząc „@git jaki jest status mojego repozytorium?”, użytkownik automatycznie załącza kontekst związany z danym pluginem, aplikacją lub umiejętnością (skill). To małe, ale niezwykle przydatne udogodnienie, które sprawia, że praca z wieloma rozszerzeniami staje się bardziej płynna i intuicyjna. Zmiana ta (oznaczona w changelogu jako #13510) bezpośrednio odpowiada na potrzeby użytkowników, którzy chcą szybko przełączać się między różnymi narzędziami bez przerywania flow pracy.

    Poza tym zaktualizowano też katalog modeli w interfejsie TUI. Teraz wybór modelu podczas rozpoczynania sesji lepiej odzwierciedla aktualną ofertę OpenAI.

    Bezpieczeństwo przede wszystkim: nowa polityka sandboxów dla zsh-fork

    Jeśli integracja pluginów to kwestia wygody, to druga główna zmiana dotyczy fundamentów bezpieczeństwa. W wersji 0.112.0 połączono profile uprawnień wykonywalnych z polityką sandboxa na każdą turę (per-turn sandbox policy). To techniczne, ale kluczowe usprawnienie dotyczące wykonywania umiejętności typu zsh-fork.

    W skrócie: kiedy Codex uruchamia narzędzie systemowe lub skrypt, robi to w izolowanym środowisku (sandboxie). Dotychczasowe, oddzielne profile uprawnień zostały teraz scalone z główną polityką sandboxa dla danej operacji. Daje to bardziej spójny, addytywny (czyli kumulujący uprawnienia tylko w razie potrzeby) i przede wszystkim bezpieczniejszy model przyznawania dostępu. Sandbox stał się surowszy i bardziej przewidywalny, co minimalizuje ryzyko nieautoryzowanych działań podczas automatycznego wykonywania poleceń.

    Ta zmiana (o numerze #13496) pokazuje, że twórcy Codexa traktują bezpieczeństwo poważnie, szczególnie w kontekście agenta, który ma bezpośredni dostęp do systemu i może wykonywać polecenia. Jest to niezwykle istotne dla deweloperów i zespołów DevOps, którzy powierzają Codexowi automatyzację wrażliwych części workflow.

    Stabilność i izolacja: poprawki pod maską

    Oprócz dwóch flagowych funkcji, wydanie 0.112.0 naprawia szereg błędów i wzmacnia system. To właśnie te poprawki często decydują o tym, czy narzędzie jest po prostu dobre, czy też można na nim polegać w codziennej pracy.

    • Naprawiono obsługę stanu JS REPL*. REPL (Read-Eval-Print Loop) to interaktywne środowisko do uruchamiania kodu JavaScript, a problemy z zarządzaniem jego stanem mogły prowadzić do niespójnych wyników lub błędów. Teraz funkcja ta działa poprawniej.

    Kluczową poprawką jest też bezpieczne zamykanie serwera (graceful shutdown). Gdy aplikacja serwerowa Codexa otrzymuje sygnał SIGTERM (standardowy sygnał zamknięcia), traktuje go jak naciśnięcie Ctrl-C. Dzięki temu połączenia WebSocket zamykają się w uporządkowany sposób, a nie są gwałtownie przerywane. Pozwala to uniknąć potencjalnego uszkodzenia danych i zapewnia stabilność.

    Wzmocniono także bezpieczeństwo przesyłania obrazów w JS REPL. Funkcja emitImage została „utwardzona” i teraz akceptuje wyłącznie adresy URL zaczynające się od data:. Blokuje to możliwość przesyłania obrazów z zewnętrznych, potencjalnie niebezpiecznych źródeł, zamykając kolejną ewentualną lukę.

    Usprawnienia dla różnych systemów operacyjnych

    Usprawnienia dla różnych systemów operacyjnych

    Codex rozwija się jako narzędzie wieloplatformowe, stąd poprawki dotyczące specyfiki różnych systemów.

    W przypadku Linuxa usprawniono izolację za pomocą bubblewrap (narzędzia do tworzenia sandboxów). Poprawka (#13624) zapewnia, że przestrzenie nazw użytkownika (user namespaces) nie są współdzielone, co gwarantuje silniejszą izolację. Działa to niezawodnie nawet w sytuacjach, gdy Codex jest uruchamiany z uprawnieniami roota, co jest ważne w zaawansowanych scenariuszach DevOps.

    Dla użytkowników macOS naprawiono konfigurację sieci w sandboxie opartym na mechanizmie Seatbelt od Apple. Z kolei w wersji na Linuxa poprawiono ogólne ustawienia sieciowe sandboxa, aby działały bardziej przewidywalnie.

    Jak to wpisuje się w szerszy obraz Codexa?

    Wydanie 0.112.0 to kolejny krok po znaczących aktualizacjach z ostatnich miesięcy.

    Wersja 0.111.0 włączyła domyślnie tryb Fast (szybsze, ale mniej szczegółowe odpowiedzi), dodała dynamiczne importy w JS REPL i rozszerzyła możliwości pracy z obrazami. Z kolei 0.110.0 była dużą zmianą, wprowadzającą cały system pluginów z umiejętnościami i konektorami, trwały przełącznik trybu Fast, ulepszone „wspomnienia” (memories) oraz liczne poprawki stabilności.

    Codex ewoluuje z prostego, tekstowego bota do kodowania w pełnoprawny ekosystem. Kolejne wersje, jak 0.113.0, rozbudowują go dalej o zaawansowane przepływy pracy z pluginami.

    • Podsumowując*, Codex v0.112.0 to aktualizacja stawiająca na praktyczność i bezpieczeństwo. Wprowadzenie wzmianek @plugin upraszcza interakcję z rosnącą biblioteką rozszerzeń, czyniąc terminalowego asystenta bardziej elastycznym. Jednocześnie głębokie przebudowanie polityki sandboxów dla zsh-fork oraz liczne poprawki stabilności świadczą o dojrzałości projektu.

    Choć zmiany te nie rzucają się w oczy od razu, to właśnie takie udoskonalenia – poprawiające codzienną ergonomię i budujące zaufanie do bezpieczeństwa wykonywanych poleceń – są często najcenniejsze. Dla deweloperów, szczególnie tych zajmujących się web developmentem, AI i automatyzacją DevOps, Codex 0.112.0 oferuje płynniejsze i znacznie pewniejsze środowisko do „vibe codingu” bez wychodzenia z terminala.

  • Codex 0.111.0: Szybszy Tryb, Lepsze Wtyczki i Usprawnione Praca z Obrazami

    Codex 0.111.0: Szybszy Tryb, Lepsze Wtyczki i Usprawnione Praca z Obrazami

    OpenAI kontynuuje rozwój swojego narzędzia Codex, wprowadzając ulepszenia, które bezpośrednio przekładają się na efektywność pracy programistów. To nie są drobne poprawki, ale zmiany dotykające kluczowych obszarów: wydajności, rozszerzalności i integracji.

    Istotne są ulepszenia w systemie wtyczek oraz nowe możliwości dla programistów JavaScript. Dla osób pracujących z web developmentem i vibe codingiem, te aktualizacje mogą oznaczać wyraźny skok w komforcie codziennych zadań.

    Lepsza Integracja Wtyczek: Model Wie, Co Ma Do Dyspozycji

    To może być najważniejsza, choć mniej widowiskowa, zmiana w ostatnim wydaniu. System pluginów w Codex zyskał na inteligencji. Od teraz, na początku każdej sesji, model jest informowany o tym, jakie wtyczki (MCP, aplikacje, umiejętności) są aktywne i gotowe do użycia.

    Dlaczego to takie istotne? Wcześniej model mógł nie mieć pełnej świadomości dostępnych narzędzi. Deweloper musiał czasem ręcznie "podpowiedzieć" asystentowi, że może skorzystać z konkretnej wtyczki. Teraz Codex robi to automatycznie. Ta poprawiona odkrywalność wtyczek (enhanced plugin discovery) oznacza płynniejszą pracę.

    Jeśli masz zainstalowane wtyczki do łączenia się z bazą danych, zarządzania serwerem czy analizy logów, model od razu wie, że może z nich skorzystać. To redukuje niepotrzebne dialogi i pozwala od razu przejść do rozwiązywania problemu. Dla workflow dev ops, gdzie integracja z zewnętrznymi systemami jest kluczowa, to ogromne ułatwienie.

    Ulepszenie to, śledzone pod numerem #13433, stanowi krok w stronę prawdziwie kontekstowego asystenta, który rozumie nie tylko Twój kod, ale także ekosystem narzędzi, w jakim pracujesz.

    js_repl Uczy Się Importować: Większa Elastyczność w Pracy z JavaScript

    Dla programistów JavaScript i Node.js mała perełka. Repl JavaScript (`js_repl`) zyskał możliwość dynamicznego importowania lokalnych plików .js i .mjs**.

    W praktyce co to daje? Wyobraź sobie, że pracujesz nad projektem i masz w przestrzeni roboczej zestaw pomocniczych funkcji czy konfiguracji. Wcześniej, chcąc je przetestować lub użyć w interaktywnej sesji REPL, musiałeś je kopiować lub przepisywać. Teraz możesz po prostu zaimportować.

    To brzmi technicznie, ale znacząco wspiera styl pracy "vibe coding" – swobodne, iteracyjne eksperymentowanie z kodem. Pozwala szybko testować fragmenty skryptów, korzystać z narzędzi budujących z poziomu REPL-a i generalnie lepiej integrować interaktywną sesję z resztą projektu. Zmiana (o numerze #13437) pokazuje, jak Codex ewoluuje, by lepiej wspierać realne, codzienne środowisko programistyczne, a nie być tylko odizolowanym chatem.

    Podsumowanie

    Ostatnie aktualizacje Codexa stawiają na świadomość kontekstu i gładszą integrację. Informowanie modelu o wtyczkach od ręki eliminuje zbędne tarcie. Możliwość importowania lokalnych skryptów w js_repl to konkretne ułatwienie dla developerów JavaScript.

    Razem te zmiany nie rewolucjonizują narzędzia, ale wyraźnie je polerują i dopasowują do faktycznych potrzeb programistów pracujących w nowoczesnym stosie technologicznym. Pokazują kierunek, w którym podążają asystenci programistyczni: nie tylko generują kod, ale stają się centralnymi, inteligentnymi hubami, które rozumieją cały ekosystem dewelopera – jego narzędzia, pliki i workflow. Dla zespołów zajmujących się web developmentem i dev ops, to kolejny krok w stronę bardziej zautomatyzowanego i płynnego procesu tworzenia oprogramowania.

  • Zed 0.226.5: Nowe Modele GPT-5.4 i Ważne Poprawki Stabilności

    Wydanie Zed 0.125.5, opublikowane w marcu 2025 roku, to na pierwszy rzut oka niewielka aktualizacja. Jednak pod jej spokojną powierzchnią kryją się dwie bardzo istotne zmiany dla osób korzystających z AI w codziennej pracy programistycznej. Edytor wprowadza wsparcie dla najnowszych modeli OpenAI, równocześnie łatając irytujące błędy, które mogły zakłócać pracę.

    To kolejny krok w konsekwentnej strategii twórców Zed, którzy stawiają na głęboką, ale otwartą integrację sztucznej inteligencji. Nie chodzi im o zamykanie użytkownika w jednym ekosystemie, lecz o dawanie swobody wyboru najlepszych narzędzi do zadania.

    Wsparcie dla GPT-4o i GPT-4o-Mini: Potęga Nowej Generacji AI

    Najważniejszą nowością w wersji 0.125.5 jest dodanie obsługi modeli GPT-4o oraz GPT-4o-mini. To świeże modele językowe od OpenAI, które oferują jeszcze lepsze zrozumienie kontekstu, trafniejsze sugestie kodu i sprawniejsze działanie w trybie agenta.

    Jest jednak kluczowy warunek. Aby z nich skorzystać, potrzebujesz osobistego klucza API od OpenAI. Modele nie są dostępne przez domyślną, zintegrowaną usługę Zed. To celowy zabieg. Daje on zaawansowanym użytkownikom i zespołom możliwość dostępu do najnowszych technologii, jednocześnie pozwalając twórcom Zed skupić się na integracji, a nie na dostarczaniu infrastruktury.

    W praktyce, po skonfigurowaniu swojego klucza API w ustawieniach AI, modele GPT-4o pojawią się na liście dostępnych opcji w panelu agenta czy podczas korzystania z edycji przewidywanych (edit predictions). Dla osób, które już używają własnych kluczy z wcześniejszymi modelami OpenAI, zmiana będzie bezbolesna.

    Krytyczne Poprawki Stabilności: Koniec Zawieszania się w Ustawieniach

    Oprócz nowych funkcji, każda dojrzała aktualizacja musi naprawiać to, co jest zepsute. W tym wydaniu naprawiono dwie uciążliwe usterki.

    Pierwsza z nich to awaria przy otwieraniu interfejsu ustawień. Błąd mógł powodować natychmiastowe zawieszenie się aplikacji, gdy użytkownik próbował dostać się do konfiguracji. Szczerze mówiąc, nic nie irytuje bardziej niż crash w tak podstawowym miejscu. Poprawka likwiduje ten problem, przywracając płynność pracy.

    Druga poprawka dotyczy integracji z OpenRouter – usługą agregującą dostęp do wielu modeli AI. Zed naprawił błąd związany z obsługą tzw. usage-only events z pustymi wyborami (empty choices). W skrócie, gdy OpenRouter zwracał określony typ zdarzenia służącego tylko do pomiaru zużycia, Zed mógł wyświetlić niepotrzebny błąd. Poprawka usprawnia komunikację, zapewniając czystsze działanie bez niepokojących komunikatów.

    Szerszy Kontekst: Strategia AI w Zedzie

    Szerszy Kontekst: Strategia AI w Zedzie

    Wydanie 0.125.5 nie istnieje w próżni. Jest elementem tygodniowego cyklu aktualizacji, który od miesięcy koncentruje się na jednym: uczynieniu AI nieodłącznym, ale nieinwazyjnym partnerem w programowaniu.

    Jeśli spojrzymy na kilka poprzednich wersji, zobaczymy spójny obraz:

    • Wsparcie dla samodzielnie hostowanych serwerów zgodnych z API OpenAI. Daje to pełną kontrolę i prywatność zespołom wdrażającym własne modele.
    • Przywrócenie panelu agenta po restarcie edytora. Twoje rozmowy z AI nie znikają już po zamknięciu okna.
    • Dodanie kontroli nad "wysiłkiem myślowym" (thinking effort) dla modeli, które to obsługują. Pozwala to balansować między szybkością odpowiedzi a ich głębią.
    • Integracja z różnymi dostawcami jak Claude na Amazon Bedrock, Mistral AI czy lokalny Ollama.

    To podejście, często nazywane vibe coding lub agentic editing, polega na płynnej współpracy z wieloma modelami. Nie jesteś przywiązany do jednego dostawcy. Możesz użyć GPT-4o do generowania skomplikowanej logiki, Clau do refaktoryzacji, a lokalnego modelu do analizy wrażliwego kodu. Zed stara się być mostem, a nie celem samym w sobie.

    Dla Kogo Jest Ta Aktualizacja?

    Dla Kogo Jest Ta Aktualizacja?

    Wersja 0.125.5 ma największe znaczenie dla dwóch grup:

    1. Zaawansowanych użytkowników OpenAI, którzy mają aktywny dostęp do najnowszych modeli (GPT-4o) przez API i chcą je wykorzystać w swoim edytorze. Dla nich to bezpośrednie udogodnienie.
    2. Wszystkich, którzy doświadczali crashy w ustawieniach lub błędów OpenRouter. Dla nich ta wersja oznacza po prostu bardziej stabilne i przewidywalne środowisko pracy.

    Dla przeciętnego użytkownika, który polega na domyślnych, zintegrowanych modelach Zed, zmiana będzie niemal niedostrzegalna – poza tym, że aplikacja może działać odrobinę płynniej.

    Podsumowanie

    Zed 0.125.5 to aktualizacja, która perfekcyjnie ilustruje filozofię rozwoju tego edytora: ciche, regularne dostarczanie wartości. Z jednej strony otwiera drzwi do najnowszych, najbardziej zaawansowanych modeli AI dla tych, którzy ich potrzebują. Z drugiej – twardo stąpa po ziemi, naprawiając irytujące błędy, które psują codzienne doświadczenie.

    Nie ma tu wielkich, marketingowych haseł o rewolucji. Jest za to konkret: nowe modele dla wtajemniczonych, mniej crashy dla wszystkich. W świecie narzędzi developerskich, gdzie stabilność jest równie ważna co innowacja, takie podejście zasługuje na uznanie. To kolejny, mały krok w kierunku edytora, który nie narzuca, jak masz pracować, ale daje ci wszystkie narzędzia, abyś mógł pracować po swojemu.

  • Codex 0.111.0: Szybszy Domyślnie i Zwiększona Stabilność dla Deweloperów

    Codex 0.111.0: Szybszy Domyślnie i Zwiększona Stabilność dla Deweloperów

    OpenAI wypuściło nową, znaczącą aktualizację swojego narzędzia do asystowanego kodowania – Codex. Aktualizacja skupia się na zwiększeniu wydajności codziennej pracy, poprawie integracji z ekosystemem pluginów oraz usunięciu szeregu dokuczliwych błędów. Wprowadzono szybszego agenta i nowe modele, mające przyspieszyć iterację z AI.

    Ta solidna aktualizacja dotyka kluczowych obszarów: interfejsu użytkownika, środowiska wykonawczego JavaScript, zarządzania wtyczkami oraz stabilności długotrwałych sesji. Dla programistów pracujących nad projektami webowymi czy wykorzystujących AI w procesach devops, te zmiany mogą realnie wpłynąć na komfort i tempo pracy.

    Szybszy Agent i Nowe Modele

    Najbardziej odczuwalną zmianą jest wprowadzenie szybszego agenta oraz nowych modeli, takich jak codex-1 o4-mini. OpenAI skupiło się na optymalizacji strategii generowania odpowiedzi, co ma prowadzić do szybszych interakcji i bogatszych rezultatów.

    Jak zauważono w społeczności, bardziej zaawansowane promptowanie może czasem powodować nagłe skoki w zużyciu tokenów. Ważne jest więc, by użytkownicy świadomie monitorowali swoje użycie, szczególnie pracując na kontach z limitami.

    Ulepszenia w Środowisku Wykonawczym

    Dla developerów JavaScript i TypeScript kluczową nowością są ulepszenia w środowisku wykonawczym. OpenAI potwierdza lepszą integrację z istniejącymi narzędziami i przepływami pracy developerskimi.

    To duże ułatwienie przy testowaniu modularnych fragmentów kodu, prototypowaniu czy debugowaniu. Te ulepszenia ściśle łączą się z filozofią Codexa jako narzędzia do iteracyjnego rozwoju oprogramowania w naturalnym kontekście projektu.

    Integracja z Pluginami i Model Context Protocol (MCP)

    Kolejny obszar usprawnień to ekosystem wtyczek, w szczególności tych opartych o Model Context Protocol (MCP). Codex lepiej integruje się z zewnętrznymi systemami i narzędziami poprzez MCP, co pozwala modelowi AI efektywniej korzystać z dodatkowych zasobów.

    OpenAI ogólnie wspomina MCP jako narzędzie do łączenia z zewnętrznymi systemami, co zwiększa szansę na ich trafne i użyteczne wykorzystanie w procesie developerskim.

    Rozszerzone Możliwości Pracy z Obrazami i Poprawki

    Aktualizacja rozszerza także wsparcie dla przepływów pracy z obrazami. Źródła potwierdzają obsługę obrazów, na przykład poprzez funkcjonalność screenshotów w interfejsie CLI, co jest krokiem w stronę lepszej integracji generatywnych modeli wizyjnych z procesem developerskim.

    Jeśli chodzi o stabilność, zespół naprawił kilka istotnych błędów. Poprawiono różne aspekty działania narzędzia, zwiększając ogólną niezawodność długotrwałych sesji i integracji z systemami developerskimi.

    Dla Kogo Są Te Zmiany?

    Aktualizacja Codexa jest skierowana przede wszystkim do profesjonalnych deweloperów i zespołów, które już wdrożyły AI-asystentów do swojego workflow. Szybszy agent, lepsza integracja i stabilniejsze działanie to udogodnienia dla codziennej, intensywnej pracy.

    Rozszerzenia związane z MCP i pluginami są szczególnie istotne dla architektów i zespołów DevOps, które budują lub integrują spersonalizowane narzędzia i automatyzacje wokół Codexa. Inwestycja w możliwość głębokiego włączania Codexa w wewnętrzne procesy i pipeline’y firm jest czytelnym sygnałem od OpenAI.

    Podsumowanie

    Ta aktualizacja Codexa nie jest rewolucją, ale znaczącą ewolucją, która udrażnia najważniejsze ścieżki użytkowania. Optymalizacja wydajności postawiła szybkość działania na pierwszym miejscu, choć wymaga od użytkowników nieco większej uwagi na zużycie zasobów. Ulepszenia środowiska wykonawczego i systemu pluginów są natomiast konkretnymi odpowiedziami na potrzeby społeczności, ułatwiając pracę w prawdziwych, złożonych projektach.

    Poprawki stabilizacyjne są nie do przecenienia dla każdego, kto traktuje Codexa jako poważne narzędzie pracy. Ta aktualizacja utwierdza pozycję Codexa jako jednego z najbardziej zaawansowanych i ciągle rozwijanych środowisk do AI-asystowanego programowania, z coraz lepszym wsparciem dla rozszerzalności i integracji.

  • GPT-5.4 Wchodzi Do Gry: Rekordowe Moce Dla Wszystkich, a „Extreme Thinking” Dla Profesjonalistów

    GPT-5.4 Wchodzi Do Gry: Rekordowe Moce Dla Wszystkich, a „Extreme Thinking” Dla Profesjonalistów

    Od kilku dni środowisko sztucznej inteligencji żyje jednym tematem: oficjalna premiera GPT-5.4. OpenAI wypuściło model 5 marca 2026 roku, zaledwie 72 godziny po krótkiej zapowiedzi w postaci GPT-5.3 Instant. To nie jest jednak drobna aktualizacja, a poważny skok możliwości, który zmienia to, czego możemy oczekiwać od asystentów AI, zwłaszcza w kontekście rozwoju stron internetowych, programowania i automatyzacji.

    Najważniejsza wiadomość dla użytkowników darmowego ChatGPT? GPT-5.4 staje się nowym, domyślnym silnikiem w darmowym wariancie. Nie ma więc potrzeby szukania specjalnych, „limitowanych czasowo” ofert w zewnętrznych platformach, jak np. Augment. Po prostu, w ciągu najbliższych dni, twoja darmowa sesja z ChatGPT będzie obsługiwana przez najnowszy model. Oczywiście, z raczej standardowymi już ograniczeniami prędkości (rate limits). Pełnię mocy, w tym ekskluzywny tryb „Extreme Thinking”, dostaną użytkownicy subskrypcji Plus, Team, Pro oraz deweloperzy przez API.

    Co Nowego Wnosi GPT-5.4? Nie Tylko Więcej Tokenów

    Kluczową liczbą jest tutaj 1 milion tokenów kontekstu. To podwojenie pojemności w porównaniu do GPT-5.2, który dysponował 400 tysiącami. Dla programisty czy osoby zarządzającej projektem oznacza to możliwość wrzucenia całego, średniej wielkości repozytorium kodu i prowadzenia z nim sensownej rozmowy. Model utrzymuje spójność i pamięta szczegóły na niespotykaną dotąd skalę.

    Jednak prawdziwą rewolucją jest nowy tryb pracy o dramatycznej nazwie „Extreme Thinking”. To nie jest po prostu „lepsze myślenie”. OpenAI wyjaśnia, że ten tryb fizycznie alokuje większe zasoby obliczeniowe modelu na rozwiązywanie pojedynczego, złożonego problemu. Wyobraź to sobie jako włączenie turbodoładowania dla zadania wymagającego głębokiego rozumowania, planowania wielu kroków lub analizy gigantycznej porcji danych.

    Na premierze tryb ten jest dostępny wyłącznie dla użytkowników subskrypcji Pro i Enterprise. OpenAI zapowiada jednak, że w najbliższym czasie trafi on też do abonentów Plus i Team. To wyraźny sygnał, gdzie firma widzi główną wartość nowego modelu: w profesjonalnym zastosowaniu.

    Rekordy Wydajności i Prawdziwa Agencja

    Suchy numer kontekstu czy marketingowa nazwa trybu to jedno. Liczą się benchmarki. A te są oszałamiające. GPT-5.4 ustanawia nowe rekordy w rozumowaniu naukowym, zadaniach wieloetapowych i wierności długiego kontekstu.

    Najbardziej wymowny jest wynik w benchmarku OSWorld-Verified. Chodzi o zadania, w których model musi nawigować po rzeczywistym systemie operacyjnym (np. Windows, macOS) wyłącznie na podstawie zrzutów ekranu – otwierać aplikacje, klikać, wpisywać tekst, jak prawdziwy użytkownik. GPT-5.4 osiągnął tu 75,0% skuteczności. Dla porównania, GPT-5.2 miał 47,3%, a ludzki baseline, czyli wyniki ludzi wykonujących te same zadania, to około 72,4%. To historyczny moment: model AI po raz pierwszy w oficjalnych testach przekroczył ludzkie możliwości w tak praktycznej, cyfrowej kompetencji.

    Co to oznacza dla Ciebie? Że era agentów AI, które nie tylko piszą kod, ale faktycznie go wykonują, testują, a nawet wdrażają w kontrolowanym środowisku, właśnie nadeszła. GPT-5.4 jest projektowany z myślą o budowaniu właśnie takich agentów do automatyzacji rozszerzonych workflow’ów na pulpicie.

    Dla Deweloperów: Narzędzie Do Vibe Coding i Nie Tylko

    Dla Deweloperów: Narzędzie Do Vibe Coding i Nie Tylko

    Jeśli jesteś web developerem lub zajmujesz się DevOps, te aktualizacje są dla ciebie szczególnie istotne. GPT-5.4 nie jest samotną wyspą. Jest zintegrowany z ekosystemem narzędzi, które już znasz.

    • Agenckie kodowanie: Model wspiera budowanie agentów do realnej nawigacji komputerowej. Może zaplanować złożone zadanie, podzielić je na kroki, a nawet wykonać je w kontrolowanym środowisku.
    • Integracje: OpenAI podkreśla płynną integrację z narzędziami, które już wspierają GPT-5, takimi jak Amp, GitHub Copilot czy Auggie CLI. Wsparcie dla GPT-5.4 w Auggie CLI ma być dostępne od premiery, ale bez darmowego dostępu.
    • API: Deweloperzy mogą od razu korzystać z nowego modelu przez API, używając nazw gpt-5.4 lub gpt-5.4-pro dla trybu „Extreme Thinking”.

    Co Dalej? Szybki Rollout i Koniec Starych Modeli

    OpenAI nie zwalnia tempa. Wypuszczenie GPT-5.4 zaledwie kilka tygodni po GPT-5.3 Instant to część nowej, agresywnej strategii. Firma zapowiada, że nowe modele główne będą pojawiać się co 6-8 tygodni. To oznacza, że cykl życia każdej wersji będzie krótki.

    W związku z tym, starsze modele GPT-5 (Instant i Thinking) zostaną wycofane z API i interfejsu ChatGPT w ciągu najbliższych dni. OpenAI standardowo daje kilkudniowy okres przejściowy, ale dostęp do nich zakończy się 19 lutego 2026 roku. To jasny sygnał, że nie ma już miejsca na sentymenty – albo korzystasz z najnowszych modeli, albo szybko zostaniesz w tyle.

    Jeśli więc czekałeś na moment, by AI nie tylko podpowiadała fragmenty kodu, ale faktycznie przejęła część Twojej pracy, to właśnie ten moment. GPT-5.4 nie jest obietnicą przyszłości. Jest narzędziem, które od dziś możesz włączyć do swojego workflow. Czas na automatyzację.

  • Codex 0.107.0: Rozwidlenie Wątków, Narzędzia Multimodalne i Lepsza Obsługa Audio

    Codex 0.107.0: Rozwidlenie Wątków, Narzędzia Multimodalne i Lepsza Obsługa Audio

    Najnowsza wersja OpenAI Codex, oznaczona numerem 0.107.0, to znacznie więcej niż tylko kolejna aktualizacja z poprawkami błędów. Wydanie z 2 marca 2026 roku wprowadza kluczowe funkcje, które redefiniują sposób interakcji z tym zaawansowanym narzędziem CLI. Chodzi o lepszą organizację pracy, bogatsze możliwości integracji oraz wygodniejsze korzystanie z funkcji głosowych. To solidny krok w stronę dojrzałego środowiska dla agentów AI.

    Dla developerów i zaawansowanych użytkowników oznacza to nowy poziom kontroli i elastyczności. Aktualizację można zainstalować standardową komendą: npm install -g @openai/[email protected].

    Rozwidlanie Wątków na Pod-Agentów: Praca Równoległa w Jednym Kontekście

    Jedną z najważniejszych nowości jest funkcja forkowania wątków na pod-agentów (#12499). W praktyce pozwala to na "rozgałęzienie" bieżącej konwersacji. Zamiast zaczynać zupełnie nowy wątek lub tracić kontekst głównej dyskusji, użytkownik może stworzyć równoległą ścieżkę dla pod-zadania.

    Wyobraź sobie, że pracujesz nad skryptem i potrzebujesz jednocześnie zbadać różne podejścia do optymalizacji, przetestować alternatywne biblioteki lub przygotować dokumentację. Zamiast mieszać wszystko w jednym, chaotycznym wątku, możesz go rozwidlić. Główna konwersacja pozostaje nienaruszona, a pod-agenci działają w izolacji, co znacząco usprawnia zarządzanie złożonymi projektami. To potężne udogodnienie dla wszystkich, którzy używają Codexa do eksploracji pomysłów lub rozwiązywania problemów metodą "co jeśli?".

    Narzędzia Własne Z Wysokiej Jakości Outputem: Nie Tylko Tekst

    Dotychczas custom tools w Codexie zwracały głównie odpowiedzi tekstowe. Wersja 0.107.0 łamie to ograniczenie, wprowadzając multimodalne outputy z narzędzi własnych (#12948). Od teraz narzędzia zdefiniowane przez użytkownika mogą zwracać strukturalne treści, w tym obrazy i inne bogate formaty mediów.

    To ogromna zmiana dla twórców zaawansowanych integracji. Narzędzie do analizy danych może teraz zwrócić nie tylko tabelę z liczbami, ale też wygenerowany wykres. Plugin do monitorowania systemu – wykresy obciążenia w formie graficznej. Poszerza to radykalnie zakres zastosowań Codexa, zbliżając go do roli uniwersalnego interfejsu, który potrafi prezentować złożone informacje w najbardziej czytelny sposób. Interfejs użytkownika (TUI) musi oczywiście obsługiwać renderowanie takich treści, co też zostało uwzględnione.

    Pełna Kontrola Nad Audio: Wybór Urządzeń i Lepsza Transkrypcja

    Dla użytkowników funkcji głosowych to przełomowa aktualizacja. Została dodana funkcja wyboru urządzeń audio w czasie rzeczywistym (#12849, #12850). Wcześniej Codex korzystał z domyślnych ustawień systemowych, co często prowadziło do frustracji – gdy np. mikrofon był wybrany nieprawidłowo. Teraz użytkownik może wprost z poziomu aplikacji wybrać mikrofon i głośniki, których chce używać.

    Co więcej, wybór ten jest zapamiętywany między sesjami. Nie trzeba tego konfigurować za każdym razem. Dodatkowo, poprawiono format przesyłanego audio, lepiej dostosowując go do procesu transkrypcji (#13030). Ma to bezpośredni wpływ na dokładność i szybkość zamiany mowy na tekst podczas rozmów głosowych z asystentem, czyniąc całe doświadczenie dużo płynniejszym i bardziej niezawodnym.

    Konfigurowalne Pamięci i Reset Stanu

    System pamięci Codexa, który przechowuje kontekst między sesjami, stał się teraz konfigurowalny (#12997, #12999). Użytkownicy zyskują większą kontrolę nad tym, jak i co jest zapamiętywane. To ważne zarówno dla dostosowania działania do własnych potrzeb, jak i ze względów prywatności.

    Bywa jednak, że pamięć może się "zepsuć" lub po prostu chcemy zacząć wszystko od nowa. Dlatego dodano nową, bardzo przydatną komendę: `codex debug clear-memories` (#13085). Pozwala ona na całkowite, twarde wyczyszczenie zapisanego stanu pamięci, co jest nieocenione przy debugowaniu problemów lub gdy po prostu potrzebujemy świeżego startu.

    Przejrzystsze Metadane Modeli i Poprawki Stabilności

    Wydanie przynosi też subtelne, ale istotne ulepszenia w warstwie informacyjnej. Aplikacja serwerowa udostępnia teraz bogatsze metadane o dostępności modeli (#12958), w tym informacje o aktualizacjach. Interfejs TUI wykorzystuje te dane, by wyświetlać dymki z informacjami o modelach dostępnych tylko w ramach wyższych planów subskrypcyjnych (#12972, #13021). To upraszcza zrozumienie, dlaczego niektóre modele mogą być niedostępne.

    Jeśli chodzi o stabilność, to 0.107.0 naprawia kilka kluczowych i irytujących problemów:

    • Przywracanie oczekujących żądań przy ponownym łączeniu z wątkiem za pomocą thread/resume (#12560). Klienci nie tracą synchronizacji.
    • thread/start nie blokuje już niezwiązanych żądań do serwera aplikacji (#13033). To likwiduje wrażenie "zawieszenia" podczas wolnych operacji startowych, jak autoryzacja MCP.
    • Koniec z podwójnym wypisywaniem finalnej odpowiedzi asystenta w interaktywnych sesjach terminalowych (#13082).
    • Naprawiono regresję z dużymi wklejonymi treściami, które były uszkadzane podczas uzupełniania ścieżek plików (#13070).
    • Lepsze renderowanie diffów w terminalach o małej palecie kolorów, jak Windows Terminal (#13016, #13037).

    Bezpieczeństwo i Dokumentacja

    W trosce o bezpieczeństwo zaostrzono zachowanie sandboxa. Na Linuxie poprawiono obsługę restrykcyjnego dostępu "tylko do odczytu", a na Windowsie sandbox nie ma już dostępu do wrażliwych katalogów jak `~/.ssh` (#12835). Dodatkowo, jeśli polecenie shellowe wymaga eskalacji uprawnień, to przy ponownym uruchomieniu zachowuje ono swoją konfigurację sandboxa (#12839), nie tracąc narzuconych restrykcji.

    W dokumentacji wyjaśniono również, że błędy instalacji zależności spowodowane brakiem dostępu do sieci w sandboxie powinny być klarownie traktowane jako kandydaci do eskalacji (#13051), co pomaga użytkownikom w prawidłowej reakcji.

    Podsumowanie

    Codex 0.107.0 to aktualizacja, która solidnie buduje fundamenty pod zaawansowane zastosowania. Nie są to tylko kosmetyczne poprawki, ale głębokie ulepszenia architektury. Rozwidlenie wątków wprowadza nowy paradygmat organizacji pracy z AI. Multimodalne narzędzia otwierają drzwi do znacznie bogatszych integracji. Wreszcie, kontrola nad audio i konfigurowalne pamięci usuwają długo odczuwane przez społeczność niedogodności.

    W połączeniu z licznymi poprawkami stabilności i bezpieczeństwa tworzy to obraz projektu, który dojrzewa, skupiając się nie tylko na dodawaniu nowych "błyskotek", ale też na wygładzaniu i wzmacnianiu istniejącej funkcjonalności. Dla każdego, kto na poważnie korzysta z Codexa do automatyzacji lub jako interfejs do modeli AI, aktualizacja do wersji 0.107.0 wydaje się być obowiązkowym krokiem.

  • Claude na szczycie: jak spór z Pentagonem wyniósł aplikację AI na pierwsze miejsce w USA

    Claude na szczycie: jak spór z Pentagonem wyniósł aplikację AI na pierwsze miejsce w USA

    W sobotę, 28 lutego 2026 roku, nastąpił nieoczekiwany zwrot w amerykańskiej aplikacyjnej lidze. Aplikacja Claude, sztucznej inteligencji od firmy Anthropic, wskoczyła na pierwsze miejsce w rankingu darmowych aplikacji w kategorii produktywności w Apple App Store w Stanach Zjednoczonych, osiągając drugie miejsce w ogólnym rankingu, tuż za ChatGPT od OpenAI. Ten nagły wzlot to nie tyle historia czystego marketingu, co politycznego i etycznego trzęsienia ziemi, które poruszyło miliony użytkowników.

    Decyzja, która wstrząsnęła rynkiem

    Wszystko zaczęło się od publicznego sporu między Anthropic a Pentagonem. Amerykański departament obrony zwrócił się do głównych graczy rynku AI o współpracę. Anthropic, założona przez byłych pracowników OpenAI, postawiła twarde warunki. Firma odmówiła udostępnienia swoich modeli pod masowy nadzór domowy (mass domestic surveillance) oraz pod budowę w pełni autonomicznej broni.

    To nie były puste slogany. To była konkretna, zasadnicza linia, której firma nie zamierzała przekroczyć. W odpowiedzi prezydent Donald Trump wydał polecenie agencjom federalnym, aby wycofały się z używania Claude’a. Pentagon dostał na to sześć miesięcy. Decyzja była wyraźna: kto nie jest z nami, jest przeciwko nam.

    Druga strona medalu: ChatGPT i kontrakt z Pentagonem

    Tu pojawia się kontrast, który wywołał prawdziwą burzę. OpenAI, macierzysta firma ChatGPT, podjęła współpracę z Pentagonem. Szef OpenAI, Sam Altman, ogłosił to porozumienie w piątek wieczorem na platformie X. Co ważne, podobno na podobnych, ograniczonych warunkach – z podobnymi zabezpieczeniami (similar safeguards) przed nadużyciem technologii.

    Dla wielu obserwatorów różnica w podejściu była jednak jasna. Jedna firma postawiła granice i została ukarana administracyjnym zakazem. Druga weszła w układ z władzą. Ta narracja natychmiast podchwycili użytkownicy, dla których kwestie etyki w rozwoju AI nie są abstrakcyjne.

    Reakcja użytkowników: głosowanie portfelami i postami

    Amerykańscy użytkownicy nie zostawili suchej nitki na tej sytuacji. Reakcja była szybka, emocjonalna i bardzo widoczna. Rozpoczęła się masowa migracja z ChatGPT do Claude’a. To nie były pojedyncze przypadki, lecz trend społeczny.

    Ludzie zaczęli publicznie ogłaszać swoją „zdradę”. Na platformie X (dawniej Twitter) użytkownik Adam Lyttle wrzucił po prostu zrzut ekranu z potwierdzeniem przejścia na płatny plan Claude’a. Pisał, że woli wspierać firmę, która ma „kręgosłup”. Prawdziwym echem odbił się jednak post Katy Perry. Gwiazda opublikowała zrzut ekranu z zakupem planu Pro za 20 dolarów miesięcznie, z krótkim, ale wymownym podpisem: „done” (koniec, załatwione).

    Na forach, takich jak Reddit, dyskusje wrzeły. Pojawiały się też głosy przypominające, że Anthropic miała wcześniejsze umowy, np. z Palantirem czy Amazon Web Services, które również dawały dostęp do technologii amerykańskiej obronności. Było to więc nieco bardziej skomplikowane, niż czarno-biały obraz bohatera i zdrajcy. Mimo to, główny nurt emocji był jednoznaczny: poparcie dla stanowiska Claude’a.

    Niebywały wzrost: od top 100 do czołówki rankingu

    Statystyki mówią same za siebie. Jeszcze pod koniec stycznia 2026 roku aplikacja Claude’a była poza pierwszą setką najpopularniejszych darmowych aplikacji w USA. W lutym, na fali narastającego skandalu, zaczęła się jej spektakularna kariera.

    Według danych SensorTower, przez większość lutego aplikacja utrzymywała się w pierwszej dwudziestce. W środę, 26 lutego, była już na 6. miejscu. Dzień później – na 4. A w sobotę, 28 lutego, sięgnęła po pierwsze miejsce w kategorii produktywności i drugie w ogólnym rankingu. To nie był skok, to była eksplozja.

    Wzrost liczby użytkowników był równie imponujący. Codzienne rejestracje biły rekordy każdego dnia tamtego tygodnia. Liczba pobrań aplikacji wzrosła o około 60% w ciągu pierwszych dwóch miesięcy 2026 roku. A liczba płacących subskrybentów znacząco zwiększyła się w ciągu zaledwie dwóch miesięcy 2026 roku. To pokazuje, że ludzie nie tylko ściągali aplikację, ale też byli gotowi za nią zapłacić, głosując portfelami za swoimi wartościami.

    CEO staje okoniem: zapowiedź walki w sądzie

    Prezes Anthropic, Dario Amodei, nie zamierzał się wycofywać. W reakcji na decyzję administracji Trumpa zapowiedział, że firma będzie się bronić. Jeśli Pentagon wyda formalny zakaz używania Claude’a, Anthropic zamierza zaskarżyć tę decyzję w sądzie.

    To postawa, która tylko wzmocniła wizerunek firmy jako tej, która nie ugnie się pod polityczną presją. Amodei, fizyk i były wiceprezes ds. badań w OpenAI, od początku stawiał na „bezpieczną i pomocną” AI. Jego stanowisko w tej sprawie wydawało się spójne z filozofią firmy.

    Szerszy kontekst: nie tylko USA i nie tylko OpenAI

    Choć historia Claude vs. ChatGPT w USA jest najbardziej widowiskowa, to warto pamiętać o szerszym obrazku. Po pierwsze, OpenAI i ChatGPT wciąż mają potężną pozycję. Mają przewagę pierwszego ruchu, ogromną bazę użytkowników i teraz – kontrakt z rządem. Ich dalsza dominacja nie jest zagrożona przez jeden incydent.

    Po drugie, rynek AI to już nie jest dwubój. Raport Axiosa z marca 2026 wskazywał, że w skali globalnej różne modele potrafią wyprzedzać OpenAI. W lutym 2026, na przykład, chińska firma MiniMax prowadziła w rankingu pobrań. To pokazuje, że rynek dojrzewa, dywersyfikuje się i geopolityka technologii odgrywa w nim coraz większą rolę.

    Czym jest Claude? Nie tylko etyczny buntownik

    Dla tych, którzy nie śledzą rynku AI, Claude może być postacią z tej jednej historii. Warto więc przypomnieć, że to zaawansowany asystent AI, podobny w funkcjach do ChatGPT czy Google Gemini. Czyta i analizuje dokumenty (PDF, Word), pisze kod, generuje treści i prowadzi konwersacje.

    Jego „filozofia”, promowana przez Anthropic, skupia się na byciu pomocnym, nieszkodliwym i uczciwym (helpful, harmless, honest). Firma mocno inwestuje w tzw. „alignment research”, czyli badania nad tym, aby cele systemów AI były zgodne z intencjami i wartościami ludzi. Ta deklaracja nabrała teraz bardzo konkretnego, politycznego znaczenia.

    Podsumowanie: co naprawdę oznacza ten sukces?

    Wskoczenie Claude’a na szczyt rankingu w kategorii produktywności w App Store to wydarzenie symboliczne. Pokazuje, że w erze dojrzałych technologii konsumenckich decyzje użytkowników mogą być motywowane nie tylko funkcjonalnością czy ceną, ale też wartościami. Etyka firmy, jej stosunek do władzy i jej transparentność przestały być tematami dla niszowych blogów. Stały się paliwem dla masowych trendów.

    To także ostrzeżenie dla wszystkich gigantów technologicznych. Społeczność użytkowników jest czujna. Sojusze biznesowe, zwłaszcza te z instytucjami państwowymi o kontrowersyjnych kompetencjach (jak nadzór), będą skrupulatnie analizowane. Wizerunek „dobrej” technologii może być dziś najcenniejszym kapitałem.

    Ostatecznie, krótkoterminowy sukces Claude’a nie przesądza o długoterminowej wojnie o AI. OpenAI ma zasoby, skalę i teraz wsparcie rządu. Ale ten incydent udowodnił coś ważnego. Udowodnił, że głos zwykłych użytkowników, wyrażony przez prosty akt pobrania aplikacji, może zmienić hierarchię w ciągu kilku dni. I że w świecie zdominowanym przez algorytmy, wciąż liczy się ludzki wybór – oparty czasem na czymś więcej, niż tylko na wygodzie.

  • Qwen 3.5: Jak chiński gigant przyspiesza wyścig sztucznej inteligencji

    Qwen 3.5: Jak chiński gigant przyspiesza wyścig sztucznej inteligencji

    Gdy w lutym 2026 roku świat technologiczny wciąż analizował niuanse najnowszych modeli od OpenAI czy Anthropic, z okazji Chińskiego Nowego Roku rozległ się wyraźny sygnał ze Wschodu. Alibaba Cloud wypuścił Qwena 3.5, najnowszą i najbardziej ambitną iterację swojej rodziny modeli językowych. To nie jest tylko kolejna aktualizacja, ale kompleksowy reset, który stawia Alibabę w samym sercu globalnego wyścigu o dominację w AI. Szczególnie, gdy flagowym modelem jest ogromny, open-weight Qwen3.5-397B, oferujący społeczności badawczej i deweloperom bezprecedensową moc pod maską.

    Wydanie to jasno pokazuje, że rywalizacja w AI toczy się już na wielu frontach jednocześnie: od czystej mocy obliczeniowej i wielkości modeli, przez ich wszechstronność i dostępność, aż po praktyczne, agentowe zastosowania. Qwen 3.5 stara się być konkurencyjny na każdym z nich.

    Natywna wielomodalność i prawdziwie globalny zasięg

    Jedną z najbardziej rzucających się w oczy zmian w Qwen 3.5 jest porzucenie zewnętrznych enkoderów wizyjnych na rzecz natywnej wielomodalności. Model został wytrenowany od podstaw na trylionach tokenów obejmujących tekst, obrazy i wideo w ujednoliconym frameworku. Oznacza to, że rozumie te różne modalności w sposób bardziej zintegrowany i naturalny, bez potrzeby klejenia osobnych komponentów.

    Co robi wrażenie, to skala obsługi wideo. Model potrafi przetwarzać nagrania trwające nawet dwie godziny, co otwiera drzwi do zaawansowanej analizy filmów, wykładów czy długich wideokonferencji. To już nie jest tylko zabawka do opisywania krótkich klipów.

    Jeśli jednak chodzi o prawdziwie globalny rozmach, to kluczowa jest obsługa języków. Zespół Alibaby poszerzył ją z 119 do imponujących 201 języków i dialektów. Ten skok możliwy był dzięki zastosowaniu ogromnego słownika o rozmiarze 250 tysięcy tokenów. W praktyce Qwen 3.5 staje się jednym z najbardziej wielojęzycznych modeli na rynku, co ma strategiczne znaczenie dla firmy, której celem jest dotarcie poza rodzimy rynek chiński.

    Moc pod maską: architektura i niesamowita wydajność

    Podstawą sukcesu Qwena 3.5 nie jest tylko rozmiar (choć 397 miliardów parametrów brzmi dostojnie), ale przede wszystkim efektywność. Alibaba zastosował hybrydową architekturę, wykorzystującą mechanizmy uwagi liniowej z rzadką (sparse) mieszanką ekspertów (Mixture-of-Experts). To pozwala modelowi dynamicznie aktywować tylko niezbędne części sieci neuronowej dla danego zadania, oszczędzając moc obliczeniową.

    Prawdziwą rewolucją jest jednak potok treningowy w precyzji FP8. Ta technika, używająca 8-bitowych liczb zmiennoprzecinkowych, radykalnie redukuje zużycie pamięci i przyspiesza obliczenia. Efekty są oszałamiające: w porównaniu z poprzednikami, Qwen 3.5 ma być znacznie szybszy. Co więcej, Alibaba twierdzi, że operacje są tańsze. W świecie, gdzie koszt inferencji to kluczowy czynnik komercjalizacji, takie oszczędności są bezcenne.

    Okna kontekstowe też nie pozostawiają wątpliwości co do ambicji modelu. W wersji open-weight wynoszą one 256 tysięcy tokenów, co i tak jest ogromną wartością. Jednak hostowany, komercyjny wariant Qwen3.5-Plus oferuje okno aż 1 miliona tokenów. To przestrzeń, w której zmieści się cała książka, duże repozytorium kodu lub wielogodzinna transkrypcja, dając modelowi niemal nieskończoną pamięć roboczą.

    Agent AI: od asystenta do autonomicznego wykonawcy

    Najciekawszym i najbardziej przyszłościowym aspektem Qwena 3.5 jest jego optymalizacja pod kątem agentów AI. To właśnie tutaj model ma przejść od biernego odpowiadania na pytania do aktywnego wykonywania zadań w realnym, cyfrowym środowisku.

    Alibaba wyposażyła go w cały zestaw funkcji agentowych. Adaptive Tool Use pozwala mu inteligentnie wybierać i używać zewnętrznych narzędzi czy API. Wykorzystuje uczenie przez wzmocnienie (RL) dla lepszej generalizacji na nowe, nieznane zadania. Zastosował też hybrydowe rozumowanie, łącząc szybkie, niskopóźnieniowe odpowiedzi z głębszym, wieloetapowym rozumowaniem (chain-of-thought).

    Wyniki są konkretne i mierzalne. W benchmarku OSWorld-Verified, który testuje zdolność agenta do działania w systemie operacyjnym (np. instalacja programów, konfiguracja), Qwen 3.5 osiągnął wysokie wyniki. W AndroidWorld, symulującym interakcje z interfejsem smartfona, rezultaty również są imponujące. Oznacza to, że model potrafi już w znacznym stopniu samodzielnie nawigować po graficznych interfejsach użytkownika, obsługiwać wideo, a nawet budować proste strony internetowe. Jest też kompatybilny z frameworkiem OpenClaw, co ułatwia integrację z ekosystemem.

    Rekordy benchmarków i porównanie z konkurencją

    Na papierze każde ogłoszenie nowego modelu brzmi świetnie. Prawdziwym testem są jednak niezależne benchmarki. Tutaj Qwen 3.5 też nie zawiódł, ustanawiając nowe rekordy i plasując się w absolutnej czołówce światowej.

    W wymagających testach sprawdzających rozumowanie na poziomie absolwenta studiów wyższych w dziedzinach takich jak biologia, chemia czy fizyka, Qwen 3.5 osiągnął bardzo wysokie wyniki. To stawia go wśród światowej czołówki, bezpośrednio za najnowszymi flagowcami od OpenAI i Anthropic.

    Jeszcze lepiej poszło mu w testach mierzących precyzję w wykonywaniu złożonych instrukcji. Tutaj z wysokimi wynikami przewyższył wiele innych porównywanych modeli, co świadczy o jego niezwykłej zdolności do dokładnego podążania za intencjami użytkownika. Alibaba nie boi się stwierdzić, że model jest "konkurencyjny względem najwyższej klasy modeli zamkniętoźródłowych".

    Ekosystem modeli i strategia dostępności

    Alibaba oferuje Qwena 3.5 w kilku wariantach, co świadczy o przemyślanej strategii. Flagowym modelem jest Qwen3.5-397B, dostępny jako open-weight na GitHubie i w Alibaba Cloud Model Studio. To dar dla społeczności badawczej i sygnał otwartości.

    Dla komercyjnych użytkowników i tych, którzy potrzebują maksymalnej mocy, jest hostowany Qwen3.5-Plus z rozszerzonymi narzędziami i ogromnym oknem kontekstu. Co ciekawe, równolegle Alibaba testuje też zupełnie inną bestię: Qwen3-Max-Preview. To model zamknięty, o bardzo dużym rozmiarze, dostępny wyłącznie przez API. Ważne, by nie mylić go z rodziną Qwen 3.5 – to osobny, eksperymentalny projekt pokazujący, gdzie zmierzają badania Alibaby.

    Premiera zwykłego Qwena 3.5 była ciekawie rozłożona w czasie. Najpierw model trafił do konsumenckiej aplikacji Alibaby, a godzinę później, o 10:00 GMT, pojawił się na platformie X (dawniej Twitter). Mimo tego technologicznego fajerwerku, reakcja rynku była chłodna. To pokazuje, jak kapryśny i nieprzewidywalny może być rynek wobec nawet największych innowacji technologicznych.

    Nowy etap w wyścigu AI

    Qwen 3.5 Alibaby to więcej niż tylko odświeżenie modelu. To kompleksowa odpowiedź na wszystkie główne trendy w dziedzinie sztucznej inteligencji roku 2026. Pokazuje dojrzałe połączenie ogromnej skali (397B parametrów) z wyrafinowaną inżynierią poprawiającą wydajność i redukującą koszty. Przenosi centrum ciężkości z pasywnego generowania tekstu na aktywne, agentowe działanie w świecie cyfrowym. Wreszcie, dzięki natywnej wielomodalności i rekordowej liczbie obsługiwanych języków, aspiruje do roli prawdziwie globalnej platformy AI.

    Wydanie to umacnia pozycję Alibaby nie jako naśladowcy, ale jako pełnoprawnego innowatora, który wyznacza własne ścieżki. Rywalizacja z najnowszymi modelami OpenAI czy Anthropic jest teraz bardziej realna niż kiedykolwiek. Dla developerów i firm na całym świecie, szczególnie poza Ameryką Północną, pojawienie się tak zaawansowanego modelu open-weight to szansa na budowanie własnych rozwiązań bez uzależnienia od zachodnich gigantów. Wyścig AI stał się nie tylko szybszy, ale i znacznie bardziej interesujący.