Autor: Franczeska

  • Codex v0.112.0 wprowadza wzmianki @plugin i zaostrza bezpieczeństwo sandboxów

    Codex v0.112.0 wprowadza wzmianki @plugin i zaostrza bezpieczeństwo sandboxów

    Najnowsza wersja terminalowego asystenta programistycznego od OpenAI, Codex 0.112.0, to solidna aktualizacja skupiająca się na dwóch kluczowych obszarach: wygodzie integracji pluginów i bezpieczeństwie wykonywania narzędzi. Wydanie, które trafiło do użytkowników w marcu 2026 roku, nie przynosi rewolucyjnych zmian w interfejsie, ale za to subtelnie, acz znacząco, usprawnia codzienną pracę z AI w terminalu.

    Głównymi nowościami tej odsłony są możliwość bezpośredniego przywoływania pluginów w czacie za pomocą symbolu @ oraz fundamentalne zmiany w polityce sandboxów, które mają zapobiegać nieautoryzowanym działaniom. To ewolucja wpisująca się w trend rozbudowy ekosystemu Codexa – lekkiego agenta, który zdobył już sporą popularność wśród deweloperów.

    Łatwiejsza integracja: wywołaj plugin w rozmowie za pomocą @

    Jedną z bardziej praktycznych nowości jest funkcja @plugin mentions. Do tej pory korzystanie z funkcjonalności pluginów mogło wymagać pamiętania o specyficznych komendach lub kontekstach. Teraz, w trakcie rozmowy z Codexem w terminalu (TUI), wystarczy wspomnieć o pluginie, używając @nazwa_plugina.

    Na przykład, pisząc „@git jaki jest status mojego repozytorium?”, użytkownik automatycznie załącza kontekst związany z danym pluginem, aplikacją lub umiejętnością (skill). To małe, ale niezwykle przydatne udogodnienie, które sprawia, że praca z wieloma rozszerzeniami staje się bardziej płynna i intuicyjna. Zmiana ta (oznaczona w changelogu jako #13510) bezpośrednio odpowiada na potrzeby użytkowników, którzy chcą szybko przełączać się między różnymi narzędziami bez przerywania flow pracy.

    Poza tym zaktualizowano też katalog modeli w interfejsie TUI. Teraz wybór modelu podczas rozpoczynania sesji lepiej odzwierciedla aktualną ofertę OpenAI.

    Bezpieczeństwo przede wszystkim: nowa polityka sandboxów dla zsh-fork

    Jeśli integracja pluginów to kwestia wygody, to druga główna zmiana dotyczy fundamentów bezpieczeństwa. W wersji 0.112.0 połączono profile uprawnień wykonywalnych z polityką sandboxa na każdą turę (per-turn sandbox policy). To techniczne, ale kluczowe usprawnienie dotyczące wykonywania umiejętności typu zsh-fork.

    W skrócie: kiedy Codex uruchamia narzędzie systemowe lub skrypt, robi to w izolowanym środowisku (sandboxie). Dotychczasowe, oddzielne profile uprawnień zostały teraz scalone z główną polityką sandboxa dla danej operacji. Daje to bardziej spójny, addytywny (czyli kumulujący uprawnienia tylko w razie potrzeby) i przede wszystkim bezpieczniejszy model przyznawania dostępu. Sandbox stał się surowszy i bardziej przewidywalny, co minimalizuje ryzyko nieautoryzowanych działań podczas automatycznego wykonywania poleceń.

    Ta zmiana (o numerze #13496) pokazuje, że twórcy Codexa traktują bezpieczeństwo poważnie, szczególnie w kontekście agenta, który ma bezpośredni dostęp do systemu i może wykonywać polecenia. Jest to niezwykle istotne dla deweloperów i zespołów DevOps, którzy powierzają Codexowi automatyzację wrażliwych części workflow.

    Stabilność i izolacja: poprawki pod maską

    Oprócz dwóch flagowych funkcji, wydanie 0.112.0 naprawia szereg błędów i wzmacnia system. To właśnie te poprawki często decydują o tym, czy narzędzie jest po prostu dobre, czy też można na nim polegać w codziennej pracy.

    • Naprawiono obsługę stanu JS REPL*. REPL (Read-Eval-Print Loop) to interaktywne środowisko do uruchamiania kodu JavaScript, a problemy z zarządzaniem jego stanem mogły prowadzić do niespójnych wyników lub błędów. Teraz funkcja ta działa poprawniej.

    Kluczową poprawką jest też bezpieczne zamykanie serwera (graceful shutdown). Gdy aplikacja serwerowa Codexa otrzymuje sygnał SIGTERM (standardowy sygnał zamknięcia), traktuje go jak naciśnięcie Ctrl-C. Dzięki temu połączenia WebSocket zamykają się w uporządkowany sposób, a nie są gwałtownie przerywane. Pozwala to uniknąć potencjalnego uszkodzenia danych i zapewnia stabilność.

    Wzmocniono także bezpieczeństwo przesyłania obrazów w JS REPL. Funkcja emitImage została „utwardzona” i teraz akceptuje wyłącznie adresy URL zaczynające się od data:. Blokuje to możliwość przesyłania obrazów z zewnętrznych, potencjalnie niebezpiecznych źródeł, zamykając kolejną ewentualną lukę.

    Usprawnienia dla różnych systemów operacyjnych

    Usprawnienia dla różnych systemów operacyjnych

    Codex rozwija się jako narzędzie wieloplatformowe, stąd poprawki dotyczące specyfiki różnych systemów.

    W przypadku Linuxa usprawniono izolację za pomocą bubblewrap (narzędzia do tworzenia sandboxów). Poprawka (#13624) zapewnia, że przestrzenie nazw użytkownika (user namespaces) nie są współdzielone, co gwarantuje silniejszą izolację. Działa to niezawodnie nawet w sytuacjach, gdy Codex jest uruchamiany z uprawnieniami roota, co jest ważne w zaawansowanych scenariuszach DevOps.

    Dla użytkowników macOS naprawiono konfigurację sieci w sandboxie opartym na mechanizmie Seatbelt od Apple. Z kolei w wersji na Linuxa poprawiono ogólne ustawienia sieciowe sandboxa, aby działały bardziej przewidywalnie.

    Jak to wpisuje się w szerszy obraz Codexa?

    Wydanie 0.112.0 to kolejny krok po znaczących aktualizacjach z ostatnich miesięcy.

    Wersja 0.111.0 włączyła domyślnie tryb Fast (szybsze, ale mniej szczegółowe odpowiedzi), dodała dynamiczne importy w JS REPL i rozszerzyła możliwości pracy z obrazami. Z kolei 0.110.0 była dużą zmianą, wprowadzającą cały system pluginów z umiejętnościami i konektorami, trwały przełącznik trybu Fast, ulepszone „wspomnienia” (memories) oraz liczne poprawki stabilności.

    Codex ewoluuje z prostego, tekstowego bota do kodowania w pełnoprawny ekosystem. Kolejne wersje, jak 0.113.0, rozbudowują go dalej o zaawansowane przepływy pracy z pluginami.

    • Podsumowując*, Codex v0.112.0 to aktualizacja stawiająca na praktyczność i bezpieczeństwo. Wprowadzenie wzmianek @plugin upraszcza interakcję z rosnącą biblioteką rozszerzeń, czyniąc terminalowego asystenta bardziej elastycznym. Jednocześnie głębokie przebudowanie polityki sandboxów dla zsh-fork oraz liczne poprawki stabilności świadczą o dojrzałości projektu.

    Choć zmiany te nie rzucają się w oczy od razu, to właśnie takie udoskonalenia – poprawiające codzienną ergonomię i budujące zaufanie do bezpieczeństwa wykonywanych poleceń – są często najcenniejsze. Dla deweloperów, szczególnie tych zajmujących się web developmentem, AI i automatyzacją DevOps, Codex 0.112.0 oferuje płynniejsze i znacznie pewniejsze środowisko do „vibe codingu” bez wychodzenia z terminala.

  • Claude Code 2.1.71: Nowa Komenda Loop, Lepsze Bash I Naprawy Startu

    Claude Code 2.1.71: Nowa Komenda Loop, Lepsze Bash I Naprawy Startu

    Najnowsza aktualizacja Claude Code, oznaczona numerem 2.1, przynosi zestaw funkcji, które mogą zmienić sposób, w jaki korzystasz z asystenta AI w terminalu. Wydanie skupia się na trzech głównych obszarach: automatyzacji powtarzalnych zadań, poprawie płynności pracy z powłoką Bash oraz wyeliminowaniu błędów blokujących rozpoczęcie pracy. To solidne usprawnienie, które przynosi realne korzyści deweloperom.

    /loop – terminal zyskuje własny harmonogram zadań

    Najciekawszą nowością jest komenda /loop. Jej koncepcja jest prosta, ale potencjał ogromny – pozwala ona na cykliczne wykonywanie dowolnego polecenia lub promptu w regularnych odstępach czasu.

    Zamiast ręcznie uruchamiać te same sprawdzenia, możesz teraz ustawić je w tle. Przykład? loop 5m check the deploy będzie monitorować status wdrożenia co pięć minut. Składnia jest intuicyjna: podajesz przedział czasowy (s – sekundy, m – minuty, h – godziny, d – dni) oraz akcję do wykonania. Dla interwałów krótszych niż minuta system zaokrągla je w górę do pełnej minuty, co stanowi sensowne zabezpieczenie.

    Co ważne, system ma wbudowane zabezpieczenie przed „zapomnianymi” pętlami. Każde takie cykliczne zadanie wygasa automatycznie po trzech dniach. To eleganckie rozwiązanie problemu potencjalnego marnowania zasobów. /loop przekształca Claude Code z narzędzia do pojedynczych interakcji w aktywnego asystenta działającego w tle.

    Rozszerzone wsparcie Bash i mniej potwierdzeń

    Drugim filarem tej aktualizacji jest znacząca poprawa doświadczeń z powłoką Bash. Zespół rozszerzył tzw. „auto-approval allowlist”, czyli listę poleceń, dla których Claude Code nie wymaga od użytkownika ręcznego potwierdzenia przed wykonaniem.

    Na listę bezpiecznych, automatycznie akceptowanych komend trafiły między innymi:
    ** lsof – list open files** pgrep – process grep
    ** tput – terminal capabilities** ss – socket statistics

    • fd oraz fdfind – narzędzia do wyszukiwania plików.

    To głównie polecenia diagnostyczne lub odczytujące stan systemu, więc ich automatyczne wykonanie nie stanowi ryzyka. Efekt? Mniej przerw w pracy i rzadsze pojawianie się próśb o potwierdzenie. Praca w terminalu staje się płynniejsza.

    Dodano też nowy, natywny moduł parsujący Bash. Choć brzmi to technicznie, przekłada się na konkretne korzyści: szybszą inicjalizację sesji oraz – co kluczowe – brak wycieków pamięci. Poprawki w parserze Tree-sitter dodatkowo eliminują fałszywe alarmy, które powodowały niepotrzebne prośby o potwierdzenie przy użyciu konstrukcji takich jak find -exec czy przypisania do zmiennych.

    Koniec z zawieszaniem się przy starcie

    Trzecia, może mniej widowiskowa, ale niezwykle istotna część aktualizacji to stabilizacja. Wersja 2.1 naprawia kilka krytycznych błędów, które potrafiły zablokować uruchomienie programu lub sparaliżować pracę.

    Najważniejsze poprawki dotyczące startu i stabilności to:

    • Naprawa blokad przy inicjalizacji trybu głosowego – usunięto problemy, które uniemożliwiały niektórym użytkownikom korzystanie z funkcji głosowych.
    • Poprawki odświeżania tokenów OAuth – szczególnie dla łączników claude.ai, gdzie proces mógł zawiesić aplikację.
    • Rozwiązanie problemu z zawieszaniem się przy wielu zmianach w skillach – na przykład podczas wykonywania git pull w dużym katalogu .claude/skills/.
    • Optymalizacja ładowania procesora obrazów – przeniesienie tego na późniejszy etap startu, aby przyspieszyć uruchamianie.
    • Lepsze zarządzanie połączeniami – bridge rekonstruuje połączenie w kilka sekund po wybudzeniu komputera ze snu, zamiast czekać nawet 10 minut.

    Te zmiany sprawiają, że aplikacja startuje szybciej, jest bardziej responsywna i mniej podatna na nieoczekiwane zawieszenia.

    Masa drobnych usprawnień i poprawek

    Poza głównymi nowościami, wydanie 2.1 zawiera dziesiątki innych udoskonaleń. Według podsumowań to od 8 do 14 nowych funkcji oraz od 30 do 35 poprawek błędów.

    Warto zwrócić uwagę na kilka z nich:

    • /plan z argumentami – teraz możesz od razu przejść do trybu planowania z konkretnym zadaniem, wpisując np. /plan fix the bug.
    • Przeprojektowany /config – interfejs konfiguracji został odświeżony w celu poprawy użyteczności.
    • Nowa umiejętność /claude-api – dedykowane narzędzie do budowania aplikacji korzystających z API Claude.
    • Caching promptów – przywrócono poprawną pracę cache’owania w SDK, co w niektórych konwersacjach może zmniejszyć koszt tokenów wejściowych nawet 12-krotnie.
    • Poprawki w VS Code – lepsza responsywność przewijania, działający Shift+Enter, poprawiony wskaźnik „wysiłku” AI.
    • Lepsze zarządzanie sesjami i pluginami – naprawiono błędy z instalacją pluginów, dziedziczeniem ustawień w zespołach oraz błędy przy znakach Unicode.

    Drobna, ale znacząca zmiana: skrócono też interwał komendy /poll z 5 sekund do około 10 minut, redukując zbędny ruch sieciowy.

    Dlaczego ta aktualizacja ma znaczenie?

    Claude Code 2.1 może nie jest przełomem, ale stanowi doskonały przykład dojrzałego rozwoju oprogramowania. Zamiast wprowadzać niesprawdzone funkcje, zespół skupił się na dopracowaniu istniejących rozwiązań i dodaniu narzędzi wynikających z realnych potrzeb użytkowników.

    Komenda /loop bezpośrednio odpowiada na potrzebę automatyzacji i ciągłego monitorowania. Rozszerzenie listy autoakceptowanych komend Bash to reakcja na feedback o zbyt częstym przerywaniu flow pracy. A poprawki stabilności sprawiają, że narzędzie jest po prostu bardziej niezawodne.

    Wszystko to przekłada się na lepsze środowisko dla deweloperów zajmujących się web developmentem, AI, vibe codingiem, hostingiem czy DevOps. Szybszy, stabilniejszy terminal z AI, który potrafi samodzielnie powtarzać zadania i rzadziej zawraca głowę drobiazgami – to właśnie oferuje ta wersja. Aktualizacja pokazuje też szybkie tempo rozwoju Claude Code, gdzie znaczące wydania pojawiają się co kilka dni.

  • Antigravity 1.20.4: Ulepszenia Agentów i Stabilności Platformy AI dla Deweloperów

    Antigravity 1.20.4: Ulepszenia Agentów i Stabilności Platformy AI dla Deweloperów

    Najnowsza aktualizacja Antigravity, oznaczona numerem wersji 1.20.4, przynosi istotne ulepszenia w kluczowych obszarach działania tej agentowej platformy programistycznej napędzanej przez AI. Google kontynuuje rozwijanie swojego wizjonerskiego środowiska IDE, skupiając się na poprawie funkcjonalności autonomicznych agentów, wydajności i ogólnej stabilności interfejsu. To kolejny krok w ewolucji narzędzia, które ma zmienić sposób, w jaki deweloperzy podchodzą do tworzenia kodu.

    Choć szczegółowe, oficjalne informacje o zmianach w wersji 1.20.4 są ograniczone, analiza dostępnych źródeł oraz zgłoszeń użytkowników pozwala zrekonstruować główne kierunki rozwoju. Wersja ta pojawia się po 1.20.3, która – według danych z releasebot.io – zawierała trzy ulepszenia, trzy poprawki i jedną łatę, głównie dotyczące stabilności i interfejsu. Wersja 1.20.4 kontynuuje ten trend, ale wprowadza też konkretne, nowe funkcje.

    Rozszerzona Elastyczność Agentów: Wczytywaniu Reguł Agentów

    Jedną z kluczowych zmian, która wywołała dyskusje wśród użytkowników, jest rozszerzenie mechanizmu wczytywania reguł i przepływów pracy dla agentów. Wcześniejsze wersje Antigravity szukały konfiguracji w ścieżce .agent w katalogu projektu. W wersji 1.20.4 platforma rozszerzyła swoją obsługę.

    Agenci mogą teraz czytać reguły nie tylko z pliku GEMINI.md, ale również z AGENTS.md. To logiczne poszerzenie architektury zorientowanej na agenty, która od początku opiera się na modelach Gemini. Zmiana ta daje zespołom większą swobodę w organizowaniu i separowaniu instrukcji specyficznych dla modelu od ogólnych zasad działania agentów, co może poprawić przejrzystość i zarządzanie konfiguracją w większych projektach.

    Warto jednak zauważyć, że zmiana ta początkowo wprowadziła zamieszanie. Niektórzy użytkownicy zgłaszali na forach, że po aktualizacji do 1.20.4 ich dotychczasowe reguły umieszczone w .agent stały się „niewidzialne” dla interfejsu agenta. Sugeruje to, że mogło dojść do zmiany w priorytecie skanowanych ścieżek lub logiki łączenia konfiguracji, co nie zostało w pełni udokumentowane. Problem ten mógł zmusić część osób do szukania rozwiązań w starszych wersjach. Jest to przykład typowych „bólów wzrostowych” dynamicznie rozwijanej platformy.

    Optymalizacja Wydajności i Stabilności

    Drugim filarem tej aktualizacji jest poprawa wydajności i wyeliminowanie uciążliwych błędów. Deweloperzy pracujący nad długimi, złożonymi konwersacjami z agentami powinni odczuć różnicę – czas wczytywania takich rozmów został zoptymalizowany. To kontynuacja prac nad poprawą płynności pracy z rozbudowanymi historiami dyskusji.

    Szybsze ładowanie historii jest kluczowe dla płynności pracy, zwłaszcza gdy agent staje się pełnoprawnym uczestnikiem projektu, a jego dyskusje z programistą rozrastają się do setek lub tysięcy wiadomości. Każda sekunda oszczędzona tutaj przekłada się na lepsze doświadczenie użytkownika i mniejsze poczucie frustracji.

    W pakiecie poprawek znalazły się również konkretne łatki dla interfejsu. Naprawiono problemy z kontrastem kolorów w terminalu Menedżera Agentów, co poprawia czytelność. Usprawniono także mechanizmy rozliczania tokenów, które są podstawową jednostką zużycia w modelach AI. Precyzyjne liczenie tokenów jest niezbędne zarówno dla użytkowników monitorujących koszty, jak i dla samej platformy do efektywnego zarządzania limitami i kontekstem.

    Ciekawą zmianą jest deprecjacja, czyli oznaczenie jako przestarzałego, osobnego ustawienia „Auto-continue”. Funkcja ta jest teraz domyślnie włączona. „Auto-continue” pozwala agentom na płynniejsze kontynuowanie zadań bez konieczności potwierdzania każdego kroku przez użytkownika. Uczynienie tego zachowania domyślnym wyraźnie wskazuje na kierunek platformy: ku większej autonomii i płynniejszej współpracy między człowiekiem a AI. Deweloperzy, którzy wolą mieć pełną, manualną kontrolę nad każdą akcją, nadal mogą skorzystać z trybu bezpiecznego (Secure Mode), który wymaga ludzkiej recenzji przed wykonaniem potencjalnie ryzykownych akcji.

    Nowe Wyzwania z Interfejsem Użytkownika

    Nie każda zmiana w 1.20.4 okazała się w pełni pozytywna z punktu widzenia użytkownika. Aktualizacja wprowadziła niezamierzony, ale dość dokuczliwy błąd w interfejsie. Wielu użytkowników zgłasza na forach Google AI, że po aktualizacji pojawiły się problemy ze stabilnością interfejsu użytkownika, takie jak czarny ekran edytora czy inne niespodziewane zachowania.

    Ten incydent pokazuje wyzwania związane z testowaniem złożonych, lokalnych aplikacji na wielu platformach (Windows, macOS, Linux) przed ich wydaniem. Nawet pozornie małe zmiany mogą prowadzić do nieoczekiwanych interakcji, które psują doświadczenie. Można się spodziewać, że tego typu problemy zostały lub zostaną szybko załatane w kolejnej aktualizacji.

    Kontekst Rozwoju Antigravity

    Kontekst Rozwoju Antigravity

    Aby zrozumieć znaczenie wersji 1.20.4, warto spojrzeć na nią w szerszej perspektywie rozwoju platformy. Antigravity oficjalnie wystartowało jako „w pełni wyposażone, napędzane AI IDE” i „wizja tego, jak wygląda rozwój w paradygmacie zorientowanym na agentów”.

    Od tego czasu każda większa aktualizacja wnosiła kolejny element do tej układanki. Wśród wcześniejszych wprowadzeń znalazło się wsparcie dla modelu Gemini 3 Flash oraz krytyczny tryb bezpieczny. Platforma regularnie otrzymywała aktualizacje skupiające się na stabilności, nowych ekranach ustawień i integracji z terminalem.

    Wersja 1.20.4 wpisuje się w ten ciągły strumień ulepszeń, skupiając się na dopracowaniu podstaw: stabilności, wydajności i ergonomii konfiguracji agentów. Nie jest to może przełomowy numer, ale właśnie takie aktualizacje budują dojrzałość i niezawodność platformy, co jest niezbędne do jej adopcji w profesjonalnych środowiskach.

    Platforma ewoluuje w stronę kompleksowego środowiska do vibe coding i AI/dev ops, gdzie agenci przejmują całe przepływy pracy: od planowania przez implementację, testy, aż po weryfikację. Generują przy tym nie tylko kod, ale też artefakty jak plany projektu, logi, zrzuty ekranu, a nawet nagrania z przeglądarki. Wersja 1.20.4, usprawniając zarządzanie ich regułami i przyspieszając pracę z długimi konwersacjami, bezpośrednio wspiera ten główny cel.

    Podsumowanie i Kierunki na Przyszłość

    Aktualizacja Antigravity 1.20.4 to typowy „solidny” release. Nie rzuca na kolana nowymi, rewolucyjnymi funkcjami, ale metodycznie poprawia to, co już istnieje. Rozszerzenie obsługi plików konfiguracyjnych agentów, optymalizacja ładowania konwersacji, poprawki kontrastu i liczenia tokenów – wszystkie te zmiany służą jednemu: sprawić, by codzienna praca z AI-agenci w IDE była szybsza, bardziej przewidywalna i mniej frustrująca.

    Nawet pojawienie się błędów w interfejsie jest pouczające. Pokazuje, jak ważne jest rygorystyczne testowanie w tak złożonej aplikacji i jak szybko społeczność użytkowników może zidentyfikować i zgłosić problem. Taka informacja zwrotna jest bezcenna dla zespołów programistów.

    Trend jest jasny: Antigravity podwaja stawkę na swojej podstawowej wartości – autonomicznych agentach programistycznych. Deprecjacja ustawienia „Auto-continue” na rzecz domyślnej aktywacji to wyraźny sygnał. Platforma zachęca do większego zaufania AI w rutynowych zadaniach, jednocześnie oferując mechanizmy bezpieczeństwa dla krytycznych operacji. Kolejne aktualizacje, w tym już wydana wersja 1.20.5, będą prawdopodobnie kontynuować oczyszczanie frontu z błędów i dopracowywanie doświadczenia, przygotowując grunt pod kolejne, większe funkcje agentowego programowania.

  • Gemini CLI v0.34.0 Nighlty: Lepsze Zarządzanie, Bezpieczeństwo i Dostępność

    Gemini CLI v0.34.0 Nighlty: Lepsze Zarządzanie, Bezpieczeństwo i Dostępność

    Wydanie v0.34.0-nightly.20260307.6c3a90645 dla Gemini CLI przynosi solidną porcję ulepszeń, które przybliżają narzędzie do stabilnej wersji. Ten nightly build koncentruje się na poprawie podstawowych komponentów: interfejsu użytkownika, bezpieczeństwa danych i niezawodności działania agentów AI w środowiskach deweloperskich. Wprowadzone zmiany, choć techniczne w swojej naturze, mają realny wpływ na codzienną pracę z terminalem wspieranym przez sztuczną inteligencję, czy to przy vibe coding, automatyzacji DevOps, czy zarządzaniu złożonymi projektami.

    Flaga --all dla Czystego Odinstalowania Rozszerzeń

    Jedną z bardziej praktycznych nowości jest dodanie flagi --all do polecenia odinstalowywania rozszerzeń. Dotychczas usuwanie wielu wtyczek mogło być uciążliwe. Teraz deweloper może użyć tej flagi, aby usprawnić zarządzanie środowiskiem. To drobne, ale ważne ułatwienie dla osób, które często eksperymentują z różnymi dodatkami, testując ich przydatność w swoim workflow.

    Dynamiczne Podpowiedzi Skrótów Klawiaturowych i Unifikacja KeychainService

    Interfejs użytkownika stał się bardziej intuicyjny dzięki wprowadzeniu dynamicznego generowania podpowiedzi do skrótów klawiaturowych. System nie polega już na sztywno zakodowanych ciągach znaków, tylko generuje je w locie, co zwiększa elastyczność i potencjał dla przyszłych personalizacji. To zmiana odczuwalna głównie dla zaawansowanych użytkowników, którzy polegają na klawiaturze.

    Znacznie poważniejszą modernizacją jest wprowadzenie zunifikowanego KeychainService. Ten nowy, scentralizowany serwis przejmuje obowiązek bezpiecznego przechowywania tokenów uwierzytelniających, migrując istniejące konfiguracje. W praktyce oznacza to lepszą ochronę wrażliwych danych dostępowych, co jest kluczowe przy integracji z zewnętrznymi API i usługami chmurowymi. To krok w stronę profesjonalnego zarządzania sekretami w aplikacji CLI.

    Wydajność i Niezawodność: CacheService i Obsługa Błędów

    Wydajność i Niezawodność: CacheService i Obsługa Błędów

    Pod maską zaszło sporo optymalizacji. Nowy, generyczny CacheService został wdrożony, aby usprawnić proces setupUser, zmniejszając potencjalne opóźnienia przy inicjalizacji. Dla użytkownika może to przełożyć się na nieco szybsze uruchamianie sesji.

    Zespół rozwijał też mechanizmy obsługi błędów. Naprawiono problem, który mógł powodować crash'e w wyniku nieobsłużonego AbortError podczas procesu processTurn. Dodano również logikę i dokumentację dotyczącą bezpieczeństwa współbieżności przy delegowaniu zadań do subagentów. To ważna wskazówka dla deweloperów tworzących złożone automatyzacje, gdzie wiele agentów AI może działać równolegle – teraz mają oficjalne wytyczne, jak unikać wyścigów i konfliktów zasobów.

    Poprawki Błędów, Które Wpływają na Doświadczenie

    Lista poprawek w tym wydaniu jest długa i dotyka różnych aspektów działania CLI:

    • Dedyplikacja plików GEMINI.md: Na systemach plików niewrażliwych na wielkość liter (jak w domyślnej konfiguracji macOS) wprowadzono sprawdzanie device/inode, by uniknąć duplikatów.
    • Płynne działanie flagi --resume: Polecenie teraz elegancko obsługuje sytuację, gdy nie ma istniejących sesji do wznowienia.
    • Kompresja czatu: Naprawiono błąd, dzięki czemu zatwierdzone plany nie są tracone podczas kompresji historii rozmów.
    • Propagacja stopHookActive: Poprawiono ścieżki ponawiania dla AfterAgent, zapewniając spójne zachowanie haków zatrzymania.

    Te poprawki mogą wydawać się niszowe, ale w skumulowanym efekcie znacząco podnoszą stabilność i przewidywalność narzędzia podczas długich, złożonych sesji z agentem AI.

    Zaangażowanie na Rzecz Dostępności i Drobne Usprawnienia Dokumentacji

    Zaangażowanie na Rzecz Dostępności i Drobne Usprawnienia Dokumentacji

    Google pokazuje, że dostępność jest priorytetem nawet w narzędziach deweloperskich. W tym wydaniu dodano obsługę czytników ekranu dla RewindViewer. To ważny krok w kierunku inkluzywności, umożliwiający programistom z dysfunkcjami wzroku pełniejsze korzystanie z funkcji przeglądania historii.

    Dokumentacja także dostała swoje poprawki. Sformatowano czasy wydań w dokumentacji do postaci HH:MM UTC dla jasności, naprawiono błędne linki względne do referencji poleceń oraz doprecyzowano widoczność wyjścia poleceń ! w samouczkach shellowych. Drobna, ale cenna zmiana to też zapewnienie dokumentacji dla ripgrep w kontekście narzędzi wyszukiwania.

    Kontekst dla Świata Web Devu i AI

    To wydanie nie wprowadza rewolucyjnych, nowych funkcji dla end-usera. Zamiast tego koncentruje się na konsolidacji i utwardzaniu fundamentów. Ulepszenia w zarządzaniu rozszerzeniami, bezpieczeństwie tokenów (KeychainService) i cachingu (CacheService) są kluczowe dla profesjonalnych workflow w hostingowaniu i automatyzacji DevOps, gdzie stabilność i bezpieczeństwo są priorytetem.

    Dodanie wskazówek dot. bezpieczeństwa współbieżności dla subagentów bezpośrednio odpowiada na potrzeby zaawansowanych użytkowników, którzy budują wielowątkowe automatyzacje z wykorzystaniem AI. To sygnał, że Gemini CLI dojrzewa jako platforma dla skomplikowanych, produkcyjnych zadań, a nie tylko interaktywny chatbot.

    Podsumowanie

    Wydanie v0.34.0-nightly.20260307.6c3a90645 Gemini CLI to klasyczna, solidna iteracja rozwojowa. Nie szuka tanich efektów, tylko metodnicznie poprawia to, co już działa, jednocześnie kładąc podwaliny pod przyszłe funkcje. Mocne strony tej wersji to wyraźne ulepszenia w trzech obszarach: ergonomii (flaga --all, dynamiczne podpowiedzi), bezpieczeństwa i stabilności (unified KeychainService, poprawki błędów AbortError, cache) oraz dostępności (czytnik ekranu). Dla użytkowników nocnych buildów oznacza to po prostu bardziej niezawodne i przyjemniejsze narzędzie do codziennej pracy. Wszystko wskazuje na to, że zespół intensywnie pracuje nad przygotowaniem stabilnego wydania 0.34.0, a ta kompilacja jest jego ważnym kamieniem milowym.

  • Crawlowanie Całych Stron Internetowych za Pomocą Jednego Wywołania API i Renderowania Przeglądarki

    Crawlowanie Całych Stron Internetowych za Pomocą Jednego Wywołania API i Renderowania Przeglądarki

    Zadanie

    Praktyczne Aspekty: Ceny, Limity i Wydajność

    Wszystkie te usługi są płatne, choć wiele oferuje darmowe warstwy z ograniczeniami. Cloudflare w swojej betapromocji daje max 7 dni na joba i Cloudflare wyraźnie zaznacza, że dane z ukończonego zadania są przechowywane tylko przez 14 dni. To ważne, bo jeśli nie pobierzesz wyników w tym czasie, stracisz je. Warto więc od razu ustawić webhook czy zapisać wyniki do S3.

    Wydajności jest kluczowym pytaniem. Cloudflare podaje, że ich endpoint /crawl może zwracać dane jako surowy HTML, czysty Markdown (idealny do bezpośredniego wrzucenia do modeli językowych) lub strukturyzowany JSON. Ten ostatni jest często wspomagany przez AI, która potrafi wyciągnąć konkretne pola z naturalnej treści strony. Statystyki pokazują, że renderowanie za pomocą Playwrighta zajmuje średnio około 4.5 sekundy na stronę, Selenium – nieco więcej. To ważne, bo jeśli nie pobierzesz wyników w tym czasie, stracisz je. Warto więc od razu ustawić webhook czy zapisać wyniki do S3.

    Podsumowanie: Czy To Koniec Era DIY Crawlerów?

    Czy to oznacza, że era pisania własnych crawlerów w Node.js z Puppeteer dobiegła końca? Niezupełnie. Dla prostych, jednorazowych zadań, własny skrypt nadal może być najszybszy i najtańszy. Ale dla produkcji, gdzie liczy się niezawodność, skalowalność i łatwość integracji z AI, te nowe API są nie do przecenienia. Oferują one nie tylko infrastrukturę, ale także nowy paradygmat interakcji z siecią: od precyzyjnego, niskopoziomowego kodowania do deklaratywnego, wysokopoziomowego "mówienia, co chcesz".

    Wybór między nimi zależy od potrzeb. Cloudflare /crawl jest atrakcyjny dla tych, którzy już są w ekosystemie Cloudflare i cenią sobie prostotę. Firecrawl i Scrapfly dają więcej kontroli nad procesem renderowania. Crawlee to złoty środek dla developerów, którzy chcą mieć pełną kontrolę, ale bez budowania wszystkiego od zera. A jeśli chcesz po prostu porozmawiać z internetem jak z asystentem, to Stagehand AI i podobne narzędzia otwierają drzwi do zupełnie nowych możliwości.

    Cloudflare Browser Rendering API docs
    Firecrawl documentation
    Scrapfly blog and docs
    WebCrawlerAPI and Piloterr info
    Render and Stagehand AI announcements

  • Jak Boris Cherny Programuje z Claudem: Od 30 Pull Requestów Dziennie po Inżynierię Kontekstu

    Jak Boris Cherny Programuje z Claudem: Od 30 Pull Requestów Dziennie po Inżynierię Kontekstu

    Boris Cherny, Staff Engineer i szef zespołu Claude Code w Anthropic, od listopada 2025 roku nie napisał ręcznie ani jednej linii kodu produkcyjnego. Całą swoją pracę programistyczną powierza Claude Code — narzędziu, którego sam pomagał tworzyć. Jego codzienne statystyki brzmią jak science fiction: 10 do 30 scalonych pull requestów (PR) dziennie, przy jednoczesnym uruchomieniu wielu agentów AI. Jak wygląda dzień pracy, w którym człowiek nie pisze kodu, a jedynie go nadzoruje i steruje?

    Cherny udostępnił serię szczegółowych wątków, odsłaniając metody, które pozwalają mu osiągać tak niewyobrażalną produktywność. Jego filozofia opiera się na fundamentalnym przekonaniu: problem programowania został zasadniczo "rozwiązany" przez AI. Prawdziwa walka toczy się teraz o efektywność, automatyzację i — co najważniejsze — o zarządzanie kontekstem.

    Pięć Równoległych Światów: Podstawowa Architektura Pracy

    Kluczem do skalowania jest równoległość. Cherny nie korzysta z jednej sesji Claude Code. Uruchamia ich pięć jednocześnie w terminalu, każdą w osobnej, wydzielonej kopii repozytorium Git (tzw. worktree). Każda zakładka terminala ma swój numer (1-5) i dedykowane zadanie: jedna implementuje funkcję, druga uruchamia testy, trzecia przegląda kod, kolejna debuguje, a ostatnia pracuje nad dokumentacją.

    To nie koniec. Poza terminalem ma otwartych od 5 do 10 dodatkowych sesji w przeglądarce na claude.ai/code. Płynnie przenosi kontekst między lokalnym a webowym środowiskiem za pomocą flagi --teleport. Rano potrafi nawet rozpocząć zadanie w aplikacji Claude na iPhonie, a dokończyć je później na komputerze. Ta "wszechobecność" agenta pozwala mu na ciągły przepływ pracy bez martwienia się o utratę kontekstu.

    Opus: Wolniejszy Model, Szybsze Wyniki

    Choć może się to wydawać nielogiczne, Cherny konsekwentnie używa największego i najwolniejszego modelu — Opusa z włączonym trybem „myślenia” — do absolutnie wszystkich zadań. Jego uzasadnienie jest pragmatyczne: Opus, choć generuje odpowiedzi wolniej, wymaga znacznie mniej sterowania i poprawiania przez człowieka. Jest też lepszy w korzystaniu z narzędzi (tool use).

    "To najlepszy model do kodowania, jakiego kiedykolwiek używałem" – mówi. "Mimo że jest większy i wolniejszy niż Sonnet, ponieważ trzeba go mniej kierować i lepiej korzysta z narzędzi, to ostatecznie jest prawie zawsze szybszy w użyciu niż mniejszy model". Liczy się nie prędkość pojedynczej odpowiedzi, ale całkowity koszt iteracji — czas od pomysłu do działającego, zweryfikowanego kodu.

    CLAUDE.md: Instytucjonalna Pamięć w Pliku Tekstowym

    Najpotężniejszą, a jednocześnie najprostszą techniką Chernego jest utrzymywanie pliku z instrukcjami dla modelu. To zwykły plik Markdown trzymany w głównym repozytorium Gita, wspólny dla całego zespołu. Zawiera około 2.5 tys. tokenów i jest aktualizowany kilka razy w tygodniu. To nie jest suchy zbiór reguł stylu.

    To żywy dziennik błędów i best practices. "Za każdym razem, gdy widzimy, że Claude zrobił coś niepoprawnie, dodajemy to do tego pliku, żeby wiedział, żeby tego nie robić następnym razem" – wyjaśnia Cherny. Plik zawiera wszystko: od konwencji nazewniczych ("zawsze używaj bun, nie npm"), przez wytyczne projektowe ("nigdy nie używaj enum w TypeScripcie, preferuj unie literałów stringów"), po szablony PR i instrukcje uruchamiania testów.

    Mechanizm aktualizacji jest zautomatyzowany. Podczas przeglądu kodu, zamiast pisać długie komentarze, Cherny taguje @.claude i prosi: "dodaj do instrukcji, żeby zawsze preferować type nad interface". Claude Code, z pomocą specjalnej GitHub Action, samodzielnie aktualizuje plik i commituje zmianę. Cherny nazywa to „Inżynierią Składaną” (Compounding Engineering) — każdy błąd zamienia się w trwałą lekcję dla całego zespołu, poprawiając jakość przyszłych generacji kodu.

    Planowanie, a Dopiero Potem Implementacja

    Planowanie, a Dopiero Potem Implementacja

    Cherny rzadko każe Claude'owi od razu pisać kod. Zaczyna w trybie planowania (Plan Mode, uruchamianym przez dwukrotne wciśnięcie Shift+Tab). W tym trybie Claude generuje tylko plan działania, bez wprowadzania zmian w plikach. Cherny iteracyjnie doprecyzuje ten plan, grilluje go, pyta o potencjalne problemy.

    Dopiero gdy plan jest solidny, przełącza się w tryb auto-akceptacji i pozwala Claude'owi wdrożyć go "jednym strzałem". To podejście minimalizuje kosztowne błędy i halucynacje. "Dobry plan jest naprawdę ważny, żeby uniknąć problemów później" – podkreśla. Jeśli w trakcie implementacji coś pójdzie nie tak, jego reakcja jest prosta: wrócić do trybu planowania i przepracować problem od nowa.

    Slash Commands i Subagenci: Automatyzacja Najmniejszych Pętli

    Powtarzalne czynności Cherny zamienia w skrypty i podagenty. Swoje najczęstsze workflow, jak /commit-push-pr (który wykonuje dziesiątki razy dziennie), definiuje jako slash commands w plikach w katalogu .claude/commands/. Są one współdzielone przez zespół przez Git.

    Co potężne, te komendy mogą zawierać inline’owy Bash, który wykonuje się przed wysłaniem promptu do modelu. Na przykład, /commit-push-pr może najpierw sprawdzić git status, a następnie skonstruować idealny commit message na podstawie zmienionych plików, bez angażowania AI w te proste kroki.

    Podobnie, subagenty to gotowe "role" dla Claude'a, przechowywane jako pliki w .claude/agents/. Cherny ma agenta code-simplifier, który czyści i refaktoryzuje kod po implementacji, czy verify-app z detalicznymi instrukcjami testowania end-to-end. Gdy chce rzucić większą moc obliczeniową na problem, po prostu dodaje do promptu "użyj 5 subagentów".

    Pętla Weryfikacji: Najważniejsza Zasada

    Pętla Weryfikacji: Najważniejsza Zasada

    Według Chernego, to jest absolutny numer jeden. "Prawdopodobnie najważniejsza rzecz, żeby uzyskać świetne wyniki z Claude Code — daj Claude’owi sposób na zweryfikowanie jego pracy" – mówi. "Jeśli Claude ma tę pętlę sprzężenia zwrotnego, to 2-3 razy podniesie jakość końcowego rezultatu".

    W praktyce oznacza to, że Claude nigdy nie kończy pracy na napisaniu kodu. Dla zmian w interfejsie claude.ai/code, Claude używa rozszerzenia Chrome, aby otworzyć przeglądarkę, przetestować zmiany UI i iterować, aż wszystko działa idealnie. Dla zmian w backendzie — uruchamia pełną suitę testów. Dla skryptów Bash — wykonuje je w suchym środowisku.

    Cherny inwestuje w domenową weryfikację. Zamiast ręcznie sprawdzać każdą zmianę, buduje systemy, w których Claude sam może się przetestować. To uwalnia ludzką uwagę do zadań najwyższego poziomu: strategicznego planowania, projektowania architektury i review kluczowych fragmentów kodu.

    Filozofia i Skala: Poza Era Pisania Kodu

    Praktyki Chernego nie są tylko o osobistej produktywności. Reprezentują szerszą zmianę paradygmatu. Widzi on AI jako byt "zapominalski", który potrzebuje zewnętrznej pamięci — właśnie takiej jak plik z instrukcjami. Jego zespół nie skupia się już na pisaniu kodu, ale na "kodzeniu po kodowaniu": automatyzacji, inżynierii kontekstu, budowaniu pętli sprzężenia zwrotnego i sterowaniu agentami.

    Skala efektu jest wymierna. Według danych, które przytacza, 4% wszystkich publicznych commitów na GitHubie jest obecnie generowanych przez Claude Code, a liczba dziennych użytkowników podwajała się w ostatnim czasie. Przewiduje, że do końca 2026 roku będzie to już 20% wszystkich commitów.

    Podsumowanie: Człowiek jako Inżynier Systemu

    Metoda Borisa Chernego pokazuje, że przyszłość programowania nie polega na szybszym pisaniu pętli for. Polega na projektowaniu systemów, w których AI może działać niezawodnie i samodzielnie. Klucz leży w inżynierii kontekstu (pliku z instrukcjami), automatyzacji pętli roboczych (slash commands), równoległości (worktrees) i, przede wszystkim, w zamknięciu pętli sprzężenia zwrotnego (weryfikacja).

    Jego praca to nie magia, ale skrupulatne zastosowanie inżynieryjnego myślenia do samego procesu współpracy z AI. To dowód, że największą wartością programisty w erze silnej AI nie jest znajomość składni, ale umiejętność jasnego myślenia, planowania systemów i nauczania maszyny, jak nie popełniać dwa razy tego samego błędu. Jak sam to ujmuje, to już nie jest programowanie. To inżynieria składana, gdzie każda poprawka inwestuje w jakość wszystkich przyszłych zmian.

  • Cursor Wprowadza Potężne Automatyzacje Dla Działających Non-Stop Agentów

    Cursor Wprowadza Potężne Automatyzacje Dla Działających Non-Stop Agentów

    Co by się stało, gdyby twój asystent AI nie czekał na twoje polecenie, ale sam inicjował działania, gdy w projekcie pojawi się problem, lub regularnie wykonywał nudne, powtarzalne zadania? Ta wizja właśnie staje się rzeczywistością. Twórcy Cursor – popularnego środowiska programistycznego napędzanego sztuczną inteligencją – ogłosili właśnie wprowadzenie funkcji Automatyzacji. To nowy mechanizm pozwalający budować always-on agents, czyli inteligentne agenty działające non-stop, wyzwalane harmonogramem lub zdarzeniami z zewnętrznych systemów.

    Ta aktualizacja to nie tylko kolejna funkcja, ale potencjalnie znacząca zmiana w sposobie, w jaki zespoły zarządzają kodem, incydentami i rutyną deweloperską. W tym samym czasie Cursor ogłosił również dostępność w środowiskach JetBrains, co pokazuje strategię dotarcia do jak najszerszego grona programistów.

    Automatyzacje: Agenci, Którzy Nigdy Nie Śpią

    Podstawowa idea Automatyzacji jest prosta: zamiast ręcznie uruchamiać agenta AI za każdym razem, gdy potrzebujesz przeglądu kodu, analizy błędu czy podsumowania aktywności, możesz go skonfigurować tak, by działał samoczynnie. Agenci ci działają w chmurze, w odizolowanym środowisku (sandboxie), co gwarantuje bezpieczeństwo i powtarzalność.

    Wyzwalacze (*Triggers*) są sercem systemu. Można ustawić agenta na działanie według harmonogramu – na przykład jak zadanie cron, które wykonuje się co noc, analizując test coverage. Drugi rodzaj to reakcja na zdarzenia z integrowanych platform. Agent może się obudzić, gdy:
    * W Slacku pojawi się nowa wiadomość w określonym kanale.
    * W Linear lub Jirze stworzony zostanie nowy issue.
    * Na GitHubie zostanie otwarty lub zmergowany pull request.
    * W PagerDuty wyzwolony zostanie incydent.
    * Aplikacja otrzyma własny, niestandardowy webhook.

    Wykonanie następuje w chmurze Cursor. Agent dostaje instrukcje od użytkownika (np. „Przeanalizuj złożony PR i oceń ryzyko”) oraz dostęp do narzędzi przez Model Context Protocol (MCP). Może więc korzystać z zewnętrznych narzędzi do sprawdzania logów, zapisu wyników czy z API GitHub do komentowania.

    Pamięć (*Memory*) to kluczowy komponent, który odróżnia tę funkcję od prostych skryptów. Agenci mają dostęp do narzędzia pamięci, które pozwala im uczyć się na podstawie poprzednich uruchomień. To oznacza, że z każdym kolejnym wykonaniem zadania mogą działać lepiej, precyzyjniej i bardziej dostosowując się do kontekstu projektu.

    Jak tłumaczą twórcy w materiałach wideo: „Ponieważ agenci stali się naprawdę zdolni do samodzielnego wykonywania pracy, często uruchamialiśmy ich w kółko do tych samych typów zadań. Pomyśleliśmy więc: dlaczego tego nie zautomatyzować?”.

    Praktyczne Zastosowania: Od Codeownerów Do Incydentów

    Teoretyczna możliwość to jedno, ale prawdziwą wartość widać w konkretnych przypadkach użycia. Cursor w materiałach promocyjnych i na forach wskazuje kilka gotowych schematów.

    • Agentyczny Codeowner*. To chyba najczęściej przywoływany przykład. Konfigurujesz agenta, który jest wyzwalany za każdym razem, gdy na repozytorium zostanie otwarty nowy pull request lub dokonany push. Jego zadaniem jest automatyczna ocena ryzyka tego PR. Agent analizuje:
    • Blast radius: Jak szeroki wpływ mają zmiany? Czy dotyczą kluczowych modułów?
      Złożoność kodu. Wpływ na infrastrukturę (np. zmiany w konfiguracji, bazie danych).

    Na podstawie tej analizy agent może podjąć autonomiczne decyzje: dla PR-ów o niskim ryzyku – automatycznie je zaakceptować; dla tych o wysokim ryzyku – oznaczyć odpowiednich recenzentów i powiadomić zespół przez Slacka. Cały proces jest logowany dla przejrzystości.

    • Reakcja na Incydenty*. To bezpośrednia odpowiedź na koszmar każdego dewelopera – budzik o trzeciej nad ranem z powodu awarii. Agent zintegrowany z systemami monitoringu może zostać wyzwolony w momencie zgłoszenia incydentu. Jego pierwszym zadaniem jest szybka diagnostyka: sprawdzenie logów, przeszukanie ostatnich commitów pod kątem potencjalnie problematycznych zmian. Następnie, w oparciu o znalezione informacje, może od razu zaproponować hotfix w osobnym branchu, stworzyć zadanie naprawcze w trackerze lub wysłać streszczoną diagnozę do kanału Slack dla zespołu. Twórcy twierdzą, że tego typu automatyzacja znacząco redukuje czas reakcji.

    • Rutynowa Konserwacja i Analiza*. Tu automatyzacje odciążają zespół z żmudnych, ale ważnych zadań:

    • Cotygodniowe podsumowania: Agent uruchamiany w każdy piątek wieczorem skanuje kod, commity i PR-y z ostatniego tygodnia, generując zwięzłe podsumowanie postępu i potencjalnych problemów.

    • Wyszukiwanie martwego kodu: Regularne skanowanie projektu w poszukiwaniu nieużywanych funkcji, zmiennych lub importów.

    • Triadaż błędów: Automatyczne sprawdzanie nowo zgłoszonych błędów pod kątem duplikatów, zbieranie dodatkowych informacji i tworzenie dobrze opisanych zadań w trackerze.

    Co ciekawe, wczesni użytkownicy wykorzystują te agenty do zadań wykraczających poza czysty kod. Automatyzacje agregują notatki z spotkań, punkty akcji, PR-y i dyskusje ze Slacka w ujednolicone dashboards. Potrafią też generować zadania w trackerach bezpośrednio z wątków na Slacku, przekształcając luźną dyskusję w śledzone tickety.

    Jak To Działa Od Kuchni i Dla Kogo Jest Przeznaczone

    Jak To Działa Od Kuchni i Dla Kogo Jest Przeznaczone

    Rozpoczęcie pracy z Automatyzacjami wydaje się celowo uproszczone. Twórcy zachęcają, by zacząć od gotowego szablonu. Nie ma potrzeby konfigurowania oddzielnego środowiska chmurowego – agenci działają w tej samej infrastrukturze co Cloud Agents Cursor i pracują na sklonowanych repozytoriach użytkownika.

    W kwestii modeli AI, użytkownik ma wybór. Cursor testował różne frontier models (najnowocześniejsze modele od głównych dostawców) pod kątem wydajności w tych zadaniach.

    Warto podkreślić, że funkcja wspiera GitHub, co jest kluczowe dla adopcji w organizacjach. Na forum użytkownicy wyrażają już życzenie, by w przyszłości agenci mogli działać jeszcze bardziej autonomicznie, np. korzystając z funkcji Computer Use (bezpośredniej interakcji z systemem) czy przeglądarki.

    Cursor Wkracza Do Świata JetBrains

    Niemal równolegle z premierą Automatyzacji, Cursor ogłosił dostępność w popularnych środowiskach JetBrains, takich jak IntelliJ IDEA, PyCharm czy WebStorm. To ważny ruch strategiczny.

    Dostęp ten jest realizowany przez Agent Client Protocol (ACP), który działa jak most między IDE a chmurą Cursor. Deweloperzy przyzwyczajeni do mocnych narzędzi JetBrains dla Javy, Pythona czy JavaScriptu nie muszą zmieniać środowiska, by korzystać z zaawansowanych modeli AI od Open AI, Anthropic, Google czy samego Cursor do agent-driven development. Wystarczy zainstalować plugin ACP z rejestru w IDE i zalogować się na istniejące konto Cursor. To poszerza znacznie potencjalną bazę użytkowników zaawansowanych funkcji agentowych. Ogłoszenie tej integracji miało miejsce 5 marca 2026 roku.

    Podsumowanie: W Kierunku Autonomicznej Fabryki Oprogramowania

    Wprowadzenie Automatyzacji przez Cursor nie jest izolowanym ulepszeniem. To część szerszego trendu i odpowiedź na wyraźną dysproporcję. Sztuczna inteligencja w ciągu ostatnich lat dramatycznie przyspieszyła etap produkcji kodu. Pisanie nowych funkcji, prototypowanie, nawet tłumaczenie między językami – to wszystko stało się szybsze.

    Jednak etapy przeglądu, monitorowania i konserwacji wciąż często spoczywały głównie na ludziach, tworząc wąskie gardło. Automatyzacje wydają się być bezpośrednim narzędziem do zniwelowania tej luki. Pozwalają stworzyć wielozadaniową, działającą 24/7 „pomocniczą załogę” AI, która przejmuje część tej odpowiedzialności.

    Funkcja ta, w połączeniu z dostępnością w JetBrains, umacnia pozycję Cursor nie tylko jako zaawansowanego edytora, ale jako platformę do autonomicznego rozwoju oprogramowania. To krok w stronę wizji pełnej „fabryki software’owej”, gdzie inteligentne agenci koordynują się z ludzkimi zespołami, zajmując się przewidywalną rutyną, szybką reakcją i ciągłą analizą, podczas gdy ludzie skupiają się na złożonych problemach, architekturze i kreatywnych aspektach tworzenia.

  • GitHub Copilot CLI Wychodzi Z Publicznej Wersji Preview I Jest Już Ogólnie Dostępny

    GitHub Copilot CLI Wychodzi Z Publicznej Wersji Preview I Jest Już Ogólnie Dostępny

    Po kilku miesiącach intensywnego testowania i zbierania opinii od społeczności, GitHub ogłasza, że Copilot CLI – agent programistyczny działający natywnie w terminalu – osiągnął ogólną dostępność. Od 25 lutego 2026 roku narzędzie opuszcza fazę publicznego podglądu i staje się gotowym do produkcyjnego użytku rozwiązaniem dla wszystkich płacących subskrybentów Copilota. To nie jest zwykłe rozszerzenie linii poleceń, a raczej kompleksowe, agentowe środowisko programistyczne, które planuje, buduje, przegląda i pamięta między sesjami, bez konieczności opuszczania terminala.

    Od września 2025 roku, kiedy narzędzie trafiło do publicznego podglądu, zespół wprowadził setki ulepszeń. Efekt? Copilot CLI ewoluował z prostego asystenta w pełnoprawnego agenta, który może samodzielnie zarządzać złożonymi zadaniami.

    Agentowe Programowanie W Twoim Terminalu

    Sednem Copilot CLI jest przejście od reaktywnego chat-bota do proaktywnego agenta. Narzędzie nie tylko odpowiada na pytania, ale realnie wykonuje pracę: analizuje repozytorium, edytuje pliki, uruchamia komendy, testuje zmiany i iteruje, aż do osiągnięcia celu. Kluczową filozofią jest elastyczna kontrola. Decydujesz, jak dużo zaufania powierzasz agentowi.

    Dostępne są dwa główne tryby pracy. Tryb planowania aktywuje się kombinacją klawiszy Shift+Tab. W tym trybie Copilot najpierw analizuje twoje żądanie, zadaje doprecyzowujące pytania, a następnie tworzy szczegółowy plan implementacji – i to wszystko zanim napisze choć jedną linijkę kodu. Możesz ten plan przejrzeć, zaakceptować lub zmodyfikować, a dopiero potem zezwolić na wykonanie.

    Z kolei tryb autopilota przeznaczony jest dla zaufanych, rutynowych zadań. W tym trybie agent działa w pełni autonomicznie: wykonuje narzędzia, uruchamia polecenia i iteruje bez zatrzymywania się po każdym kroku o twoją aprobatę. To duża oszczędność czasu dla dobrze zdefiniowanych procesów.

    Co ciekawe, system automatycznie deleguje pracę do wyspecjalizowanych agentów wewnętrznych. Wszystko dzieje się pod spójnym interfejsem.

    Wybór Modelu AI I Rozszerzalność

    Jedna z najważniejszych nowości to wolność wyboru modelu językowego stojącego za agentem. Deweloperzy mogą teraz wybierać spośród flagowych modeli od czołowych dostawców. Model można zmieniać w trakcie sesji za pomocą komendy /model. To znosi wcześniejsze ograniczenia, które dotyczyły tylko użytkowników Enterprise i Pro+.

    Rozszerzalność to kolejny filar. Copilot CLI obsługuje Model Context Protocol (MCP), umożliwiając podłączanie agenta do zewnętrznych narzędzi i źródeł danych. Można instalować pluginy bezpośrednio z repozytoriów GitHub (/plugin install), definiować własne umiejętności (skills) w plikach markdown, a nawet tworzyć całkowicie niestandardowych agentów za pomocą kreatora lub plików .agent.md.

    Przegląd, Diff, Cofanie I Pamięć

    Przegląd, Diff, Cofanie I Pamięć

    Bezpieczne wprowadzanie zmian jest kluczowe. Copilot CLI ma wbudowane zaawansowane narzędzia do kontroli. Komenda /diff pokazuje wszystkie zmiany wprowadzone w trakcie sesji z kolorowym, składniowo podświetlonym podglądem inline. Można dodawać komentarze do konkretnych linii. /review analizuje przygotowane lub niezatwierdzone zmiany kodu, oferując szybką recenzję przed commitem.

    Pamięć agenta to przełomowe ulepszenie. Dzięki automatycznej kompaktacji, gdy rozmowa zbliża się do limitu kontekstu modelu, Copilot w tle kompresuje historię. Sesje teoretycznie mogą trwać w nieskończoność. Co ważniejsze, agent rozwija pamięć repozytorium i pamięć między sesjami. Uczy się konwencji, wzorców i preferencji twojego kodu, a potem wykorzystuje tę wiedzę w przyszłej pracy. Możesz go też pytać o zadania wykonane w poprzednich sesjach.

    Instalacja I Dopracowane Doświadczenie Terminalowe

    Copilot CLI jest dostępny na wszystkie główne systemy operacyjne: macOS, Linux i Windows. Zainstalujesz go przez npm, Homebrew, WinGet, skrypt instalacyjny lub pobierając samodzielny plik wykonywalny. Wersje z Homebrew i WinGet aktualizują się automatycznie. Narzędzie jest też domyślnie włączone w obrazie GitHub Codespaces i dostępne jako funkcja Dev Container.

    Od czasów publicznego podglądu interfejs terminala został mocno dopracowany. Tryb pełnoekranowy (Alt-screen) oferuje natywne wrażenia z myszką i przewijaniem. Agent szanuje twoją zmienną środowiskową $SHELL i oferuje pełne wsparcie skrótów klawiaturowych znanych z UNIX-a (jak Ctrl+A/E/W). Nie zapomniano też o dostępności – jest tryb czytnika ekranu i responsywny layout dla wąskich terminali.

    Gotowość Dla Przedsiębiorstw

    Gotowość Dla Przedsiębiorstw

    Dla organizacji GitHub przygotował zestaw funkcji zarządczych. Administratorzy mogą kontrolować dostępność modeli przez ustawienia polityk Copilota. Zarządzanie dostępem do sieci odbywa się przez dedykowane endpointy API dla subskrypcji. Narzędzie obsługuje proxy HTTPS oraz różne metody uwierzytelniania, w tym przepływ OAuth device flow i przyjazne dla CI/CD wykorzystanie GITHUB_ASKPASS.

    Dodatkowo, za pomocą hooków preToolUse można wdrożyć własne polityki, np. egzekwować zasady dostępu do plików czy wymuszać dodatkowe zatwierdzenia przed wykonaniem pewnych operacji.

    Jak Zacząć?

    Rozpoczęcie pracy jest proste. Po zainstalowaniu narzędzia i uwierzytelnieniu się na konto GitHub, wystarczy uruchomić komendę /init w katalogu projektu. Copilot CLI automatycznie przeanalizuje kod i wygeneruje instrukcje dostosowane do twojego środowiska. Od tego momentu możesz po prostu opisywać zadania, a agent będzie je realizował.

    Copilot CLI jest dostępny w ramach subskrypcji Copilot Pro, Pro+, Business oraz Enterprise. W przypadku planów Business i Enterprise administrator musi najpierw włączyć tę funkcję na stronie Polityk w ustawieniach organizacji.

    Podsumowanie

    Ogólna dostępność GitHub Copilot CLI to znaczący krok w ewolucji narzędzi AI dla deweloperów. To już nie tylko sugestie uzupełniania kodu w IDE, ale pełnoprawny współpracownik zrozumiały dla terminala, zdolny do prowadzenia złożonych, wieloetapowych prac developerskich. Połączenie wyboru modeli, rozszerzalności, między-sesyjnej pamięci i kontroli nad poziomem autonomii tworzy potężne narzędzie, które może znacząco przekształcić codzienny workflow programistów, skupiając cały cykl rozwoju – od planowania przez implementację po recenzję – w jednym, znanym i ulubionym środowisku: wierszu poleceń.

  • Jak Głęboka Analiza Kodu Trafiła Do Claude Code: AI-Powered Code Review W Akcji

    Dla zespołów developerskich przegląd kodu często jest wąskim gardłem. Ktoś musi poświęcić czas, skupić się na diffie i wyłapać potencjalne błędy, problemy z bezpieczeństwem czy odstępstwa od konwencji. To pracochłonne, zwłaszcza gdy PR-y wchodzą jeden za drugim. Teraz, z zaawansowanymi możliwościami przeglądu kodu w Claude Code, ten proces zyskuje potężne, wieloagentowe wsparcie rodem z wewnętrznych praktyk Anthropic. To nie jest szybki skim – to głęboka, systematyczna inspekcja.

    Code Review w Claude Code: Nie Tylko Szybki Skim, Ale Głęboka Analiza

    Zaawansowane możliwości przeglądu kodu, rozwijane w ekosystemie Claude, mają konkretny cel: przełamać bottleneck w procesie code review. Klasyczne przeglądy ludzkie często nie nadążają, sprowadzając się do pobieżnego czytania. W odpowiedzi powstały systemy, które uruchamiają zespół agentów AI do równoległej analizy każdego nowego Pull Requesta.

    Jak to działa? Gdy PR zostaje otwarty, zaawansowane konfiguracje Claude Code mogą wysyłać do akcji zespół wyspecjalizowanych agentów. Każdy z nich analizuje zmiany pod innym kątem: bezpieczeństwo, wydajność, jakość kodu, potencjalne błędy logiczne. Pracują równolegle, a ich znaleziska są weryfikowane, aby odfiltrować fałszywe pozytywy, a na koniec rankowane według wagi. Efekt ląduje w PR jako pojedynczy, treściwy komentarz podsumowujący oraz komentarze inline przy konkretnych liniach kodu.

    Skala analizy jest elastyczna. Duże, złożone zmiany (ponad 1000 linii) mogą otrzymać więcej agentów i głębsze przeszukanie kontekstu. Dla małych poprawek system stosuje lżejsze, szybsze przejście.

    Statystyki, Które Przemawiają: Więcej Rzeczowych Komentarzy

    Wprowadzenie takich systemów w zespołach przynosi wymierną zmianę. System nie zatwierdza PR-ów automatycznie – ta decyzja wciąż należy do człowieka. Jego rolą jest zamknięcie luki informacyjnej, tak aby ludzki rewiever mógł podjąć świadomą decyzję, mając przed sobą wyłapane potencjalne problemy.

    Inżynierowie często zgadzają się z wskazaniami AI. Prawdziwa wartość ujawnia się w konkretnych przypadkach. Zmiany, które wyglądają na rutynowe i zwykle dostają szybkie "LGTM", mogą zostać oznaczone jako krytyczne przez szczegółową analizę AI, która wychwytuje subtelne błędy łatwe do przeoczenia w diffie.

    Pod Maską: Natywna Integracja, Custom Skills I Zrównoleglone Agenci

    Pod Maską: Natywna Integracja, Custom Skills I Zrównoleglone Agenci

    Zaawansowany przegląd kodu to oficjalne rozwinięcie możliwości, które w Claude Code istniały od jakiegoś czasu w formie bardziej "zrób to sam". Narzędzie od początku było projektowane jako asystent z głęboką integracją z workflow developera.

    Jego sercem są zaawansowane modele Claude, a kluczowe możliwości to natywna integracja z Git. Claude Code potrafi stage'ować zmiany, pisać commity, tworzyć gałęzie i PR-y bez wychodzenia z IDE. Dla automatyzacji wspiera GitHub Actions i GitLab CI/CD.

    Tam, gdzie oficjalne, głębokie rozwiązania mogą być kosztowne, społeczność buduje własne. Przykładem są custom skills tworzone przez deweloperów. Takie narzędzia, napisane często w Pythonie, naśladują działanie komercyjnych rozwiązań, ale są zoptymalizowane pod Claude.

    Główna różnica polega na outputcie. Podczas gdy standardowe podejście promptowe daje jedną dużą "blob" z informacjami zwrotnymi, zaawansowane implementacje generują targetowane komentarze przy konkretnych plikach i liniach, dokładnie tak jak robiłby to człowiek. Jak zauważają twórcy: "LLM są niesamowicie kiepskie w wykonywaniu pracy. Ale są wyjątkowo dobre w pisaniu kodu, który tę pracę wykonuje za nie." Udane implementacje to połączenie sprytnego promptowania i wykonania napisanego przez AI kodu.

    Inne zaawansowane ustawienia, o których donoszą użytkownicy, obejmują uruchamianie równoległych sub-agentów, z których każdy specjalizuje się w innej dziedzinie: bezpieczeństwo, wydajność, jakość, styl (złożoność, dead code, duplikacje). Główny agent zbiera ich wyniki, ranguje je według wagi i wydaje końcowy werdykt.

    Dla Kogo Jest To Rozwiązanie? Koszta, Kontrola I Wady

    Dla Kogo Jest To Rozwiązanie? Koszta, Kontrola I Wady

    Zaawansowane funkcje przeglądu kodu są rozwijane w ekosystemie Claude. Są to rozwiązania optymalizowane pod głębię analizy, nie prędkość, co może przekładać się na wyższy koszt niż np. darmowy Claude Code GitHub Action.

    Administratorzy mają jednak narzędzia do kontroli wydatków przy użyciu API:

    • Można ustawić miesięczne limity wydatków.
    • Kontrola na poziomie repozytoriów – recenzje można włączyć tylko dla wybranych projektów.
    • Dashboard z analityką śledzący zrecenzowane PR, współczynnik akceptacji znalezisk i całkowite koszty.

    Warto znać też ograniczenia, które są wspólne dla różnych zastosowań Claude Code. Narzędzie skupia się na plikach kodu – obsługa plików niekodowych (dokumentacja, konfiguracje) jest słaba lub brakująca. Na bardzo złożonych zadaniach może być wolne, a w przypadku custom solutions wdrożenie w zespole bywa problematyczne, ponieważ każdy członek potrzebuje skonfigurowanego środowiska z dostępem do API Claude.

    Podsumowanie: AI Jako Wsparcie, Nie Zastępstwo Dla Ludzkiego Osądu

    Wprowadzenie głębokiego Code Review w ekosystemie Claude to znaczący krok w ewolucji AI-pomocników dla deweloperów. Nie chodzi tu o zastąpienie człowieka, ale o wzmocnienie go – dostarczenie mu skupionej, wieloaspektowej analizy, która pozwala podjąć lepszą decyzję o mergu. Zamyka to lukę między rosnącą ilością kodu a ograniczonym czasem, jaki ludzie mogą poświęcić na jego drobiazgową inspekcję.

    Czy to rozwiązanie dla każdego? Dla małych zespołów lub projektów open-source darmowy GitHub Action lub custom skills mogą wystarczyć. Dla większych organizacji, gdzie jakość i bezpieczeństwo kodu są krytyczne, a bottleneck w review jest odczuwalny, zaawansowane rozwiązania oferują przemysłowe, przetestowane podejście. Bez względu na wybór ścieżki, trend jest jasny: przyszłość code review leży w synergii między ludzkim doświadczeniem a systematyczną, niestrudzoną analizą sztucznej inteligencji.

  • Codex 0.111.0: Szybszy Domyślnie i Zwiększona Stabilność dla Deweloperów

    Codex 0.111.0: Szybszy Domyślnie i Zwiększona Stabilność dla Deweloperów

    OpenAI wypuściło nową, znaczącą aktualizację swojego narzędzia do asystowanego kodowania – Codex. Aktualizacja skupia się na zwiększeniu wydajności codziennej pracy, poprawie integracji z ekosystemem pluginów oraz usunięciu szeregu dokuczliwych błędów. Wprowadzono szybszego agenta i nowe modele, mające przyspieszyć iterację z AI.

    Ta solidna aktualizacja dotyka kluczowych obszarów: interfejsu użytkownika, środowiska wykonawczego JavaScript, zarządzania wtyczkami oraz stabilności długotrwałych sesji. Dla programistów pracujących nad projektami webowymi czy wykorzystujących AI w procesach devops, te zmiany mogą realnie wpłynąć na komfort i tempo pracy.

    Szybszy Agent i Nowe Modele

    Najbardziej odczuwalną zmianą jest wprowadzenie szybszego agenta oraz nowych modeli, takich jak codex-1 o4-mini. OpenAI skupiło się na optymalizacji strategii generowania odpowiedzi, co ma prowadzić do szybszych interakcji i bogatszych rezultatów.

    Jak zauważono w społeczności, bardziej zaawansowane promptowanie może czasem powodować nagłe skoki w zużyciu tokenów. Ważne jest więc, by użytkownicy świadomie monitorowali swoje użycie, szczególnie pracując na kontach z limitami.

    Ulepszenia w Środowisku Wykonawczym

    Dla developerów JavaScript i TypeScript kluczową nowością są ulepszenia w środowisku wykonawczym. OpenAI potwierdza lepszą integrację z istniejącymi narzędziami i przepływami pracy developerskimi.

    To duże ułatwienie przy testowaniu modularnych fragmentów kodu, prototypowaniu czy debugowaniu. Te ulepszenia ściśle łączą się z filozofią Codexa jako narzędzia do iteracyjnego rozwoju oprogramowania w naturalnym kontekście projektu.

    Integracja z Pluginami i Model Context Protocol (MCP)

    Kolejny obszar usprawnień to ekosystem wtyczek, w szczególności tych opartych o Model Context Protocol (MCP). Codex lepiej integruje się z zewnętrznymi systemami i narzędziami poprzez MCP, co pozwala modelowi AI efektywniej korzystać z dodatkowych zasobów.

    OpenAI ogólnie wspomina MCP jako narzędzie do łączenia z zewnętrznymi systemami, co zwiększa szansę na ich trafne i użyteczne wykorzystanie w procesie developerskim.

    Rozszerzone Możliwości Pracy z Obrazami i Poprawki

    Aktualizacja rozszerza także wsparcie dla przepływów pracy z obrazami. Źródła potwierdzają obsługę obrazów, na przykład poprzez funkcjonalność screenshotów w interfejsie CLI, co jest krokiem w stronę lepszej integracji generatywnych modeli wizyjnych z procesem developerskim.

    Jeśli chodzi o stabilność, zespół naprawił kilka istotnych błędów. Poprawiono różne aspekty działania narzędzia, zwiększając ogólną niezawodność długotrwałych sesji i integracji z systemami developerskimi.

    Dla Kogo Są Te Zmiany?

    Aktualizacja Codexa jest skierowana przede wszystkim do profesjonalnych deweloperów i zespołów, które już wdrożyły AI-asystentów do swojego workflow. Szybszy agent, lepsza integracja i stabilniejsze działanie to udogodnienia dla codziennej, intensywnej pracy.

    Rozszerzenia związane z MCP i pluginami są szczególnie istotne dla architektów i zespołów DevOps, które budują lub integrują spersonalizowane narzędzia i automatyzacje wokół Codexa. Inwestycja w możliwość głębokiego włączania Codexa w wewnętrzne procesy i pipeline’y firm jest czytelnym sygnałem od OpenAI.

    Podsumowanie

    Ta aktualizacja Codexa nie jest rewolucją, ale znaczącą ewolucją, która udrażnia najważniejsze ścieżki użytkowania. Optymalizacja wydajności postawiła szybkość działania na pierwszym miejscu, choć wymaga od użytkowników nieco większej uwagi na zużycie zasobów. Ulepszenia środowiska wykonawczego i systemu pluginów są natomiast konkretnymi odpowiedziami na potrzeby społeczności, ułatwiając pracę w prawdziwych, złożonych projektach.

    Poprawki stabilizacyjne są nie do przecenienia dla każdego, kto traktuje Codexa jako poważne narzędzie pracy. Ta aktualizacja utwierdza pozycję Codexa jako jednego z najbardziej zaawansowanych i ciągle rozwijanych środowisk do AI-asystowanego programowania, z coraz lepszym wsparciem dla rozszerzalności i integracji.