Kategoria: Narzędzia AI

  • Codex 0.120.0: Lepsze streamowanie agentów w czasie rzeczywistym i odświeżony interfejs terminala

    Codex 0.120.0: Lepsze streamowanie agentów w czasie rzeczywistym i odświeżony interfejs terminala

    OpenAI wydało nową wersję swojego agenta programistycznego Codex, oznaczoną numerem 0.120.0. Aktualizacja, opublikowana w kwietniu 2026 roku, koncentruje się na ulepszeniu funkcji Realtime V2, poprawie doświadczenia użytkownika w terminalu (TUI) oraz naprawie kluczowych błędów, zwłaszcza na platformie Windows. To kolejny krok w rozwoju narzędzia, które wspiera programistów w automatyzacji długoterminowych zadań związanych z web developmentem, AI i devops.

    W tej wersji wprowadzono mechanizm strumieniowania postępu pracy agentów w tle, co umożliwia użytkownikom śledzenie działań agenta, nawet gdy jest on zajęty innym zadaniem. Interfejs terminala stał się bardziej czytelny, a deweloperzy zyskali nowe możliwości jego konfiguracji, co ma na celu zwiększenie płynności i przewidywalności pracy z agentem.

    Kluczowe zmiany w wersji 0.120.0

    • Ulepszone Realtime V2: System teraz strumieniuje postęp agentów działających w tle (background agent progress streaming) i kolejkowuje ich odpowiedzi, czekając na zakończenie aktywnych zadań. Dzięki temu interakcje są bardziej uporządkowane.
    • Przejrzystszy interfejs TUI: Aktywność haków (hook activity) jest teraz lepiej widoczna – działające haki są pokazywane osobno, a ukończone dane wyjściowe są zachowywane tylko wtedy, gdy są przydatne. Dodano też możliwość customizacji linii statusu, np. o zmienione tytuły wątków.
    • Ważne poprawki stabilności: Naprawiono problemy z obsługą Windows elevated sandbox oraz ze stabilnością połączeń remote websocket. Poprawiono też kolejkowanie odpowiedzi i czyszczenie zasobów MCP.

    Co nowego w Realtime V2 i strumieniowaniu?

    Główną nowością tej wersji jest znacząca aktualizacja dla Realtime V2. Mechanizm background agent progress streaming pozwala Codex na bieżąco informować użytkownika o postępach agenta, który pracuje w tle nad długotrwałym zadaniem. Użytkownicy otrzymują aktualizacje na żywo z drugiego planu, co nie blokuje głównego wątku konwersacji.

    Wprowadzono również inteligentne response queuing. Jeśli agent wyśle kolejną odpowiedź, zanim użytkownik skończy czytać poprzednią, system ją zakolejkuje i wyświetli we właściwym momencie. To eliminuje problem nakładających się wiadomości i poprawia płynność dialogu. Dodatkowo, agenci działający w tle otrzymują teraz transkrypty delta i mogą pozostać „cicho”, gdy nie ma potrzeby się odzywać, co redukuje szum informacyjny.

    Usprawnienia interfejsu terminala (TUI)

    Usprawnienia interfejsu terminala (TUI)

    Interfejs użytkownika w terminalu przeszedł kosmetyczny i funkcjonalny lifting. Zmiany w wyświetlaniu hook activity ułatwiają szybkie skanowanie ekranu i identyfikację aktualnie uruchomionych oraz zakończonych haków. To praktyczna poprawka dla każdego, kto korzysta z haków do automatyzacji.

    Możliwość customizacji linii statusuto kolejne udogodnienie. Deweloperzy mogą teraz włączyć do niej zmienione nazwy wątków, co ułatwia zarządzanie wieloma równoległymi sesjami. Poprawki objęły także deklaracje narzędzi w trybie kodu (code-mode tool declarations), które teraz zawierają szczegóły outputSchema z MCP, co zapewnia lepsze typowanie ustrukturyzowanych wyników.

    Poprawki błędów i niezawodność

    Poprawki błędów i niezawodność

    Wydanie 0.120.0 przynosi szereg poprawek zwiększających stabilność. Dla użytkowników Windows kluczowa jest lepsza obsługa elevated sandbox, która teraz radzi sobie z wieloma wersjami CLI i różnymi ścieżkami instalacji. Naprawiono również problemy ze stabilnością zdalnych połączeń websocket, które mogły się zrywać podczas intensywnej wymiany danych.

    Wprowadzono mechanizm rollout recording, który ponawia próby wysłania nieudanych danych analitycznych i informuje o trwałych awariach. To poprawia monitoring i diagnozowanie problemów. Co istotne, profile uprawnień (permission profiles) są teraz konsekwentnie utrzymywane pomiędzy sesjami TUI, co zapewnia spójność zasad bezpieczeństwa.

    Podsumowanie

    Wydanie Codex 0.120.0 to istotny krok w rozwoju tego agenta programistycznego. Twórcy skupili się na dopracowaniu kluczowych funkcji – strumieniowania w czasie rzeczywistym i użyteczności interfejsu – oraz na zwiększeniu stabilności systemu, szczególnie w trudnym środowisku Windows. Te zmiany przekładają się na bardziej płynne i przewidywalne doświadczenie pracy z narzędziem, które wspiera codzienne, długoterminowe zadania developerskie.

    Aktualizację można zainstalować za pomocą komendy npm install -g @openai/[email protected]. Pełną listę zmian, obejmującą ponad 20 pull requestów, można znaleźć w changelogu projektu na GitHubie.


    Źródła

  • Claude Code 2.1.98: zaostrzono bezpieczeństwo, dodano wizard Vertex AI i poprawki workflow

    Claude Code 2.1.98: zaostrzono bezpieczeństwo, dodano wizard Vertex AI i poprawki workflow

    Anthropic wydał nową wersję swojego narzędzia Claude Code CLI – 2.1.98, która koncentruje się na wzmocnieniu bezpieczeństwa oraz wprowadzeniu istotnych funkcji związanych z workflow, takich jak rozszerzona obsługa MCP (Model Context Protocol). Wydanie, datowane na marzec 2026, zawiera również szereg poprawek stabilności i użyteczności.

    Jedną z głównych zmian jest rozszerzenie wsparcia dla MCP (Model Context Protocol), co pozwala Claude Code CLI na lepszą integrację z zewnętrznymi serwerami i zasobami. To ułatwia proces konfiguracji dla zespołów, które chcą wykorzystywać różne modele i narzędzia AI w swoim workflow.

    Najważniejsze informacje o wydaniu 2.1.98

    • Rozszerzona obsługa MCP: Ulepszona integracja z Model Context Protocol dla lepszej łączności z zewnętrznymi serwerami i zasobami.
    • Poprawki bezpieczeństwa: Aktualizacje mające na celu wzmocnienie systemu i poprawę obsługi skryptów.
    • Usprawnienia CLI: Optymalizacje działania interfejsu wiersza poleceń dla lepszej wydajności i stabilności.

    Zaostrzenie bezpieczeństwa i poprawki

    Wydanie 2.1.98 wprowadza poprawki mające na celu wzmocnienie systemu. Skupiają się one na poprawie bezpieczeństwa uruchamiania skryptów i zarządzania procesami. W kontekście dev ops i web developmentu, gdzie skrypty często wykonują operacje na systemie, takie aktualizacje są kluczowe dla zmniejszenia ryzyka nieautoryzowanych działań i poprawy stabilności środowiska.

    Nowe możliwości i usprawnienia workflow

    Oprócz kwestii bezpieczeństwa, wydanie 2.1.98 rozszerza możliwości integracji poprzez MCP. Ten protokół umożliwia Claude Code CLI łączenie się z różnymi serwerami dostarczającymi kontekst, dane lub funkcjonalności, co otwiera nowe możliwości dla zautomatyzowanych workflowów developerskich i dev ops. Usprawnienia dotyczące działania terminala i zarządzania sesjami zwiększają ogólną stabilność i użyteczność narzędzia.

    Wydajność i stabilizacja

    Jak w każdym wydaniu, wprowadzono także szereg poprawek. Wśród nich znajdują się poprawki dotyczące obsługi poleceń, niezawodności działania oraz ogólnej responsywności interfejsu. Optymalizacje mają na celu zapewnienie bardziej płynnego i przewidywalnego doświadczenia podczas codziennej pracy developerskiej.

    Wnioski

    Wydanie Claude Code CLI 2.1.98 koncentruje się na dwóch obszarach: wzmocnieniu bezpieczeństwa oraz usprawnieniach integracji poprzez rozszerzenie MCP. Rozwój protokołu MCP otwiera nowe możliwości dla projektów korzystających z rozproszonych zasobów AI, a poprawki stabilnościowe zwiększają pewność działania.

    Choć wydanie nie wprowadza nowych, przełomowych funkcji, jego wartość leży w solidnym wzmocnieniu istniejącego środowiska i w poszerzeniu możliwości integracyjnych. Dla profesjonalnych zespołów zajmujących się web developmentem i AI, stabilność, bezpieczeństwo i dobrze zintegrowane narzędzia są często bardziej wartościowe niż nowe eksperymentalne funkcje. Claude Code CLI 2.1.98 odpowiada na te potrzeby.


    Źródła

  • Gemini CLI Zyskuje na Sile z Nowymi Rozszerzeniami dla Flutter i Nanobanana

    Gemini CLI Zyskuje na Sile z Nowymi Rozszerzeniami dla Flutter i Nanobanana

    Ekosystem Gemini CLI, narzędzia do pracy z agentami AI z poziomu terminala, znacząco się rozrasta. Po wprowadzeniu nowych funkcji przyszedł czas na zwiększenie użyteczności dla programistów. Nowe rozszerzenia – Flutter i Nano Banana – pozwalają bezpośrednio wpiąć specjalistyczne narzędzia deweloperskie w workflow sterowany przez AI, oferując konkretne korzyści w zakresie budowy aplikacji i automatyzacji.

    Dostępne przez proste komendy instalacyjne, jak gemini extensions install https://github.com/gemini-cli-extensions/flutter, dodatki te przekształcają Gemini CLI w konfigurowalne centrum AI. To nie tylko teoretyczne ciekawostki, ale realne narzędzia przyspieszające codzienne zadania.

    Praktyczna rewolucja dla programistów Flutter

    Rozszerzenie Flutter zapewnia kompleksowe wsparcie dla całego cyklu życia aplikacji – od bootstrapowania projektu po commity i zarządzanie zależnościami. Szczególnie interesujący jest sposób, w jaki automatyzuje ono kluczowe fazy pracy.

    Na przykład komenda /modify, służąca do implementacji nowych funkcjonalności, działa w przejrzysty, zatwierdzany przez użytkownika sposób. Tworzy nową gałąź w Git, a następnie generuje plany MODIFICATION_DESIGN.md i IMPLEMENTATION.md. Dopiero po akceptacji projektu przez dewelopera (np. po wpisaniu „looks good”) przystępuje do generowania i wstrzykiwania kodu. Wprowadza to uporządkowany, agentowy przepływ pracy do codziennego developmentu.

    Poza tym rozszerzenie daje dostęp do narzędzi MCP server, które pozwalają na inspekcję działającej aplikacji – wybór widgetów, analizę błędów runtime czy zarządzanie hot reload. Działa też jako interfejs do pub.dev, umożliwiając wyszukiwanie pakietów i zarządzanie plikiem pubspec.yaml. Automatyzacja przed commitowaniem przez /commit, która uruchamia formatowanie, analizę i testy, to kolejna duża oszczędność czasu i gwarancja jakości.

    Efekt? Deweloper może przeprowadzić praktycznie cały proces prototypowania, code review i testowania z poziomu terminala, bez konieczności przełączania się do pełnego IDE, takiego jak VS Code. To istotne wzmocnienie dla koncepcji „vibe coding” i DevOps w świecie Fluttera.

    Nano Banana: Niszowa integracja dla specjalistycznych środowisk

    Podczas gdy rozszerzenie Flutter jest bogato udokumentowane, Nano Banana pojawia się w changelogach jako element rosnącego ekosystemu. Choć szczegóły jego komend nie są tak szeroko opisywane, integracja ta ma kluczowe znaczenie symboliczne i praktyczne.

    Pozycjonowane jako wczesny kompan dla Fluttera, rozszerzenie Nano Banana umożliwia wpięcie wyspecjalizowanych narzędzi Nano Banana bezpośrednio w sesję CLI sterowaną przez AI. Ułatwia to budowę hybrydowych pipeline'ów dla mobilnego i webowego DevOps, gdzie niszowe rozwiązania muszą współpracować z szerszym workflow.

    Wprowadzenie takich rozszerzeń pokazuje strategię Google: transformację Gemini CLI w platformę, którą deweloper może personalizować pod swoje potrzeby – podobnie jak zintegrowano już narzędzia od Conductor czy Firebase.

    Wnioski: Ekosystem zamiast pojedynczego narzędzia

    Dodanie rozszerzeń Flutter i Nano Banana to kamień milowy dla Gemini CLI. Przejście od pojedynczego narzędzia do rozszerzalnej platformy z równoległym ładowaniem dodatków otwiera nowe możliwości. Programiści zyskują nie tylko automatyzację boilerplate'u, ale i spójne, bezpieczne środowisko do zarządzania złożonymi zadaniami agentowymi – od generowania kodu z obrazu, przez refaktoryzację dużych baz kodu, po wdrażanie.

    Rozszerzenia te, działając w tandemie z silnikiem polityk bezpieczeństwa i wsparciem dla modeli Gemini 1.5 Flash/Pro z dużym oknem kontekstowym, realnie zmieniają sposób pracy. Nie chodzi już tylko o szybsze pisanie kodu, ale o zaprojektowanie całego procesu developmentu wokół współpracy z AI z poziomu jednego, centralnego punktu sterowania – terminala. Aktualizacja jest prosta: gemini extensions update. Warto śledzić ten trend, bo to właśnie w takiej modularności i integracji może tkwić przyszłość narzędzi deweloperskich.

  • Pushuj zdarzenia do działającej sesji za pomocą kanałów

    Pushuj zdarzenia do działającej sesji za pomocą kanałów

    To kluczowy mechanizm komunikacji w czasie rzeczywistym. W świecie programowania, szczególnie gdy pracujemy z asystentami AI takimi jak Claude Code, często pojawia się potrzeba reakcji na zdarzenia zewnętrzne – wiadomość od zespołu, wynik pipeline'u CI czy alert z systemu monitorowania. To właśnie tutaj pojawiają się kanały (channels) – technologia pozwalająca na przekazywanie komunikatów, alertów i webhooków bezpośrednio do Twojej działającej sesji Claude Code.

    Czym właściwie są kanały?

    Kanały to w istocie specjalne serwery MCP (Model Context Protocol), które pełnią rolę mostu komunikacyjnego. Pozwalają one na wypychanie (push) zdarzeń z platform zewnętrznych – takich jak Discord, Telegram czy systemy CI/CD – prosto do otwartego okna terminala, w którym pracujesz z Claude. To fundamentalna różnica w porównaniu z innymi metodami integracji, które często wymagają uruchomienia nowej sesji w chmurze lub biernego czekania na zapytanie.

    Działa to tak: gdy sesja Claude Code jest aktywna, kanał pozostaje w trybie nasłuchiwania. Kiedy na połączonej platformie pojawi się nowe zdarzenie (np. wiadomość na czacie), kanał natychmiast je pakuje i przesyła do Twojej sesji. Claude odbiera tę wiadomość, analizuje kontekst i może na nią zareagować – wykonując polecenie, analizując logi czy odpowiadając przez ten sam kanał. Cała komunikacja jest dwukierunkowa.

    Jak to działa w praktyce? Przykład Telegrama

    Załóżmy, że chcesz połączyć Claude Code z Telegramem. Proces jest prosty, choć wymaga kilku kroków konfiguracyjnych. Najpierw musisz stworzyć bota w Telegramie za pomocą BotFather – to standardowy mechanizm tej platformy. BotFather poda Ci token, który jest kluczem do autoryzacji.

    Następnie, w samej sesji Claude Code, instalujesz oficjalny plugin kanału Telegram komendą /plugin install telegram@claude-plugins-official. Po instalacji konfigurujesz go, podając wcześniej uzyskany token. Potem wystarczy zrestartować Claude Code z flagą --channels, wskazując na zainstalowany plugin. To uruchamia serwer kanału, który zaczyna nasłuchiwać wiadomości przychodzących do Twojego bota.

    Ostatni krok to sparowanie konta. Wysyłasz dowolną wiadomość do swojego bota na Telegramie, a ten odpowiada kodem parowania. Ten kod wprowadzasz w sesji Claude Code, łącząc w ten sposób tożsamość użytkownika. Od tej chwili, gdy napiszesz do bota na Telegramie, wiadomość pojawi się w terminalu, a Claude będzie mógł na nią odpowiedzieć – i ta odpowiedź wróci do Ciebie na Telegram.

    Dlaczego to użyteczne? Dwa główne przypadki

    Dlaczego to użyteczne? Dwa główne przypadki

    Wartość kanałów najlepiej widać w dwóch konkretnych scenariuszach użycia. Pierwszy to mosty czatowe. Wyobraź sobie, że jesteś poza biurem, ale masz dostęp do telefonu z Telegramem czy Discordem. Możesz wysłać do Claude pytanie: „Hej, jakie zmiany są obecnie w staged na branchu feature/auth?”. Wiadomość trafia przez kanał do działającej sesji na Twoim komputerze. Claude odczytuje ją, wykonuje komendę git status w odpowiednim katalogu roboczym i wynik wysyła z powrotem na Twój telefon. Pracujesz na rzeczywistym stanie swoich plików, bez potrzeby korzystania ze zdalnego pulpitu.

    Drugi scenariusz to odbiorniki webhooków. Tutaj kanał może nasłuchiwać na endpointach, na które dane wysyłają systemy zewnętrzne. Gdy pipeline CI zakończy build – sukcesem lub porażką – webhook z tą informacją trafia do kanału, a ten natychmiast przekazuje ją do Claude. Claude, mając otwarty dany projekt, może od razu przeanalizować logi błędów, zasugerować poprawki lub po prostu Cię poinformować. To automatyzacja reakcji na zdarzenia w czasie rzeczywistym.

    Bezpieczeństwo i kontrola dostępu

    Mechanizm kanałów został zaprojektowany z myślą o bezpieczeństwie. Podstawową ochroną jest lista dozwolonych nadawców (allowlist). Po sparowaniu konta Twój identyfikator z danej platformy (np. ID użytkownika Telegrama) trafia na tę listę. Tylko wiadomości od zatwierdzonych nadawców są przekazywane do sesji. Komunikaty od wszystkich innych osób są po cichu odrzucane.

    Dodatkową warstwą kontroli jest flaga --channels przy uruchamianiu Claude Code. Nawet jeśli plugin jest zainstalowany, musi zostać jawnie włączony dla danej sesji. Daje to pełną świadomość, które kanały są w danym momencie aktywne.

    W organizacjach (plany Team i Enterprise) administrator ma nadrzędną kontrolę poprzez ustawienie channelsEnabled w panelu zarządzania. Domyślnie w tych planach kanały są wyłączone i muszą zostać odblokowane przez administratora, zanim użytkownicy będą mogli z nich skorzystać.

    Różnica w stosunku do innych funkcji Claude Code

    Różnica w stosunku do innych funkcji Claude Code

    Claude Code oferuje kilka sposobów na interakcję z systemami zewnętrznymi, ale kanały zajmują wśród nich unikalne miejsce. Claude Code w przeglądarce uruchamia zadania w nowej, odizolowanej sesji w chmurze. To dobre rozwiązanie dla zadań, które można wykonać osobno. Claude w Slacku również tworzy nową sesję webową, ale inicjuje ją z poziomu wiadomości.

    • Standardowy serwer MCP działa na żądanie – Claude wysyła do niego zapytanie, gdy potrzebuje danych podczas wykonywania zadania. Nic nie jest „wypychane”. Zdalne sterowanie (Remote Control) pozwala kierować lokalną sesją z poziomu przeglądarki lub aplikacji mobilnej Claude.

    Kanały wypełniają lukę między tymi opcjami. Nie tworzą nowej sesji, lecz dostarczają zdarzenia do sesji, która już działa. To czyni je idealnymi do ciągłej, reaktywnej współpracy z istniejącym kontekstem i otwartymi plikami.

    Demo fakechat i co dalej?

    Dla osób, które chcą przetestować ten koncept bez konfigurowania zewnętrznych kont, dostępny jest oficjalny kanał demonstracyjny fakechat. Po instalacji pluginu i restarcie Claude z flagą --channels, w przeglądarce otwiera się prosty interfejs czatu pod adresem localhost:8787. Wszystko dzieje się lokalnie, bez potrzeby używania tokenów. To doskonały poligon do pierwszych eksperymentów.

    Jeśli chodzi o przyszłość, kanały są obecnie w fazie research preview. Oznacza to, że ich implementacja może ewoluować w oparciu o feedback społeczności. Aktualnie flaga --channels akceptuje tylko pluginy z oficjalnej, zatwierdzonej listy Anthropic. Dla deweloperów chcących budować własne kanały dla innych systemów dostępna jest opcja --dangerously-load-development-channels, przeznaczona właśnie do testów.

    Podsumowanie

    Kanały w Claude Code to potężne narzędzie, które zmienia sposób myślenia o interakcji z asystentem programistycznym. Przestaje on być zamknięty w oknie terminala, a staje się aktywnym uczestnikiem przepływu informacji w całym Twoim ekosystemie. Może odpowiadać na pytania zadane z telefonu, monitorować status wdrożeń i reagować na alerty – wszystko w kontekście pracy, którą aktualnie wykonujesz. To krok w stronę bardziej płynnej i zintegrowanej automatyzacji codziennych zadań deweloperskich.

  • OpenCode 1.2.27: wsparcie dla wielu okien i znaczny wzrost wydajności

    OpenCode 1.2.27: wsparcie dla wielu okien i znaczny wzrost wydajności

    Wydanie OpenCode w wersji 1.2.27, które zadebiutowało 16 marca 2026 roku, przynosi szereg poprawek i optymalizacji stabilizujących działanie narzędzia. To nie są jedynie kosmetyczne zmiany, lecz solidna aktualizacja, która wzmacnia fundamenty tego otwartoźródłowego asystenta kodowania AI.

    Popularność narzędzi do vibe coding, czyli programowania sterowanego promptami, rośnie lawinowo. Deweloperzy szukają rozwiązań, które nie tylko zrozumieją ich intencje, ale też pozwolą płynnie zarządzać złożonymi projektami. OpenCode odpowiada na te potrzeby, łącząc potężne zdolności agentowe z praktycznym interfejsem. Wersja 1.2.27 udowadnia, że twórcy projektu słuchają swojej społeczności.

    Stabilizacja i poprawki błędów

    Kluczową poprawką, która powstała dzięki zgłoszeniu społeczności, jest usunięcie błędu zaraportowanego przez użytkownika @luisfelipesena (#16814). Problem dotyczył utraty sesji po inicjalizacji repozytorium Git w istniejącym projekcie (git init). Wyobraźcie sobie sytuację: zaczynacie pracę z OpenCode w folderze, który nie jest jeszcze pod kontrolą wersji. Agent pomaga w pisaniu kodu, a potem decydujecie się dodać Gita. I nagle… cała sesja znika. Wersja 1.2.27 definitywnie rozwiązuje ten problem, co dla wielu procesów wytwórczych opartych na VCS jest nie do przecenienia.

    Kolejna istotna zmiana dotyczy rdzenia aplikacji. Przeprowadzono refaktoryzację ProviderAuthService oraz AuthService z użyciem wzorca Effect, co przekłada się na większą niezawodność i łatwiejsze utrzymanie kodu.

    Desktop nabiera blasku i szybkości

    Desktop nabiera blasku i szybkości

    Aktualizacja interfejsu użytkownika w aplikacji desktopowej to zestaw usprawnień, które zapewniają płynniejszą pracę.

    • Wybór modelu AI jest teraz trwale przypisany do sesji*. Jeśli w danej sesji pracujecie z konkretnym modelem, to przy kolejnym powrocie do niej ten wybór zostanie zachowany. To drobiazg, który eliminuje irytujące powtarzanie tej samej czynności.

    Dostrojono również kontrolki kompozytora promptów, czyli miejsca, w którym wpisujecie instrukcje dla AI. Działają one teraz bardziej responsywnie, co niweluje poczucie opóźnienia (latency). Naprawiono też uciążliwy błąd, przez który przewijanie tekstu „uciekało” poza pole wprowadzania promptu.

    Wizualnie otwieranie i zamykanie paska bocznego wzbogacono o subtelne animacje, które obejmują nawet elementy paska tytułowego. Poprawiono odstępy, kolory wskaźników ładowania oraz tła elementów listy. To właśnie te detale sprawiają, że aplikacja sprawia wrażenie dopracowanej.

    Stabilność i wsparcie dla ekosystemu

    Stabilność i wsparcie dla ekosystemu

    Wydanie zawiera również poprawki stabilizujące pracę w różnych środowiskach. Tryb fail-fast podczas instalacji zależności konfiguracyjnych w testach end-to-end pozwala szybciej wykryć problemy z budowaniem projektu (buildem). Dla użytkowników AWS poprawiono filtrowanie pustych bloków treści dla dostawcy Bedrock (poprawka @elithrar, #14586).

    Interfejs wiersza poleceń (CLI) został wzbogacony o nowe funkcje zarządzania, co ułatwia codzienną pracę. Z kolei w trybie tekstowym (TUI) uporządkowano listę dostawców przy logowaniu i usunięto zbędne ostrzeżenie dotyczące OpenRouter.

    Co ciekawe, w przygotowaniu tej aktualizacji brało udział kilku aktywnych współtwórców spoza głównego zespołu, takich jak @luisfelipesena, @elithrar i @ryanskidmore. Pokazuje to, jak kluczowy jest wkład społeczności – to właśnie ich zgłoszenia i poprawki doprowadziły do wyeliminowania najbardziej uciążliwych błędów.

    Co to oznacza dla Twojego workflow?

    Jeśli jesteś web deweloperem, te zmiany bezpośrednio wpłyną na Twoją codzienną pracę. Stabilniejsze działanie oznacza, że OpenCode będzie lepiej radzić sobie z dużymi projektami, zawierającymi tysiące plików i zależności.

    Dla entuzjastów sztucznej inteligencji i vibe coding refaktoryzacja usług autoryzacji to inwestycja w przyszłość. Czystsza architektura ułatwi dodawanie nowych modeli i dostawców, a także zapewni większą stabilność podczas długich, złożonych sesji z agentem.

    Z perspektywy DevOps naprawa problemów z Gitem, lepsze zarządzanie sesjami i ogólna stabilizacja sprawiają, że OpenCode staje się bardziej godnym zaufania narzędziem, które można włączyć w zautomatyzowany pipeline lub wykorzystać do utrzymania skomplikowanej infrastruktury.

    Podsumowanie

    Wydanie OpenCode 1.2.27 nie kusi krzykliwymi nowościami. Zamiast tego skupia się na fundamentalnych usprawnieniach: stabilności i ergonomii. Głębokie optymalizacje silnika i interfejsu przygotowują grunt pod dalszy rozwój.

    To aktualizacja, która świadczy o dojrzałości projektu. Zamiast gonić za kolejnymi, niedopracowanymi funkcjami, twórcy dopracowali podstawy. Efekt? Narzędzie, które nie tylko potrafi więcej dzięki AI, ale po prostu zapewnia lepszy komfort pracy. To prawdopodobnie najlepsza wiadomość dla wszystkich, którzy już używają OpenCode lub planują go wypróbować.

  • Kimi Code CLI 1.22.0: wygodniejsze wpisywanie i nowe menu poleceń

    Kimi Code CLI 1.22.0: wygodniejsze wpisywanie i nowe menu poleceń

    Rozwijający się ekosystem AI dla deweloperów nieustannie dostarcza nowych narzędzi, które integrują sztuczną inteligencję z codziennymi workflowami. Kimi Code CLI, terminalowy agent programistyczny z rodziny MoonshotAI, doczekał się wersji 1.21.0. To nie kolejny zwykły punkt w changelogu, ale zestaw konkretnych usprawnień, które znacząco poprawiają komfort pracy z długimi fragmentami tekstu, obrazami i nawigacją po poleceniach.

    Refaktoring zarządzania promptem: porządek w chaosie

    Najbardziej zauważalną zmianą dla użytkownika jest gruntowna przebudowa sposobu obsługi wprowadzanego tekstu. Głównym problemem w pracy z AI w terminalu był bałagan powstający po wklejeniu długiego kodu, konfiguracji czy logów. Prompt stawał się nieczytelny, przesuwany w nieskończoność, a kontekst rozmowy z agentem – rozmyty.

    Wersja 1.21.0 wprowadza mechanizm compact placeholders. Teraz, gdy wklejony tekst przekracza 300 znaków lub zawiera więcej niż 3 linie, Kimi Code CLI automatycznie zastępuje go w buforze wpisu krótkim tokenem: [Pasted text #n]. Pełna treść jest jednak w całości wysyłana do modelu AI, więc agent ma pełny kontekst do pracy. To rozwiązanie zachowuje klarowność promptu dla użytkownika, nie ograniczając możliwości analizy przez AI.

    Co ciekawe, ten placeholder nie jest tylko statycznym skrótem. Użytkownik może otworzyć go w zewnętrznym edytorze (np. za pomocą Ctrl-O), rozwinąć pełną treść, edytować ją i zapisać – a system ponownie zwinie ją do poręcznego tokena. To eleganckie połączenie czytelności i funkcjonalności.

    Drugą, równie istotną częścią refaktoringu jest obsługa obrazów ze schowka. Wklejanie screenshotów, diagramów czy grafik do promptu było możliwe, ale skutkowało wstawianiem długich, nieczytelnych ciągów danych. Teraz obrazy są automatycznie cache'owane na dysku, a w buforze promptu pojawia się jasny token [image:…]. Agent AI otrzymuje pełną grafikę jako kontekst, ale deweloper widzi tylko zwięzłą reprezentację. To rozwiązanie szczególnie przydatne w workflowach związanych z debugowaniem UI, analizą layoutu czy pracą z dokumentacją zawierającą zrzuty ekranu.

    Warto też wspomnieć o poprawce związanej z UTF-16 surrogate characters. To techniczny, ale ważny szczegół: dane kopiowane z niektórych aplikacji na Windowsie mogły zawierać specjalne znaki (lone surrogates), które powodowały błędy serializacji (UnicodeEncodeError) przy zapisie historii czy generowaniu JSON. Kimi Code CLI 1.21.0 sanitizuje te znaki przed przetworzeniem, eliminując źródło potencjalnych crashy i zwiększając stabilność pracy z różnymi źródłami tekstu.

    Nowe menu slash commands: pełna szerokość i opisy

    Interakcja z Kimi Code CLI w trybie shellowym często opiera się na poleceniach typu slash, takich jak /help, /setup, /plan czy /compact. Dotychczasowe menu wyboru było standardowym, ograniczonym popupem, który często nie wyświetlał pełnych opisów i wymagał pamiętania, co robi każda komenda.

    W tej wersji autouzupełnianie i menu zostały przeprojektowane na pełnowymiarowy, niestandardowy interfejs. Nowe menu zajmuje całą szerokość terminala, prezentując nie tylko nazwy poleceń, ale również ich wieloliniowe opisy. Dzięki temu deweloper może szybko przejrzeć wszystkie dostępne opcje wraz z ich funkcjonalnością bez konieczności zaglądania do dokumentacji. Menu obsługuje też podświetlanie i przewijanie, co przy długiej liście poleceń jest kluczowe dla ergonomii.

    Poprawka dotyczy też skutecznego kończenia procesów przy anulowaniu poleceń shellowych. Gdy w trakcie wykonywania polecenia (np. długiego builda czy testów) użytkownik je anuluje, Kimi Code CLI teraz jawnie zabija podproces, aby uniknąć pozostawiania procesów osieroconych (orphaned processes) w systemie. To ważne dla zarządzania zasobami i czystości środowiska, szczególnie przy intensywnej, wielozadaniowej pracy z agentem.

    Testy end-to-end: większa stabilność w shellowym PTY

    Część zmian w 1.21.0 jest niewidoczna dla użytkownika końcowego, ale fundamentalna dla długoterminowej stabilności produktu. Chodzi o dodanie kompleksowych testów end-to-end dla shellowego PTY (pseudo-terminal) i zarządzania sesjami.

    PTY jest kluczowym komponentem pozwalającym Kimi Code CLI na interakcję z systemową powłoką (bash, zsh) w sposób, który umożliwia AI wykonywanie poleceń, czytanie outputu i reagowanie na nie. Testy end-to-end symulują pełne scenariusze użycia, weryfikując, czy integracja z shellem, przekazywanie danych, zarządzanie sesjami i przywracanie sprawności po błędach działają zgodnie z oczekiwaniami. Wprowadzenie takich testów znacząco zwiększa pewność, że kolejne aktualizacje nie spowodują regresji w tych kluczowych obszarach, a operacje shellowe z asystą AI będą niezawodne.

    Kimi Code CLI w kontekście web dev, AI i DevOps

    Kimi Code CLI w kontekście web dev, AI i DevOps

    Kimi Code CLI nie jest tylko ciekawostką, ale praktycznym narzędziem w arsenale deweloperów, szczególnie tych pracujących w obszarach web developmentu, sztucznej inteligencji i DevOps. Instaluje się go standardowymi metodami dla Pythona, a jego główna wartość leży w integracji AI z natywnym terminalem.

    W trybie shellowym pozwala na wykonywanie poleceń z asystą AI, integrację jako plugin Zsh, obsługę Agent Client Protocol (ACP) dla IDE takich jak Zed oraz konfigurację narzędzi MCP dla usług zewnętrznych. Może analizować logi, sugerować poprawki w kodzie, pomagać w debugowaniu, a nawet – dzięki wprowadzonemu wcześniej Plan Mode – tworzyć strukturalne plany działania przed wdrożeniem zmian.

    Użycie jest intuicyjne: wchodzimy do katalogu projektu, uruchamiamy kimi, wykonujemy /setup i /help, a potem prowadzimy konwersację z agentem, który może edytować pliki, wykonywać polecenia i odpowiadać na pytania kontekstowe. Aktualizację do najnowszej wersji wykonujemy standardowymi metodami aktualizacji pakietów Python.

    Wydanie 1.21.0 jest częścią szybkiego cyklu rozwojowego MoonshotAI. Ekosystem jest powiązany z modelami Kimi, takimi jak seria K2, co zapewnia spójność w wykorzystaniu AI.

    Dlaczego te zmiany są ważne?

    Na pierwszy rzut oka poprawki w zarządzaniu promptem i menu mogą wydawać się kosmetyczne. W praktyce jednak rozwiązują realne problemy, które utrudniają flow deweloperów pracujących z AI w terminalu. Bałagan w prompcie rozprasza i utrudnia skupienie na zadaniu. Ograniczone menu poleceń wymaga ciągłego przypominania sobie funkcjonalności. Problemy z zabijaniem procesów prowadzą do niepotrzebnego zużycia zasobów.

    Wersja 1.21.0 eliminuje te punkty tarcia, czyniąc Kimi Code CLI bardziej przewidywalnym i ergonomicznym. Refaktoring obsługi promptów to nie tylko „lepsze wklejanie”, ale fundamentalne podejście do zarządzania kontekstem: oddzielenie reprezentacji dla człowieka od danych dla AI. Nowe menu slash commands to krok w stronę interfejsu samodokumentującego się, gdzie narzędzie uczy użytkownika swoich możliwości w trakcie pracy. Testy end-to-end są cichą gwarancją, że ta ergonomia nie rozsypie się przy kolejnych, bardziej złożonych funkcjach.

    Co to oznacza dla przyszłości?

    Wydanie 1.21.0 pokazuje wyraźny trend w rozwoju Kimi Code CLI: skupienie na stabilności i użyteczności, a nie tylko na dodawaniu kolejnych, ekspansywnych funkcji.

    To ważny sygnał dla całej kategorii agentów AI do kodowania. Sztuczna inteligencja w terminalu musi być nie tylko potężna, ale również wygodna i przewidywalna. Chaos w interfejsie odciąga uwagę od rozwiązywania problemów, a niestabilność podważa zaufanie. Kimi Code CLI 1.21.0 konsekwentnie usuwa źródła chaosu i niestabilności, umacniając swoją pozycję jako narzędzie, które nie tylko „może”, ale również „jest przyjemne w użyciu”.

    Dla deweloperów oznacza to, że integracja AI z codziennym workflowem w shellu staje się coraz płynniejsza. Możemy wklejać długie logi bez zapychania promptu, przeglądać polecenia bez zaglądania do dokumentacji i mieć pewność, że anulowanie zadania nie stworzy bałaganu w systemie. To właśnie takie, inkrementalne poprawki budują długoterminową adopcję i realną produktywność.

  • Cursor znacząco rozszerza możliwości rozwoju o nowe pluginy, automatyzacje i wsparcie JetBrains IDE

    Cursor znacząco rozszerza możliwości rozwoju o nowe pluginy, automatyzacje i wsparcie JetBrains IDE

    Marzec 2026 przyniósł programistom korzystającym z Cursor, jednego z wiodących narzędzi do AI-driven development, prawdziwą lawinę nowości. Trzy kluczowe aktualizacje – rozbudowa Marketplace o nowe pluginy, wprowadzenie Automations oraz integracja z JetBrains IDE – mają na celu usunięcie barier między agentami AI a codzienną pracą inżynierską. To nie są drobne poprawki, lecz strategiczne posunięcia, które zmieniają Cursor z zaawansowanego edytora w centrum sterowania zautomatyzowanymi workflow.

    Chodzi o to, by agent AI nie był jedynie biernym asystentem odpowiadającym na pytania, ale aktywnym uczestnikiem procesu, który potrafi samodzielnie wykonywać zadania w całym stacku technologicznym. Brzmi futurystycznie? Najnowsze funkcjonalności pokazują, że to już rzeczywistość.

    Rozwój Marketplace: agenci zyskują dostęp do narzędzi

    Najważniejszą zmianą jest rozwój Cursor Marketplace. Katalog został rozszerzony o nowe pluginy, które dają agentom Cursor możliwość działania w zewnętrznych narzędziach. To nie tylko kosmetyka – pluginy umożliwiają agentom czytanie, zapisywanie i wykonywanie akcji.

    Co to właściwie oznacza w praktyce? Można poprosić agenta o wykonanie złożonego, między-narzędziowego workflow. Wcześniej takie zadania wymagały ręcznej pracy. Teraz agent, wyposażony w odpowiednie pluginy, może zająć się tym samodzielnie.

    Pluginy to coś więcej niż prosty dostęp do API. Często są budowane w oparciu o MCP (Model Context Protocol) do łączenia z narzędziami zewnętrznymi, co zapewnia kontekst i logikę potrzebną do sensownego działania. Jak zauważono w komunikacie Cursor: „To, co ma największe znaczenie dla sukcesu agenta, to dostęp do odpowiednich narzędzi i kontekstu. Pluginy to zapewniają… użytkownicy zgłaszają, że to połączenie jest znacznie potężniejsze”.

    Można wyróżnić kilka kluczowych kategorii:

    • Narzędzia produktywności i zarządzania: Pluginy pozwalają agentom współdziałać z narzędziami do zarządzania projektami i wewnętrznymi bazami wiedzy.
    • Infrastruktura i DevOps: Integracje otwierają drogę do zarządzania pipeline’ami CI/CD, monitorowania i operacji bazodanowych.
    • AI i modele: Pluginy ułatwiają pracę z modelami machine learning.

    Dla zespołów pojawiła się też opcja tworzenia prywatnych, wewnętrznych pluginów, co pozwala na bezpieczne dzielenie się autorskimi integracjami.

    Automations: zawsze włączone agenty reagujące na zdarzenia

    Automations: zawsze włączone agenty reagujące na zdarzenia

    Jeśli pluginy dają agentom „ręce” do działania, to nowa funkcja Automations daje im „zegar” i „czujniki”. Umożliwia budowanie zawsze włączonych agentów, którzy uruchamiają się automatycznie na podstawie zdefiniowanych wyzwalaczy (triggers) i instrukcji.

    Wyzwalacze mogą być dwojakiego rodzaju:

    1. Harmonogramy (Schedules): Agent uruchamia się o określonej porze, np. co noc, by przeprowadzić automatyczne testy lub wygenerować raport.
    2. Zdarzenia (Events): Agent budzi się do działania, gdy wystąpi określona akcja w zewnętrznym systemie. Obsługiwane są różne źródła zdarzeń. Przykład? Nowy issue o wysokim priorytecie może automatycznie uruchomić agenta, który przeanalizuje kod, znajdzie potencjalne przyczyny i zasugeruje fix.

    Kiedy automatyzacja się uruchomi, agent działa w bezpiecznym, chmurowym środowisku, korzystając ze skonfigurowanych modeli AI i pluginów (MCP). Co kluczowe, ma też dostęp do narzędzia pamięci, które pozwala mu uczyć się na podstawie poprzednich uruchomień i z czasem poprawiać swoją skuteczność.

    To potężne narzędzie dla vibe coding oraz automatyzacji hostingu i DevOps. Zamiast ręcznie prosić AI o pomoc przy każdym deploymencie czy incydencie, można skonfigurować agenta, który będzie czuwał nad procesem i reagował samodzielnie.

    Cursor wchodzi do JetBrains IDE

    Dla ogromnej rzeszy programistów Java, Kotlin, Python czy JavaScript, którzy na co dzień pracują w IntelliJ IDEA, PyCharm czy WebStorm, najważniejszą nowością może być integracja. Cursor stał się oficjalnie dostępny we wszystkich JetBrains IDE dzięki ACP (Agent Client Protocol).

    ACP to protokół JetBrains, który pozwala zewnętrznym agentom AI działać natywnie wewnątrz ich środowisk. W praktyce oznacza to, że nie trzeba porzucać ulubionego, potężnego IDE JetBrains, aby korzystać z zaawansowanych zdolności agentowych Cursor. Wystarczy zainstalować Cursor ACP z rejestru agentów w pluginie AI Assistant i zalogować się na swoje konto Cursor.

    Integracja ta jest dostępna dla użytkowników Cursor. Co zyskują?

    • Dostęp do modeli frontierowych: Można wybierać modele AI bezpośrednio w IDE.
    • Połączenie dwóch światów: Głęboka analiza kodu, refaktoryzacja, debugging i wszystkie zaawansowane funkcje JetBrains spotykają się z agentycznymi workflow Cursor, takimi jak planowanie zadań czy iteracyjne rozwiązywanie problemów.
    • Bezpieczny indeks kodu: Cursor wykorzystuje bezpieczne indeksowanie i wyszukiwanie semantyczne, by rozumieć duże, korporacyjne codebase’y, co w połączeniu z inteligencją JetBrains daje potężny kontekst.

    To wyraźny sygnał, że przyszłość nie leży w zamkniętych ekosystemach, lecz w interoperacyjności.

    Podsumowanie: Cursor buduje mosty, nie ściany

    Te trzy równoległe aktualizacje – pluginy, automatyzacje i integracja z JetBrains – układają się w spójną strategię. Cursor nie chce być kolejną zamkniętą „twierdzą” dla rozwoju z AI. Zamiast tego stara się być łącznikiem i platformą, która integruje najlepsze narzędzia deweloperskie z najbardziej zaawansowanymi modelami AI.

    Pluginy łączą agentów ze światem zewnętrznym, Automations dają im autonomię czasową i reaktywną, a integracja z JetBrains ACP otwiera drzwi dla milionów programistów, którzy nie chcą rezygnować ze sprawdzonych środowisk. To podejście „otwartego ekosystemu” jest dziś kluczowe. Deweloperzy nie chcą być zamykani w jednym rozwiązaniu – chcą elastycznie komponować swoje workflow z najlepszych dostępnych komponentów.

    Efekt? AI przestaje być ciekawostką w osobnym okienku, a staje się integralną, działającą w tle częścią procesu wytwórczego – od zarządzania projektem, przez pisanie i code review, po monitorowanie infrastruktury. To krok w stronę realizacji wizji, w której deweloper jest bardziej architektem i przewodnikiem, a powtarzalne zadania wymagające kontekstu wykonują za niego zautomatyzowani, inteligentni asystenci.

  • Gemini CLI v0.34.0-preview.0: lepsze izolacja sandbox, poprawki UI i stabilność

    Gemini CLI v0.34.0-preview.0: lepsze izolacja sandbox, poprawki UI i stabilność

    Wydanie pre-release Gemini CLI, oznaczone jako v0.34.0-preview.4, przynosi ważne zmiany, które mogą znacząco poprawić doświadczenie użytkowników, szczególnie tych pracujących z AI w terminalu. To nie tylko kolejna iteracja – wprowadza eksperymentalne, ale kluczowe funkcje sandboxingu, solidne poprawki interfejsu oraz szereg poprawek stabilności, które wpływają na codzienną pracę. Jeśli używasz Gemini CLI do vibe codingu, automatyzacji DevOps czy szybkiego prototypowania, ta wersja jest warta uwagi.

    Rewolucyjny sandboxing: LXC i gVisor

    Jednym z najważniejszych, choć jeszcze eksperymentalnych elementów tej wersji, jest rozszerzenie możliwości sandboxingu. Sandbox, czyli izolowane środowisko wykonawcze, jest niezbędny do bezpiecznego testowania skryptów, uruchamiania nieznanych poleceń czy pracy z agentami AI, które mogą próbować wykonać niebezpieczne operacje.

    Do tej pory Gemini CLI oferował pewne mechanizmy izolacji, ale v0.34.0-preview.4 idzie o krok dalej. Po pierwsze, dodano eksperymentalne wsparcie dla kontenerów LXC. LXC (Linux Containers) to lekki system konteneryzacji, który pozwala stworzyć izolowane środowisko Linuxa bez narzutu pełnej maszyny wirtualnej. Dla deweloperów oznacza to możliwość uruchamiania poleceń czy skryptów w bezpiecznej „klatce”, która chroni główny system.

    Po drugie, pojawiła się integracja z gVisor (runsc). gVisor to sandbox runtime dla kontenerów, stworzony przez Google, który implementuje własny, minimalistyczny kernel w języku Go. Został zaprojektowany specjalnie do bezpiecznego izolowania aplikacji. Natywna integracja z gVisor w Gemini CLI daje jeszcze większą kontrolę i pewność podczas wykonywania operacji, które mogłyby potencjalnie naruszyć system.

    Te dwie technologie nie są jeszcze domyślnie włączone i wymagają odpowiedniej konfiguracji, ale ich pojawienie się w kodzie źródłowym pokazuje wyraźny kierunek rozwoju: Gemini CLI chce być bezpiecznym narzędziem nie tylko do interakcji z AI, ale także do automatyzacji i DevOps. Szczególnie w przypadku vibe codingu – gdzie agent AI może dynamicznie generować i testować kod – takie sandboxy są absolutną koniecznością.

    Szlifowanie interfejsu użytkownika

    Drugim dużym obszarem zmian jest interfejs. W aplikacjach terminalowych UX często jest niedoceniany, ale w Gemini CLI otrzymuje on ciągłe poprawki.

    Ciekawą nowością jest możliwość konfiguracji sandboxa w `settings.json`. Daje to większą kontrolę nad środowiskiem wykonawczym. Historia chatu została poprawiona, aby była bardziej przejrzysta i czytelna. Nawet generowane snapshoty SVG (używane np. do dzielenia się fragmentami pracy) otrzymały drobne, ale praktyczne ulepszenia.

    Poprawki rdzenia i stabilność

    Pod płaszczem nowych funkcji kryje się wiele poprawek stabilności, które bezpośrednio wpływają na niezawodność narzędzia.

    W długo działających sesjach pojawiało się ryzyko crashów związanych z Out of Memory (OOM). W v0.34.0-preview.4 wprowadzono poprawki optymalizujące zarządzanie pamięcią, które mają temu zapobiegać.

    Inne istotne bugfixy obejmują: autocomplete dla plików (poprawki dla ścieżek takich jak @scripts/copy_files.js, @file), refaktoryzację OAuth oraz zarządzanie extensions. Naprawiono także błąd AbortError w pętli strumieniowania (stream loop).

    Drobne, ale znaczące ulepszenia

    Warto wspomnieć o kilku innych zmianach, które składają się na lepszy user experience. Trackery zadań (task trackers) otrzymały zestaw narzędzi CRUD oraz poprawki wizualizacji, co pomaga w zarządzaniu zadaniami wewnątrz CLI. Agent przeglądarkowy został ulepszony poprzez emisję postępu, nakładkę (overlay) dla automatyzacji oraz dodatkowe testy integracyjne.

    Jak zainstalować i co dalej

    Jak zainstalować i co dalej

    Wersja v0.34.0-preview.4, jak wszystkie wydania preview, nie jest jeszcze uważana za całkowicie stabilną. Może zawierać eksperymentalne funkcje, które będą jeszcze dopracowywane. Instalacja odbywa się standardowo poprzez npm:

    npm install -g @google/gemini-cli@preview

    Warto zauważyć, że ta wersja jest częścią ciągłego cyklu rozwojowego Gemini CLI. Wcześniejsze nightly builds (jak v0.34.0-nightly.20260307) wprowadzały już różne zmiany. Wersja preview konsoliduje te usprawnienia i dodaje nowe.

    Znaczenie dla deweloperów

    Dla osób pracujących w obszarach web developmentu, AI, DevOps czy terminal-based workflows, ta wersja Gemini CLI przynosi konkretne korzyści. Sandboxing otwiera drogę do bezpiecznego testowania skryptów i automatyzacji generowanych przez AI. Poprawki UI sprawiają, że codzienna praca jest płynniejsza, a poprawki stabilności zmniejszają ryzyko utraty sesji czy problemów z autouzupełnianiem.

    Choć niektóre funkcje są jeszcze eksperymentalne, ich obecność pokazuje, że Gemini CLI nie jest tylko „chatbotem w terminalu”. Staje się kompleksowym narzędziem dla deweloperów, którzy chcą integrować AI z codziennymi workflowami, zachowując bezpieczeństwo i kontrolę.

    Podsumowanie

    Gemini CLI v0.34.0-preview.4 to solidny krok naprzód dla tego terminalowego agenta AI. Eksperymentalne sandboxy (LXC i gVisor) odpowiadają na realne potrzeby bezpieczeństwa w vibe codingu i automatyzacji DevOps. Szlifowanie interfejsu i liczne poprawki rdzenia – od zarządzania pamięcią po autocomplete – zwiększają niezawodność aplikacji w długotrwałych sesjach.

    To wydanie pokazuje, że projekt nie skupia się wyłącznie na nowych, spektakularnych funkcjach, ale także na fundamentach: stabilności, bezpieczeństwie i użyteczności. Dla deweloperów już korzystających z Gemini CLI aktualizacja do wersji preview może znacząco poprawić komfort pracy. Dla tych, którzy jeszcze go nie próbowali – to dobry moment, aby sprawdzić, jak terminalowe AI może być nie tylko potężne, ale także bezpieczne i przemyślane.

  • Kimi Code CLI wchodzi na nowy poziom: tryb planowania i wizualizacja sesji w wersji 1.19.0

    Kimi Code CLI wchodzi na nowy poziom: tryb planowania i wizualizacja sesji w wersji 1.19.0

    Narzędzia typu AI agent w terminalu stają się coraz bardziej zaawansowane, a najnowsza aktualizacja Kimi Code CLI to wyraźny tego dowód. Wersja 1.19.0 wprowadza kluczowe funkcje, które mogą zmienić sposób pracy z kodującym agentem. To nie tylko kosmetyczne poprawki, ale zmiany zwiększające kontrolę i zrozumienie działania całego systemu.

    Kimi Code CLI od Moonshot AI to narzędzie terminalowe, które działa jak interaktywny asystent programistyczny. Łączy w sobie chat z modelem Kimi K2.5, możliwość edycji kodu, wykonywania poleceń systemowych oraz integracji z IDE (takimi jak Zed) przez protokół MCP. Teraz, dzięki nowym funkcjom, staje się jeszcze bardziej transparentnym i przewidywalnym partnerem w pracy.

    Nowe narzędzia i komendy slash

    Najważniejszą nowością jest wprowadzenie nowych narzędzi i komend slash. To rozwiązanie odpowiada na potrzebę efektywnego zarządzania projektem i kodem. Agent może teraz korzystać z potężnych narzędzi read-only, takich jak:
    ** Glob – przeglądanie plików w katalogu roboczym.** Grep – przeszukiwanie zawartości plików.

    • ReadFile – odczytywanie konkretnych plików.

    Ponadto wprowadzono nowe komendy slash, w tym /export i /import, które pozwalają na eksport i import historii sesji do plików Markdown. Dzięki temu programista ma lepszy wgląd w strukturę projektu i może łatwiej zarządzać kontekstem swojej pracy.

    W praktyce oznacza to, że gdy poprosisz agenta o „dodanie funkcji logowania”, może on najpierw przejrzeć strukturę projektu za pomocą Glob, sprawdzić istniejące endpointy używając Grep, a następnie zaproponować, które pliki trzeba zmodyfikować i jaką logikę zaimplementować. Użytkownik może zaakceptować lub odrzucić ten tok myślenia, mając pełny wgląd w sytuację.

    Stabilność i płynność interakcji

    Aktualizacja 1.19.0 to nie tylko nowe funkcje. Zawiera też kluczowe poprawki stabilności, które wpływają na płynność pracy:

    • Naprawa zarządzania stanem streamowania sesji w interfejsie webowym: Poprawiono błędy związane z referencjami do wartości null podczas resetowania stanu. To techniczna, ale ważna zmiana, która zapobiega niespodziewanym awariom interfejsu.
    • Zachowywanie poleceń slash przy przełączaniu sesji: Wcześniej, podczas szybkiego przełączania się między sesjami, wpisane polecenie (np. /help) mogło na chwilę zniknąć z promptu. Teraz pozostaje na swoim miejscu, co poprawia komfort pracy.

    Te poprawki pokazują, że rozwój Kimi Code CLI idzie w parze z dbałością o detale i wygodę użytkownika.

    Kontekst: Kimi Code CLI na tle konkurencji

    Kontekst: Kimi Code CLI na tle konkurencji

    Aby zrozumieć znaczenie tej aktualizacji, warto spojrzeć na szerszy kontekst. Kimi Code CLI to jedna z kilku terminalowych „powłok” dla asystentów AI, obok takich narzędzi jak Claude Code czy Gemini CLI. Jego przewagami są niski koszt korzystania z API modelu Kimi K2.5 oraz integracja z popularnymi edytorami kodu.

    Sam model Kimi K2.5 to model typu Mixture of Experts (MoE). Choć nie oferuje tak ogromnego okna kontekstowego jak niektóre alternatywy (np. 1 milion tokenów), to jego wydajność i niski koszt czynią go atrakcyjnym wyborem do codziennego „vibe codingu” i zadań deweloperskich.

    Nowe funkcje z wersji 1.19.0 są odpowiedzią na ewoluujące potrzeby rynku. Narzędzia do odczytu bezpośrednio rozwiązują problem efektywnego przeszukiwania i analizy kodu, na który często wskazywała społeczność. Komendy /export i /import wychodzą naprzeciw potrzebie archiwizacji i udostępniania sesji, co jest kluczowe w profesjonalnych zastosowaniach.

    Co to oznacza dla programistów?

    Wprowadzenie nowych narzędzi i komend to coś więcej niż tylko dodanie nowych funkcji. To krok w kierunku bardziej efektywnej współpracy.

    Dla programisty praca z Kimi Code CLI staje się relacją z wydajnym partnerem. Można pozwolić agentowi na wykonanie żmudnej pracy, mając jednocześnie do dyspozycji lepsze narzędzia, aby nadać jej kierunek i zrozumieć kontekst. Znacznie zwiększa to efektywność interakcji.

    Podsumowanie

    Wydanie Kimi Code CLI w wersji 1.19.0 to znaczący krok w ewolucji terminalowych asystentów AI. Poprzez wprowadzenie nowych narzędzi do odczytu i komend zarządzania sesjami, narzędzie stawia na wydajność i kontrolę użytkownika. Funkcje te odpowiadają na realne wyzwania związane z używaniem autonomicznych agentów w codziennej pracy programistycznej, oferując praktyczne rozwiązania.

    W połączeniu z niskim kosztem użycia, integracjami z IDE i wsparciem dla protokołów takich jak MCP, Kimi Code CLI umacnia swoją pozycję jako dojrzałe narzędzie w ekosystemie AI dla deweloperów. Dynamiczne tempo rozwoju i reagowanie na feedback użytkowników to dobry prognostyk dla każdego, kto szuka sprawnego i przewidywalnego asystenta w terminalu.

  • Windsurf Editor prezentuje kluczowe aktualizacje: nowe modele AI i usprawnienia dla programistów

    Windsurf Editor prezentuje kluczowe aktualizacje: nowe modele AI i usprawnienia dla programistów

    Windsurf, popularny edytor kodu wspomagany sztuczną inteligencją, właśnie opublikował serię znaczących aktualizacji. Wydania z początku 2026 roku przynoszą nie tylko nowe, potężne modele językowe, ale też usprawnienia flagowych funkcji, takich jak Cascade i MCP. Te zmiany mają realny wpływ na codzienną pracę programistów webowych, inżynierów DevOps i każdego, kto zajmuje się nowoczesnym tworzeniem oprogramowania.

    Co dokładnie się zmieniło? Szczerze mówiąc, całkiem sporo. Od poprawy stabilności po nowe modele AI – aktualizacje dotykają praktycznie każdego aspektu edytora. Przyjrzyjmy się najważniejszym zmianom.

    Cascade: agent kodujący zyskuje nowe umiejętności

    Funkcja Cascade, czyli asystent AI, który pomaga pisać i refaktoryzować kod, przeszła istotne usprawnienia. Zespół poprawił niezawodność uruchamiania Cascade, co przekłada się na bardziej stabilne działanie.

    Co ciekawe, teraz Cascade lepiej radzi sobie też z automatycznym planowaniem. Funkcja "Automatic planning mode" działa bez konieczności ręcznego przełączania trybów, co płynniej prowadzi użytkownika przez proces od koncepcji do gotowego kodu.

    MCP: więcej integracji i lepsza stabilność

    Model Context Protocol (MCP) to mechanizm, który pozwala Windsurf komunikować się z zewnętrznymi narzędziami i serwisami. W najnowszych wersjach zyskał kilka praktycznych ulepszeń.

    Dla programistów pracujących z popularnymi narzędziami to dobra wiadomość. MCP obsługuje już integracje z 21 zewnętrznymi narzędziami, w tym z Figmą (5 integracji), Slackiem (7) i Stripe (9). To oznacza płynniejszą pracę przy projektowaniu interfejsów, komunikacji zespołowej czy implementacji płatności.

    Nowości w stajni modeli: GPT-5.1 i Codex

    Windsurf stale poszerza listę dostępnych modeli AI, a ostatnie wydania przyniosły nowe opcje. W lutym 2026 pojawiły się modele GPT-5.1 oraz GPT-5.1-Codex od OpenAI, wyposażone w funkcję zmiennego nakładu myślenia ("variable thinking feature"). Daje to programistom większą kontrolę nad balansem między szybkością a głębią analizy modelu.

    Lepsza wydajność i stabilność pod maską

    Podczas gdy nowe funkcje przyciągają uwagę, równie ważne są poprawki "pod maską". W najnowszych wydaniach zespół Windsurf wprowadził ponad 100 poprawek błędów, w tym usprawnienia dla trybu Vim i PowerShell.

    To konkretne ulepszenia dla programistów pracujących w różnych środowiskach. Poprawki stabilności przekładają się na płynniejszą pracę, mniej niespodziewanych zachowań i ogólnie lepsze doświadczenia z użytkowania (user experience).

    Poprawiono też stabilność interfejsu Cascade, szczególnie pod względem renderowania. Może nie brzmi to ekscytująco, ale w praktyce oznacza mniej zawieszeń i bardziej przewidywalne działanie, gdy agent AI pracuje nad złożonym zadaniem.

    Obsługa systemów ARM64: Windsurf dla nowej generacji sprzętu

    Warto wspomnieć o mniej spektakularnej, ale ważnej zmianie – pełnym wsparciu dla systemu Linux ARM64. Windsurf oferuje teraz pakiety .deb i .rpm dla tej architektury. To istotne, ponieważ coraz więcej deweloperów pracuje na komputerach z procesorami ARM, zarówno w przypadku Maców z chipami Apple Silicon, jak i rosnącej liczby maszyn z Linuxem na architekturze ARM.

    Dodanie oficjalnego wsparcia oznacza, że użytkownicy tych systemów nie muszą już polegać na emulacji czy kompilacji ze źródeł. To drobny, ale znaczący krok w kierunku pełnej dostępności edytora na wszystkich popularnych platformach.

    Co te zmiany oznaczają dla programistów?

    Patrząc na wszystkie te aktualizacje, widać wyraźny trend. Windsurf nie tylko dodaje nowe, efektowne funkcje, ale też konsekwentnie poprawia podstawowe doświadczenia użytkownika. Lepsza stabilność, poprawki w MCP, nowe modele AI – wszystko to realnie wpływa na codzienną produktywność.

    Dla programistów webowych szczególnie interesujące mogą być lepsze integracje z narzędziami takimi jak Figma i Stripe. Oznaczają one płynniejsze przejście od projektu do implementacji, a następnie do wdrożenia systemów płatności.

    Windsurf wyraźnie stawia na elastyczność. Nowe modele z opcją zmiennego myślenia dają użytkownikom kontrolę nad tym, jak chcą pracować z AI. Nie ma jednego, sztywnego schematu – każdy może dostosować edytor do swoich potrzeb i preferencji.

    Podsumowanie

    Najnowsze aktualizacje Windsurf Editor to nie tylko kosmetyczne poprawki czy kolejne modele AI do wyboru. To zestaw konkretnych usprawnień, które razem tworzą bardziej dopracowane, stabilne i użyteczne środowisko do programowania z asystentem AI.

    Od poprawionej stabilności Cascade po nowe modele z funkcją zmiennego myślenia, od szerokich integracji MCP po pełne wsparcie dla architektury ARM64 – zmiany dotyczą praktycznie każdego aspektu edytora. Dla programistów oznacza to mniej frustracji, większą płynność pracy i swobodę w wyborze narzędzi oraz metod działania.

    Windsurf zdaje się rozumieć, że w 2026 roku dobry edytor z AI to nie tylko silny model językowy w tle. To cały ekosystem – od stabilnych integracji z zewnętrznymi narzędziami, przez niezawodne działanie, po elastyczność w dostosowaniu do różnych workflow. Najnowsze aktualizacje idą właśnie w tym kierunku, łącząc nowe możliwości z solidnym dopracowaniem podstaw.