Tag: Terminal

  • Gemini CLI nabiera rozpędu: stabilna wersja 0.35.2 z klawiszami Vima i trybem Plan

    Gemini CLI nabiera rozpędu: stabilna wersja 0.35.2 z klawiszami Vima i trybem Plan

    Projekt Gemini CLI nie zwalnia tempa. Właśnie opublikowano nową stabilną wersję, która wprowadza długo wyczekiwane usprawnienia dla programistów, zwłaszcza fanów Vima. To jednak tylko część obrazu, bo równolegle trwają intensywne prace na kanale nightly, zwiastujące kolejne poważne zmiany w tej otwartoźródłowej konsolowej bramie do modeli Gemini. Wygląda na to, że narzędzie systematycznie przekształca się z ciekawostki w dojrzałe i potężne środowisko pracy.

    Stabilny fundament: co nowego w najnowszej wersji

    Najnowsza stabilna odsłona skupia się na tym, co najważniejsze: produktywności i elastyczności bezpośrednio w terminalu. Kluczową nowością jest pełna konfigurowalność skrótów klawiaturowych. Programiści mogą teraz definiować własne mapowania klawiszy, a także korzystać z wiązań dosłownych znaków. To ogromny krok w personalizacji, pozwalający dostosować interakcję z AI do indywidualnego, często bardzo ugruntowanego, workflow.

    Pod maską działa też usprawniony mechanizm kontekstowy. W dużym skrócie, narzędzia systemu plików ładują kontekst „w ostatniej chwili”. Dzięki temu model otrzymuje najbardziej aktualne i istotne informacje, bez konieczności natychmiastowego przesyłania wszystkich danych. Przekłada się to na lepszą wydajność i celność odpowiedzi.

    Ulepszenia dla użytkowników Vima

    Jedna z bolączek wcześniejszych wersji – ograniczony tryb Vima – doczekała się poprawek. W Gemini CLI dostępny jest vim mode, który można przełączać i który oferuje podstawową nawigację w trybach NORMAL i INSERT. Pozwala to na bardziej naturalną edycję osobom przyzwyczajonym do skrótów Vima.

    Dokumentacja wskazuje na ciągły rozwój tej funkcji, a społeczność zgłasza zapotrzebowanie na dodatkowe, zaawansowane mapowania klawiszy, takie jak operacje na znakach czy pełne wsparcie dla rejestrów. Obecna implementacja stanowi krok w kierunku lepszej integracji z workflow opartym na Vimie.

    Tryb Plan: architektoniczny asystent

    Do projektu trafił nowy tryb pracy o nazwie Plan Mode. To interesujące podejście do współpracy z AI. Tryb ten, dostępny w ustawieniach jako tryb zatwierdzania (plan approval mode), został zaprojektowany do analizy kodu i planowania zmian.

    Jak to działa w praktyce? Po aktywacji Gemini CLI może przeglądać kod, analizować zależności i planować skomplikowane zmiany, które wymagają recenzji i zatwierdzenia przez użytkownika przed wykonaniem. To jak sesja strategiczna, w której AI przedstawia plan działania, a programista decyduje, co i jak chce wdrożyć. Funkcja ta jest niezwykle przydatna do eksploracji nieznanego codebase'u lub planowania refaktoryzacji z zachowaniem pełnej kontroli.

    Kanał nightly: gdzie rodzi się przyszłość

    Kanał nightly: gdzie rodzi się przyszłość

    Podczas gdy gałąź stabilna oferuje dopracowane funkcje, prawdziwe laboratorium innowacji znajduje się w nightly builds. To tam testowane są najbardziej eksperymentalne pomysły, które często trafiają później do wersji preview, a ostatecznie do stabilnej. Obecny cykl rozwojowy jest wyjątkowo intensywny.

    Rozwijane są nowe funkcje, a system telemetrii jest stale ulepszany. Obsługa modeli jest poszerzana, oferując użytkownikom coraz więcej opcji w portfolio.

    Usprawnienia dla developerów

    Dla developerów pracujących ze skryptami przydatne mogą być różne flagi wyjścia, które pozwalają na bardziej strukturyzowaną interakcję z narzędziem. Praktyczne jest też bezpośrednie osadzanie kontekstu z plików w poleceniach, co eliminuje potrzebę ręcznego kopiowania kodu.

    Drobna, ale miła dla oka zmiana: wskaźniki trybów pomagają w orientacji, w jakim stanie znajduje się obecnie interfejs.

    Podsumowanie: konsekwentna droga do dojrzałości

    Gemini CLI rozwija się w sposób systematyczny. Projekt jasno rozdziela ścieżki: stable dla codziennej, niezawodnej pracy, preview do testowania nowości tuż przed premierą oraz nightly dla śmiałych eksperymentów. Najnowsze zmiany, takie jak konfigurowalne skróty i ulepszenia trybu Vima, to bezpośrednia odpowiedź na potrzeby społeczności.

    Jednocześnie prace nad nowymi trybami, takimi jak Plan, pokazują, że twórcy myślą o nowych paradygmatach współpracy z AI. Nie jest to już zwykły wrapper na API, a coraz bogatsze, samodzielne środowisko deweloperskie. Jeśli tempo i kierunek rozwoju się utrzymają, Gemini CLI może stać się nieodzownym narzędziem w terminalu każdego programisty, który chce mieć możliwości Geminiego zawsze pod ręką, bez odrywania się od klawiatury.

  • Kimi Code CLI 1.22.0: wygodniejsze wpisywanie i nowe menu poleceń

    Kimi Code CLI 1.22.0: wygodniejsze wpisywanie i nowe menu poleceń

    Rozwijający się ekosystem AI dla deweloperów nieustannie dostarcza nowych narzędzi, które integrują sztuczną inteligencję z codziennymi workflowami. Kimi Code CLI, terminalowy agent programistyczny z rodziny MoonshotAI, doczekał się wersji 1.21.0. To nie kolejny zwykły punkt w changelogu, ale zestaw konkretnych usprawnień, które znacząco poprawiają komfort pracy z długimi fragmentami tekstu, obrazami i nawigacją po poleceniach.

    Refaktoring zarządzania promptem: porządek w chaosie

    Najbardziej zauważalną zmianą dla użytkownika jest gruntowna przebudowa sposobu obsługi wprowadzanego tekstu. Głównym problemem w pracy z AI w terminalu był bałagan powstający po wklejeniu długiego kodu, konfiguracji czy logów. Prompt stawał się nieczytelny, przesuwany w nieskończoność, a kontekst rozmowy z agentem – rozmyty.

    Wersja 1.21.0 wprowadza mechanizm compact placeholders. Teraz, gdy wklejony tekst przekracza 300 znaków lub zawiera więcej niż 3 linie, Kimi Code CLI automatycznie zastępuje go w buforze wpisu krótkim tokenem: [Pasted text #n]. Pełna treść jest jednak w całości wysyłana do modelu AI, więc agent ma pełny kontekst do pracy. To rozwiązanie zachowuje klarowność promptu dla użytkownika, nie ograniczając możliwości analizy przez AI.

    Co ciekawe, ten placeholder nie jest tylko statycznym skrótem. Użytkownik może otworzyć go w zewnętrznym edytorze (np. za pomocą Ctrl-O), rozwinąć pełną treść, edytować ją i zapisać – a system ponownie zwinie ją do poręcznego tokena. To eleganckie połączenie czytelności i funkcjonalności.

    Drugą, równie istotną częścią refaktoringu jest obsługa obrazów ze schowka. Wklejanie screenshotów, diagramów czy grafik do promptu było możliwe, ale skutkowało wstawianiem długich, nieczytelnych ciągów danych. Teraz obrazy są automatycznie cache'owane na dysku, a w buforze promptu pojawia się jasny token [image:…]. Agent AI otrzymuje pełną grafikę jako kontekst, ale deweloper widzi tylko zwięzłą reprezentację. To rozwiązanie szczególnie przydatne w workflowach związanych z debugowaniem UI, analizą layoutu czy pracą z dokumentacją zawierającą zrzuty ekranu.

    Warto też wspomnieć o poprawce związanej z UTF-16 surrogate characters. To techniczny, ale ważny szczegół: dane kopiowane z niektórych aplikacji na Windowsie mogły zawierać specjalne znaki (lone surrogates), które powodowały błędy serializacji (UnicodeEncodeError) przy zapisie historii czy generowaniu JSON. Kimi Code CLI 1.21.0 sanitizuje te znaki przed przetworzeniem, eliminując źródło potencjalnych crashy i zwiększając stabilność pracy z różnymi źródłami tekstu.

    Nowe menu slash commands: pełna szerokość i opisy

    Interakcja z Kimi Code CLI w trybie shellowym często opiera się na poleceniach typu slash, takich jak /help, /setup, /plan czy /compact. Dotychczasowe menu wyboru było standardowym, ograniczonym popupem, który często nie wyświetlał pełnych opisów i wymagał pamiętania, co robi każda komenda.

    W tej wersji autouzupełnianie i menu zostały przeprojektowane na pełnowymiarowy, niestandardowy interfejs. Nowe menu zajmuje całą szerokość terminala, prezentując nie tylko nazwy poleceń, ale również ich wieloliniowe opisy. Dzięki temu deweloper może szybko przejrzeć wszystkie dostępne opcje wraz z ich funkcjonalnością bez konieczności zaglądania do dokumentacji. Menu obsługuje też podświetlanie i przewijanie, co przy długiej liście poleceń jest kluczowe dla ergonomii.

    Poprawka dotyczy też skutecznego kończenia procesów przy anulowaniu poleceń shellowych. Gdy w trakcie wykonywania polecenia (np. długiego builda czy testów) użytkownik je anuluje, Kimi Code CLI teraz jawnie zabija podproces, aby uniknąć pozostawiania procesów osieroconych (orphaned processes) w systemie. To ważne dla zarządzania zasobami i czystości środowiska, szczególnie przy intensywnej, wielozadaniowej pracy z agentem.

    Testy end-to-end: większa stabilność w shellowym PTY

    Część zmian w 1.21.0 jest niewidoczna dla użytkownika końcowego, ale fundamentalna dla długoterminowej stabilności produktu. Chodzi o dodanie kompleksowych testów end-to-end dla shellowego PTY (pseudo-terminal) i zarządzania sesjami.

    PTY jest kluczowym komponentem pozwalającym Kimi Code CLI na interakcję z systemową powłoką (bash, zsh) w sposób, który umożliwia AI wykonywanie poleceń, czytanie outputu i reagowanie na nie. Testy end-to-end symulują pełne scenariusze użycia, weryfikując, czy integracja z shellem, przekazywanie danych, zarządzanie sesjami i przywracanie sprawności po błędach działają zgodnie z oczekiwaniami. Wprowadzenie takich testów znacząco zwiększa pewność, że kolejne aktualizacje nie spowodują regresji w tych kluczowych obszarach, a operacje shellowe z asystą AI będą niezawodne.

    Kimi Code CLI w kontekście web dev, AI i DevOps

    Kimi Code CLI w kontekście web dev, AI i DevOps

    Kimi Code CLI nie jest tylko ciekawostką, ale praktycznym narzędziem w arsenale deweloperów, szczególnie tych pracujących w obszarach web developmentu, sztucznej inteligencji i DevOps. Instaluje się go standardowymi metodami dla Pythona, a jego główna wartość leży w integracji AI z natywnym terminalem.

    W trybie shellowym pozwala na wykonywanie poleceń z asystą AI, integrację jako plugin Zsh, obsługę Agent Client Protocol (ACP) dla IDE takich jak Zed oraz konfigurację narzędzi MCP dla usług zewnętrznych. Może analizować logi, sugerować poprawki w kodzie, pomagać w debugowaniu, a nawet – dzięki wprowadzonemu wcześniej Plan Mode – tworzyć strukturalne plany działania przed wdrożeniem zmian.

    Użycie jest intuicyjne: wchodzimy do katalogu projektu, uruchamiamy kimi, wykonujemy /setup i /help, a potem prowadzimy konwersację z agentem, który może edytować pliki, wykonywać polecenia i odpowiadać na pytania kontekstowe. Aktualizację do najnowszej wersji wykonujemy standardowymi metodami aktualizacji pakietów Python.

    Wydanie 1.21.0 jest częścią szybkiego cyklu rozwojowego MoonshotAI. Ekosystem jest powiązany z modelami Kimi, takimi jak seria K2, co zapewnia spójność w wykorzystaniu AI.

    Dlaczego te zmiany są ważne?

    Na pierwszy rzut oka poprawki w zarządzaniu promptem i menu mogą wydawać się kosmetyczne. W praktyce jednak rozwiązują realne problemy, które utrudniają flow deweloperów pracujących z AI w terminalu. Bałagan w prompcie rozprasza i utrudnia skupienie na zadaniu. Ograniczone menu poleceń wymaga ciągłego przypominania sobie funkcjonalności. Problemy z zabijaniem procesów prowadzą do niepotrzebnego zużycia zasobów.

    Wersja 1.21.0 eliminuje te punkty tarcia, czyniąc Kimi Code CLI bardziej przewidywalnym i ergonomicznym. Refaktoring obsługi promptów to nie tylko „lepsze wklejanie”, ale fundamentalne podejście do zarządzania kontekstem: oddzielenie reprezentacji dla człowieka od danych dla AI. Nowe menu slash commands to krok w stronę interfejsu samodokumentującego się, gdzie narzędzie uczy użytkownika swoich możliwości w trakcie pracy. Testy end-to-end są cichą gwarancją, że ta ergonomia nie rozsypie się przy kolejnych, bardziej złożonych funkcjach.

    Co to oznacza dla przyszłości?

    Wydanie 1.21.0 pokazuje wyraźny trend w rozwoju Kimi Code CLI: skupienie na stabilności i użyteczności, a nie tylko na dodawaniu kolejnych, ekspansywnych funkcji.

    To ważny sygnał dla całej kategorii agentów AI do kodowania. Sztuczna inteligencja w terminalu musi być nie tylko potężna, ale również wygodna i przewidywalna. Chaos w interfejsie odciąga uwagę od rozwiązywania problemów, a niestabilność podważa zaufanie. Kimi Code CLI 1.21.0 konsekwentnie usuwa źródła chaosu i niestabilności, umacniając swoją pozycję jako narzędzie, które nie tylko „może”, ale również „jest przyjemne w użyciu”.

    Dla deweloperów oznacza to, że integracja AI z codziennym workflowem w shellu staje się coraz płynniejsza. Możemy wklejać długie logi bez zapychania promptu, przeglądać polecenia bez zaglądania do dokumentacji i mieć pewność, że anulowanie zadania nie stworzy bałaganu w systemie. To właśnie takie, inkrementalne poprawki budują długoterminową adopcję i realną produktywność.

  • Kimi Code CLI 1.21.0: głębsza kontrola nad agentem i lepsze zarządzanie sesjami

    Kimi Code CLI 1.21.0: głębsza kontrola nad agentem i lepsze zarządzanie sesjami

    Wersja 1.21.0 narzędzia Kimi Code CLI przynosi zmiany, które wielu użytkowników nazywa przełomowymi. Nie chodzi tu o nowe, błyskotliwe funkcje, ale o solidną pracę nad fundamentami – sposobem, w jaki współpracujemy z asystentem AI w terminalu. To aktualizacja, która sprawia, że rozmowa z agentem przestaje być monologiem z przerwami na ładowanie, a zaczyna przypominać płynną, dynamiczną wymianę zdań z partnerem, który naprawdę słucha.

    Głównym autorem wszystkich kluczowych zmian w tej wersji jest użytkownik GitHub o nicku @RealKai42, którego serie pull requestów znacząco przeprojektowały interakcję z agentem.

    Sterowanie agentem w locie: koniec biernego oczekiwania

    Najważniejsza nowość to inline running prompt. Wcześniej, gdy agent (np. model AI) rozpoczął generowanie odpowiedzi czy wykonywanie zadania, użytkownik musiał cierpliwie czekać na zakończenie całej tury. Każda chęć doprecyzowania, zmiany kierunku lub odpowiedzi na pytanie agenta wymagała przerwania procesu lub oczekiwania na jego koniec.

    Wersja 1.21.0 burzy ten schemat. Teraz output agenta renderowany jest bezpośrednio w obszarze promptu, a użytkownik może w dowolnym momencie wpisać i wysłać kolejną wiadomość – tak zwaną komendę sterującą (steer). Może to być uzupełnienie instrukcji („zamiast tego użyj biblioteki X”), odpowiedź na pytanie agenta („tak, zatwierdzam usunięcie tego pliku”) lub całkowita zmiana kontekstu.

    Co kluczowe, dzieje się to bez przerywania generowania bieżącej odpowiedzi. Agent otrzymuje nasz nowy input i dynamicznie dostosowuje do niego swoje dalsze działanie. Mechanizm został przeprojektowany – zamiast sztucznych, „syntetycznych” wywołań narzędzi, nasze komunikaty sterujące są teraz dołączane jako zwykłe wiadomości użytkownika. To rozwiązanie eleganckie i bardziej kompatybilne z systemem wizualizacji oraz zapisywaniem kontekstu.

    W praktyce oznacza to, że jeśli agent zaczyna iść w niepożądanym kierunku, nie musimy już czekać, aż skończy, by to skorygować. Możemy od razu interweniować. To kolosalna różnica dla płynności pracy.

    Trwałe prompty systemowe i lepszy kontekst

    Kolejna istotna poprawka dotyczy zarządzania kontekstem sesji. Do tej pory prompt systemowy – czyli początkowe instrukcje definiujące rolę i sposób działania agenta – był traktowany jako coś ulotnego. Po restarcie sesji czy podczas jej analizy w narzędziach wizualizacyjnych ta kluczowa informacja mogła zostać utracona lub stać się nieczytelna.

    W 1.21.0 prompt systemowy jest na stałe zapisywany jako pierwszy wpis w pliku context.jsonl. Ma to dwie ogromne zalety. Po pierwsze, narzędzia do wizualizacji sesji (jak kimi vis) mogą teraz odczytać pełny kontekst konwersacji, łącznie z pierwotnymi założeniami. Po drugie, gdy sesja jest wznawiana, agent odzyskuje dokładnie te same początkowe instrukcje, zamiast próbować je odtwarzać lub działać bez nich. Zapewnia to znacznie większą spójność i przewidywalność działań agenta w dłuższym horyzoncie czasowym.

    Wizualizacja i zarządzanie sesjami bez wychodzenia z terminala

    Wizualizacja i zarządzanie sesjami bez wychodzenia z terminala

    Panel wizualizacji (kimi vis) również otrzymał przydatne ulepszenia. Dodano skróty do katalogów sesji bezpośrednio ze strony podglądu sesji. Użytkownik może teraz jednym kliknięciem otworzyć folder bieżącej sesji w eksploratorze plików swojego systemu (obsługa zarówno macOS, jak i Windows) lub skopiować ścieżkę do schowka (akcja „Copy DIR”).

    To może wydawać się drobnostką, ale dla deweloperów, którzy często analizują logi, ślady wykonania czy zapisane konteksty, jest to ogromne ułatwienie. Nie trzeba już ręcznie nawigować przez ukryte foldery w ~/.kimi/ – dostęp jest natychmiastowy.

    Dopracowanie szczegółów: logowanie, powiadomienia i replay sesji

    Dopracowanie szczegółów: logowanie, powiadomienia i replay sesji

    Reszta zmian w tej wersji to dopracowanie istniejących funkcji, które razem tworzą znacznie lepsze doświadczenie użytkownika (UX).

    • Lepsze logowanie: Proces konfiguracji klucza API został usprawniony. Podczas weryfikacji klucza wyświetlany jest teraz animowany spinner, a w przypadku błędu (np. wybrania złej platformy) system wyświetla bardziej pomocne komunikaty. Po udanym logowaniu pojawia się jasne podsumowanie konfiguracji.
    • Naprawione powiadomienia: Komenda aktualizacji wyświetlana w powiadomieniach typu „toast” jest teraz pobierana z jednej, stałej wartości, co eliminuje niespójności.
    • Ulepszony replay sesji: Mechanizm odtwarzania zapisanych sesji został poprawiony, aby poprawnie wyświetlać komunikaty sterujące (steer messages) wysłane podczas pracy agenta. Filtruje też wewnętrzne, techniczne komunikaty systemowe, przez co odtworzona konwersacja jest czystsza i bardziej zrozumiała.
    • Echo wpisanego tekstu: W trybie agenta, po wysłaniu wiadomości, prompt i nasz tekst są teraz wyświetlane (echo) w terminalu. Dzięki temu zapis rozmowy jest bardziej przejrzysty i przypomina naturalną wymianę zdań.

    Kimi Code CLI: kontekst dla deweloperów

    Dla tych, którzy nie mieli wcześniej styczności z tym narzędziem, warto przypomnieć, czym jest Kimi Code CLI. To open-source'owy agent AI działający w terminalu, stworzony przez MoonshotAI i wydany na licencji Apache 2.0. Jego filozofia opiera się na transparentności i kontroli – agent pomaga w zadaniach programistycznych (pisanie, edycja i analiza kodu, operacje shellowe, automatyzacja), ale cały jego proces myślowy, wywołania narzędzi i podjęte działania są widoczne dla użytkownika.

    CLI obsługuje integrację z IDE przez Agent Client Protocol (ACP) – można je skonfigurować np. w edytorze Zed. Posiada też tryb shell, w którym można wykonywać zwykłe polecenia systemowe, oraz wsparcie dla MCP (Model Context Protocol), co pozwala na rozszerzanie jego możliwości o zewnętrzne narzędzia i serwisy.

    Podsumowanie: ewolucja w kierunku płynnej współpracy

    Wersja 1.21.0 Kimi Code CLI nie rzuca się w oczy nowym sloganem czy marketingowym szumem. To aktualizacja dla praktyków – deweloperów, którzy na co dzień używają AI jako partnera w terminalu. Główne zmiany – sterowanie agentem w locie, trwały kontekst i usprawnienia wizualizacji – mają jeden wspólny mianownik: zmniejszają dystans i opóźnienia między intencją użytkownika a działaniem agenta.

    Dzięki temu praca z narzędziem staje się bardziej dynamiczna, interaktywna i w końcu przypomina prawdziwą współpracę, a nie asynchroniczne rzucanie zadań w próżnię. Te ulepszenia fundamentów są często ważniejsze niż kolejna nowa, choćby i spektakularna funkcja. Pokazują też dojrzałość projektu, który skupia się na jakości doświadczenia użytkownika, a nie tylko na rozbudowie listy możliwości.

  • Kimi Code CLI wchodzi na nowy poziom: tryb planowania i wizualizacja sesji w wersji 1.19.0

    Kimi Code CLI wchodzi na nowy poziom: tryb planowania i wizualizacja sesji w wersji 1.19.0

    Narzędzia typu AI agent w terminalu stają się coraz bardziej zaawansowane, a najnowsza aktualizacja Kimi Code CLI to wyraźny tego dowód. Wersja 1.19.0 wprowadza kluczowe funkcje, które mogą zmienić sposób pracy z kodującym agentem. To nie tylko kosmetyczne poprawki, ale zmiany zwiększające kontrolę i zrozumienie działania całego systemu.

    Kimi Code CLI od Moonshot AI to narzędzie terminalowe, które działa jak interaktywny asystent programistyczny. Łączy w sobie chat z modelem Kimi K2.5, możliwość edycji kodu, wykonywania poleceń systemowych oraz integracji z IDE (takimi jak Zed) przez protokół MCP. Teraz, dzięki nowym funkcjom, staje się jeszcze bardziej transparentnym i przewidywalnym partnerem w pracy.

    Nowe narzędzia i komendy slash

    Najważniejszą nowością jest wprowadzenie nowych narzędzi i komend slash. To rozwiązanie odpowiada na potrzebę efektywnego zarządzania projektem i kodem. Agent może teraz korzystać z potężnych narzędzi read-only, takich jak:
    ** Glob – przeglądanie plików w katalogu roboczym.** Grep – przeszukiwanie zawartości plików.

    • ReadFile – odczytywanie konkretnych plików.

    Ponadto wprowadzono nowe komendy slash, w tym /export i /import, które pozwalają na eksport i import historii sesji do plików Markdown. Dzięki temu programista ma lepszy wgląd w strukturę projektu i może łatwiej zarządzać kontekstem swojej pracy.

    W praktyce oznacza to, że gdy poprosisz agenta o „dodanie funkcji logowania”, może on najpierw przejrzeć strukturę projektu za pomocą Glob, sprawdzić istniejące endpointy używając Grep, a następnie zaproponować, które pliki trzeba zmodyfikować i jaką logikę zaimplementować. Użytkownik może zaakceptować lub odrzucić ten tok myślenia, mając pełny wgląd w sytuację.

    Stabilność i płynność interakcji

    Aktualizacja 1.19.0 to nie tylko nowe funkcje. Zawiera też kluczowe poprawki stabilności, które wpływają na płynność pracy:

    • Naprawa zarządzania stanem streamowania sesji w interfejsie webowym: Poprawiono błędy związane z referencjami do wartości null podczas resetowania stanu. To techniczna, ale ważna zmiana, która zapobiega niespodziewanym awariom interfejsu.
    • Zachowywanie poleceń slash przy przełączaniu sesji: Wcześniej, podczas szybkiego przełączania się między sesjami, wpisane polecenie (np. /help) mogło na chwilę zniknąć z promptu. Teraz pozostaje na swoim miejscu, co poprawia komfort pracy.

    Te poprawki pokazują, że rozwój Kimi Code CLI idzie w parze z dbałością o detale i wygodę użytkownika.

    Kontekst: Kimi Code CLI na tle konkurencji

    Kontekst: Kimi Code CLI na tle konkurencji

    Aby zrozumieć znaczenie tej aktualizacji, warto spojrzeć na szerszy kontekst. Kimi Code CLI to jedna z kilku terminalowych „powłok” dla asystentów AI, obok takich narzędzi jak Claude Code czy Gemini CLI. Jego przewagami są niski koszt korzystania z API modelu Kimi K2.5 oraz integracja z popularnymi edytorami kodu.

    Sam model Kimi K2.5 to model typu Mixture of Experts (MoE). Choć nie oferuje tak ogromnego okna kontekstowego jak niektóre alternatywy (np. 1 milion tokenów), to jego wydajność i niski koszt czynią go atrakcyjnym wyborem do codziennego „vibe codingu” i zadań deweloperskich.

    Nowe funkcje z wersji 1.19.0 są odpowiedzią na ewoluujące potrzeby rynku. Narzędzia do odczytu bezpośrednio rozwiązują problem efektywnego przeszukiwania i analizy kodu, na który często wskazywała społeczność. Komendy /export i /import wychodzą naprzeciw potrzebie archiwizacji i udostępniania sesji, co jest kluczowe w profesjonalnych zastosowaniach.

    Co to oznacza dla programistów?

    Wprowadzenie nowych narzędzi i komend to coś więcej niż tylko dodanie nowych funkcji. To krok w kierunku bardziej efektywnej współpracy.

    Dla programisty praca z Kimi Code CLI staje się relacją z wydajnym partnerem. Można pozwolić agentowi na wykonanie żmudnej pracy, mając jednocześnie do dyspozycji lepsze narzędzia, aby nadać jej kierunek i zrozumieć kontekst. Znacznie zwiększa to efektywność interakcji.

    Podsumowanie

    Wydanie Kimi Code CLI w wersji 1.19.0 to znaczący krok w ewolucji terminalowych asystentów AI. Poprzez wprowadzenie nowych narzędzi do odczytu i komend zarządzania sesjami, narzędzie stawia na wydajność i kontrolę użytkownika. Funkcje te odpowiadają na realne wyzwania związane z używaniem autonomicznych agentów w codziennej pracy programistycznej, oferując praktyczne rozwiązania.

    W połączeniu z niskim kosztem użycia, integracjami z IDE i wsparciem dla protokołów takich jak MCP, Kimi Code CLI umacnia swoją pozycję jako dojrzałe narzędzie w ekosystemie AI dla deweloperów. Dynamiczne tempo rozwoju i reagowanie na feedback użytkowników to dobry prognostyk dla każdego, kto szuka sprawnego i przewidywalnego asystenta w terminalu.

  • Kimi Code CLI zyskuje lepszą obsługę schowka, sesji i integracji z API

    Kimi Code CLI zyskuje lepszą obsługę schowka, sesji i integracji z API

    Ostatnie aktualizacje Kimi Code CLI – terminalowego agenta AI od MoonshotAI – to nie tylko rutynowe łatanie błędów. Rozwój tego open-source'owego narzędzia dla programistów wyraźnie przyspieszył, a wersje oznaczone numerami powyżej 0.40 wprowadzają konkretne ulepszenia w codziennej pracy. Chodzi o trzy kluczowe obszary: niezawodność interakcji w terminalu, zarządzanie sesjami i głębszą integrację z API. To drobne, na pozór techniczne zmiany, które realnie wpływają na płynność korzystania z AI jako asystenta kodowania.

    Stabilizacja podstawowych interakcji w terminalu

    Jednym z praktycznych obszarów ulepszeń jest stabilizacja interakcji w powłoce (shell). Wcześniejsze wersje, jak v0.40, kładły podwaliny pod tę niezawodność: dodano klawisz ESC do przerywania długich działań agenta, poprawiono debugowanie (/debug), renderowanie Markdown czy obsługę przerwania (Ctrl-C). Takie usprawnienia podstawowych mechanizmów są kluczowe dla narzędzi, które mają być używane intensywnie i bez frustracji.

    Obecne zmiany idą o krok dalej, usprawniając już nie samo działanie agenta, ale jakość interakcji i odporność na zakłócenia. To solidna inżynieria, która buduje zaufanie. Gdy programista powierza agentowi automatyzację zadań, musi mieć pewność, że narzędzie jest stabilne i przewidywalne.

    Sesja, która przetrwa: automatyczne ponawianie i zachowanie kontekstu

    Drugi filar aktualizacji to znacznie inteligentniejsze zarządzanie sesjami. Problemy z połączeniem sieciowym (WebSocket) to zmora każdej aplikacji działającej w czasie rzeczywistym. Wcześniej, po ponownym połączeniu (reconnect), użytkownik mógł stracić wpisane, ale jeszcze niewysłane polecenia z ukośnikiem (slash commands), takie jak /plan czy /debug.

    Teraz to się zmienia. CLI zachowuje te polecenia podczas ponownego łączenia, więc nie ma już irytujących przerw w działaniu czy potrzeby ponownego wpisywania komend. Może wydawać się to drobiazgiem, ale w praktyce oznacza płynniejszą pracę bez zbędnego rozpraszania uwagi.

    Dodano też automatyczną logikę ponawiania (retry) przy inicjalizacji sesji. Jeśli coś pójdzie nie tak podczas startu, narzędzie spróbuje ponownie, zamiast od razu przerywać pracę i wymagać interwencji użytkownika. To kolejny krok w stronę niezawodności, która jest niezbędna, gdy chcemy polegać na asystencie przy poważniejszych, wieloetapowych zadaniach.

    Głębsza integracja: identyfikator sesji trafia do API

    Trzecia istotna zmiana dzieje się pod maską, ale ma znaczenie dla rozwoju całej platformy. Rdzeń (core) Kimi Code CLI został ulepszony pod kątem integracji z API MoonshotAI, które jest jego głównym backendem. Takie usprawnienia w warstwie komunikacji świadczą o dojrzewaniu projektu i dbałości o szczegóły infrastrukturalne.

    Warto przypomnieć, że Kimi Code CLI jest zaprojektowany do pracy z rodziną modeli Kimi (np. potężnym Kimi K2.5), ale jego architektura pozwala na integrację z różnymi backendami. Dbałość o solidną i pełniejszą komunikację z modelem AI jest kluczowa dla spójności i możliwości audytu dłuższych interakcji.

    Kontekst rozwoju: agent, który czyta, pisze i planuje

    Kontekst rozwoju: agent, który czyta, pisze i planuje

    Żeby zrozumieć wagę tych aktualizacji, trzeba pamiętać, czym właściwie jest Kimi Code CLI. To nie jest kolejny chatbot w terminalu. To autonomiczny agent kodujący, który potrafi czytać i edytować pliki w całym projekcie, wykonywać polecenia systemowe, przeszukiwać internet (w zależności od konfiguracji) i samodzielnie planować wieloetapowe zadania.

    Jego siła leży w trybach Agent i Agent Swarm modelu Kimi, gdzie AI może zaplanować workflow (np. zbudowanie landing page'a), wybierając framework, generując kod i zarządzając zależnościami. W takim scenariuszu stabilność sesji oraz solidna integracja z backendem AI są po prostu niezbędne.

    Podsumowanie: małe kroki ku większej niezawodności

    W świecie narzędzi deweloperskich napędzanych przez AI, gdzie konkurencja jest duża (wspomnijmy choćby Cline, Cursor czy Windsurf), o przewadze często decydują detale. Ostatnie aktualizacje Kimi Code CLI skupiają się właśnie na nich: na tym, żeby problemy z siecią nie resetowały naszej pracy i żeby komunikacja z modelem AI była pełniejsza.

    To nie są „przełomowe innowacje” z pierwszych stron gazet, ale solidna inżynieria, która buduje zaufanie użytkownika.

    Rozwój Kimi Code CLI, sądząc po tempie wydawania wersji i konkretnej treści list zmian (changelogs), zmierza w dobrym kierunku – łączenia potężnych zdolności agentowych AI z dopracowaną, bezproblemową interakcją w terminalu. A to właśnie w terminalu wielu programistów wciąż spędza większość czasu.

  • Codex v0.112.0 wprowadza wzmianki @plugin i zaostrza bezpieczeństwo sandboxów

    Codex v0.112.0 wprowadza wzmianki @plugin i zaostrza bezpieczeństwo sandboxów

    Najnowsza wersja terminalowego asystenta programistycznego od OpenAI, Codex 0.112.0, to solidna aktualizacja skupiająca się na dwóch kluczowych obszarach: wygodzie integracji pluginów i bezpieczeństwie wykonywania narzędzi. Wydanie, które trafiło do użytkowników w marcu 2026 roku, nie przynosi rewolucyjnych zmian w interfejsie, ale za to subtelnie, acz znacząco, usprawnia codzienną pracę z AI w terminalu.

    Głównymi nowościami tej odsłony są możliwość bezpośredniego przywoływania pluginów w czacie za pomocą symbolu @ oraz fundamentalne zmiany w polityce sandboxów, które mają zapobiegać nieautoryzowanym działaniom. To ewolucja wpisująca się w trend rozbudowy ekosystemu Codexa – lekkiego agenta, który zdobył już sporą popularność wśród deweloperów.

    Łatwiejsza integracja: wywołaj plugin w rozmowie za pomocą @

    Jedną z bardziej praktycznych nowości jest funkcja @plugin mentions. Do tej pory korzystanie z funkcjonalności pluginów mogło wymagać pamiętania o specyficznych komendach lub kontekstach. Teraz, w trakcie rozmowy z Codexem w terminalu (TUI), wystarczy wspomnieć o pluginie, używając @nazwa_plugina.

    Na przykład, pisząc „@git jaki jest status mojego repozytorium?”, użytkownik automatycznie załącza kontekst związany z danym pluginem, aplikacją lub umiejętnością (skill). To małe, ale niezwykle przydatne udogodnienie, które sprawia, że praca z wieloma rozszerzeniami staje się bardziej płynna i intuicyjna. Zmiana ta (oznaczona w changelogu jako #13510) bezpośrednio odpowiada na potrzeby użytkowników, którzy chcą szybko przełączać się między różnymi narzędziami bez przerywania flow pracy.

    Poza tym zaktualizowano też katalog modeli w interfejsie TUI. Teraz wybór modelu podczas rozpoczynania sesji lepiej odzwierciedla aktualną ofertę OpenAI.

    Bezpieczeństwo przede wszystkim: nowa polityka sandboxów dla zsh-fork

    Jeśli integracja pluginów to kwestia wygody, to druga główna zmiana dotyczy fundamentów bezpieczeństwa. W wersji 0.112.0 połączono profile uprawnień wykonywalnych z polityką sandboxa na każdą turę (per-turn sandbox policy). To techniczne, ale kluczowe usprawnienie dotyczące wykonywania umiejętności typu zsh-fork.

    W skrócie: kiedy Codex uruchamia narzędzie systemowe lub skrypt, robi to w izolowanym środowisku (sandboxie). Dotychczasowe, oddzielne profile uprawnień zostały teraz scalone z główną polityką sandboxa dla danej operacji. Daje to bardziej spójny, addytywny (czyli kumulujący uprawnienia tylko w razie potrzeby) i przede wszystkim bezpieczniejszy model przyznawania dostępu. Sandbox stał się surowszy i bardziej przewidywalny, co minimalizuje ryzyko nieautoryzowanych działań podczas automatycznego wykonywania poleceń.

    Ta zmiana (o numerze #13496) pokazuje, że twórcy Codexa traktują bezpieczeństwo poważnie, szczególnie w kontekście agenta, który ma bezpośredni dostęp do systemu i może wykonywać polecenia. Jest to niezwykle istotne dla deweloperów i zespołów DevOps, którzy powierzają Codexowi automatyzację wrażliwych części workflow.

    Stabilność i izolacja: poprawki pod maską

    Oprócz dwóch flagowych funkcji, wydanie 0.112.0 naprawia szereg błędów i wzmacnia system. To właśnie te poprawki często decydują o tym, czy narzędzie jest po prostu dobre, czy też można na nim polegać w codziennej pracy.

    • Naprawiono obsługę stanu JS REPL*. REPL (Read-Eval-Print Loop) to interaktywne środowisko do uruchamiania kodu JavaScript, a problemy z zarządzaniem jego stanem mogły prowadzić do niespójnych wyników lub błędów. Teraz funkcja ta działa poprawniej.

    Kluczową poprawką jest też bezpieczne zamykanie serwera (graceful shutdown). Gdy aplikacja serwerowa Codexa otrzymuje sygnał SIGTERM (standardowy sygnał zamknięcia), traktuje go jak naciśnięcie Ctrl-C. Dzięki temu połączenia WebSocket zamykają się w uporządkowany sposób, a nie są gwałtownie przerywane. Pozwala to uniknąć potencjalnego uszkodzenia danych i zapewnia stabilność.

    Wzmocniono także bezpieczeństwo przesyłania obrazów w JS REPL. Funkcja emitImage została „utwardzona” i teraz akceptuje wyłącznie adresy URL zaczynające się od data:. Blokuje to możliwość przesyłania obrazów z zewnętrznych, potencjalnie niebezpiecznych źródeł, zamykając kolejną ewentualną lukę.

    Usprawnienia dla różnych systemów operacyjnych

    Usprawnienia dla różnych systemów operacyjnych

    Codex rozwija się jako narzędzie wieloplatformowe, stąd poprawki dotyczące specyfiki różnych systemów.

    W przypadku Linuxa usprawniono izolację za pomocą bubblewrap (narzędzia do tworzenia sandboxów). Poprawka (#13624) zapewnia, że przestrzenie nazw użytkownika (user namespaces) nie są współdzielone, co gwarantuje silniejszą izolację. Działa to niezawodnie nawet w sytuacjach, gdy Codex jest uruchamiany z uprawnieniami roota, co jest ważne w zaawansowanych scenariuszach DevOps.

    Dla użytkowników macOS naprawiono konfigurację sieci w sandboxie opartym na mechanizmie Seatbelt od Apple. Z kolei w wersji na Linuxa poprawiono ogólne ustawienia sieciowe sandboxa, aby działały bardziej przewidywalnie.

    Jak to wpisuje się w szerszy obraz Codexa?

    Wydanie 0.112.0 to kolejny krok po znaczących aktualizacjach z ostatnich miesięcy.

    Wersja 0.111.0 włączyła domyślnie tryb Fast (szybsze, ale mniej szczegółowe odpowiedzi), dodała dynamiczne importy w JS REPL i rozszerzyła możliwości pracy z obrazami. Z kolei 0.110.0 była dużą zmianą, wprowadzającą cały system pluginów z umiejętnościami i konektorami, trwały przełącznik trybu Fast, ulepszone „wspomnienia” (memories) oraz liczne poprawki stabilności.

    Codex ewoluuje z prostego, tekstowego bota do kodowania w pełnoprawny ekosystem. Kolejne wersje, jak 0.113.0, rozbudowują go dalej o zaawansowane przepływy pracy z pluginami.

    • Podsumowując*, Codex v0.112.0 to aktualizacja stawiająca na praktyczność i bezpieczeństwo. Wprowadzenie wzmianek @plugin upraszcza interakcję z rosnącą biblioteką rozszerzeń, czyniąc terminalowego asystenta bardziej elastycznym. Jednocześnie głębokie przebudowanie polityki sandboxów dla zsh-fork oraz liczne poprawki stabilności świadczą o dojrzałości projektu.

    Choć zmiany te nie rzucają się w oczy od razu, to właśnie takie udoskonalenia – poprawiające codzienną ergonomię i budujące zaufanie do bezpieczeństwa wykonywanych poleceń – są często najcenniejsze. Dla deweloperów, szczególnie tych zajmujących się web developmentem, AI i automatyzacją DevOps, Codex 0.112.0 oferuje płynniejsze i znacznie pewniejsze środowisko do „vibe codingu” bez wychodzenia z terminala.

  • Claude Code 2.1.71: Nowa Komenda Loop, Lepsze Bash I Naprawy Startu

    Claude Code 2.1.71: Nowa Komenda Loop, Lepsze Bash I Naprawy Startu

    Najnowsza aktualizacja Claude Code, oznaczona numerem 2.1, przynosi zestaw funkcji, które mogą zmienić sposób, w jaki korzystasz z asystenta AI w terminalu. Wydanie skupia się na trzech głównych obszarach: automatyzacji powtarzalnych zadań, poprawie płynności pracy z powłoką Bash oraz wyeliminowaniu błędów blokujących rozpoczęcie pracy. To solidne usprawnienie, które przynosi realne korzyści deweloperom.

    /loop – terminal zyskuje własny harmonogram zadań

    Najciekawszą nowością jest komenda /loop. Jej koncepcja jest prosta, ale potencjał ogromny – pozwala ona na cykliczne wykonywanie dowolnego polecenia lub promptu w regularnych odstępach czasu.

    Zamiast ręcznie uruchamiać te same sprawdzenia, możesz teraz ustawić je w tle. Przykład? loop 5m check the deploy będzie monitorować status wdrożenia co pięć minut. Składnia jest intuicyjna: podajesz przedział czasowy (s – sekundy, m – minuty, h – godziny, d – dni) oraz akcję do wykonania. Dla interwałów krótszych niż minuta system zaokrągla je w górę do pełnej minuty, co stanowi sensowne zabezpieczenie.

    Co ważne, system ma wbudowane zabezpieczenie przed „zapomnianymi” pętlami. Każde takie cykliczne zadanie wygasa automatycznie po trzech dniach. To eleganckie rozwiązanie problemu potencjalnego marnowania zasobów. /loop przekształca Claude Code z narzędzia do pojedynczych interakcji w aktywnego asystenta działającego w tle.

    Rozszerzone wsparcie Bash i mniej potwierdzeń

    Drugim filarem tej aktualizacji jest znacząca poprawa doświadczeń z powłoką Bash. Zespół rozszerzył tzw. „auto-approval allowlist”, czyli listę poleceń, dla których Claude Code nie wymaga od użytkownika ręcznego potwierdzenia przed wykonaniem.

    Na listę bezpiecznych, automatycznie akceptowanych komend trafiły między innymi:
    ** lsof – list open files** pgrep – process grep
    ** tput – terminal capabilities** ss – socket statistics

    • fd oraz fdfind – narzędzia do wyszukiwania plików.

    To głównie polecenia diagnostyczne lub odczytujące stan systemu, więc ich automatyczne wykonanie nie stanowi ryzyka. Efekt? Mniej przerw w pracy i rzadsze pojawianie się próśb o potwierdzenie. Praca w terminalu staje się płynniejsza.

    Dodano też nowy, natywny moduł parsujący Bash. Choć brzmi to technicznie, przekłada się na konkretne korzyści: szybszą inicjalizację sesji oraz – co kluczowe – brak wycieków pamięci. Poprawki w parserze Tree-sitter dodatkowo eliminują fałszywe alarmy, które powodowały niepotrzebne prośby o potwierdzenie przy użyciu konstrukcji takich jak find -exec czy przypisania do zmiennych.

    Koniec z zawieszaniem się przy starcie

    Trzecia, może mniej widowiskowa, ale niezwykle istotna część aktualizacji to stabilizacja. Wersja 2.1 naprawia kilka krytycznych błędów, które potrafiły zablokować uruchomienie programu lub sparaliżować pracę.

    Najważniejsze poprawki dotyczące startu i stabilności to:

    • Naprawa blokad przy inicjalizacji trybu głosowego – usunięto problemy, które uniemożliwiały niektórym użytkownikom korzystanie z funkcji głosowych.
    • Poprawki odświeżania tokenów OAuth – szczególnie dla łączników claude.ai, gdzie proces mógł zawiesić aplikację.
    • Rozwiązanie problemu z zawieszaniem się przy wielu zmianach w skillach – na przykład podczas wykonywania git pull w dużym katalogu .claude/skills/.
    • Optymalizacja ładowania procesora obrazów – przeniesienie tego na późniejszy etap startu, aby przyspieszyć uruchamianie.
    • Lepsze zarządzanie połączeniami – bridge rekonstruuje połączenie w kilka sekund po wybudzeniu komputera ze snu, zamiast czekać nawet 10 minut.

    Te zmiany sprawiają, że aplikacja startuje szybciej, jest bardziej responsywna i mniej podatna na nieoczekiwane zawieszenia.

    Masa drobnych usprawnień i poprawek

    Poza głównymi nowościami, wydanie 2.1 zawiera dziesiątki innych udoskonaleń. Według podsumowań to od 8 do 14 nowych funkcji oraz od 30 do 35 poprawek błędów.

    Warto zwrócić uwagę na kilka z nich:

    • /plan z argumentami – teraz możesz od razu przejść do trybu planowania z konkretnym zadaniem, wpisując np. /plan fix the bug.
    • Przeprojektowany /config – interfejs konfiguracji został odświeżony w celu poprawy użyteczności.
    • Nowa umiejętność /claude-api – dedykowane narzędzie do budowania aplikacji korzystających z API Claude.
    • Caching promptów – przywrócono poprawną pracę cache’owania w SDK, co w niektórych konwersacjach może zmniejszyć koszt tokenów wejściowych nawet 12-krotnie.
    • Poprawki w VS Code – lepsza responsywność przewijania, działający Shift+Enter, poprawiony wskaźnik „wysiłku” AI.
    • Lepsze zarządzanie sesjami i pluginami – naprawiono błędy z instalacją pluginów, dziedziczeniem ustawień w zespołach oraz błędy przy znakach Unicode.

    Drobna, ale znacząca zmiana: skrócono też interwał komendy /poll z 5 sekund do około 10 minut, redukując zbędny ruch sieciowy.

    Dlaczego ta aktualizacja ma znaczenie?

    Claude Code 2.1 może nie jest przełomem, ale stanowi doskonały przykład dojrzałego rozwoju oprogramowania. Zamiast wprowadzać niesprawdzone funkcje, zespół skupił się na dopracowaniu istniejących rozwiązań i dodaniu narzędzi wynikających z realnych potrzeb użytkowników.

    Komenda /loop bezpośrednio odpowiada na potrzebę automatyzacji i ciągłego monitorowania. Rozszerzenie listy autoakceptowanych komend Bash to reakcja na feedback o zbyt częstym przerywaniu flow pracy. A poprawki stabilności sprawiają, że narzędzie jest po prostu bardziej niezawodne.

    Wszystko to przekłada się na lepsze środowisko dla deweloperów zajmujących się web developmentem, AI, vibe codingiem, hostingiem czy DevOps. Szybszy, stabilniejszy terminal z AI, który potrafi samodzielnie powtarzać zadania i rzadziej zawraca głowę drobiazgami – to właśnie oferuje ta wersja. Aktualizacja pokazuje też szybkie tempo rozwoju Claude Code, gdzie znaczące wydania pojawiają się co kilka dni.

  • OpenCode v1.2.20 Naprawia Poważne Wycieki Pamięci i Usprawnia Terminal

    OpenCode v1.2.20 Naprawia Poważne Wycieki Pamięci i Usprawnia Terminal

    Najnowsza wersja terminalowego asystenta kodowania AI, OpenCode, skupia się na solidnych fundamentach. To nie jest aktualizacja o błyskotliwych nowych funkcjach, ale o krytycznych poprawkach stabilności, które bezpośrednio przekładają się na komfort i wydajność długotrwałej pracy. Głównymi bohaterami są załatane problemy oraz ulepszenia kompatybilności interfejsu terminalowego (TUI).

    Stabilniejsze Podstawy: Poprawki Jądra i Zarządzania

    Najważniejszym celem najnowszych wydań jest trwałe wzmocnienie stabilności jądra OpenCode. Deweloperzy skupiają się na eliminowaniu usterek, które mogłyby prowadzić do nieprzewidywalnego zachowania, spowolnień lub awarii podczas długich sesji kodowania. Dla użytkownika oznacza to stopniową eliminację problemów, przez które aplikacja z czasem stawałaby się coraz bardziej ociężała.

    Te poprawki zapewniają przewidywalne i oszczędne zarządzanie zasobami, co jest kluczowe dla profesjonalnego narzędzia używanego godzinami. To praca u podstaw, mająca na celu zbudowanie niezawodnego fundamentu pod wszystkie funkcje.

    Przywrócenie Interaktywności w Terminalu: stdin z powrotem na miejscu

    Kolejna istotna poprawka dotyczy interfejsu użytkownika w terminalu. W ostatnich wersjach przywrócono i udoskonalono poprawne odczytywanie standardowego wejścia (stdin) dla poleceń wymagających interaktywnego promptu. Wcześniej funkcje terminalowe mogły być zaburzone, co uniemożliwiało lub utrudniało reakcję na pytania zadawane przez asystenta w konsoli.

    Dla programisty pracującego w TUI to kluczowa sprawa. Gdy AI pyta: „Czy chcesz zastosować te zmiany?” lub „Którą opcję wybierasz?”, musi istnieć niezawodny sposób na udzielenie odpowiedzi. Usprawnienia w obszarze terminalu naprawiają ten przepływ, sprawiając, że dialog z asystentem w czystym terminalu znów jest płynny i bezproblemowy.

    Większa Niezależność i Kompatybilność: Refaktoryzacja ku Node.js

    Rozwój OpenCode idzie w kierunku zmniejszania zależności od specyficznych API środowiska Bun na rzecz bardziej uniwersalnych rozwiązań z ekosystemu Node.js. Najnowsze wersje kontynuują ten trend, zastępując wybrane API Bun ich standardowymi odpowiednikami.

    Ta zmiana, choć technicznie może wydawać się drobna, ma duże znaczenie dla kompatybilności krzyżowej i niezawodności. Używanie standardowych narzędzi i interfejsów zwiększa przewidywalność działania OpenCode na różnych systemach operacyjnych i konfiguracjach, redukując potencjalne problemy związane z niestandardowymi implementacjami.

    Szerszy Kontekst: Priorytetem jest Hartowanie Platformy

    Aktualizacje OpenCode nie istnieją w próżni. Są częścią szerszej fali prac, które pokazują kierunek rozwoju całej platformy. Deweloperzy skupiają się na etapie konsolidacji i hartowania.

    Te zmiany rysują obraz projektu, który wyszedł z fazy wprowadzania nowości i wszedł w etap wzmacniania podstaw. Twórcy OpenCode skupiają się na tym, aby narzędzie było przede wszystkim solidne, wydajne i działało tak samo dobrze niezależnie od systemu operacyjnego użytkownika.

    Dla Kogo Są Te Aktualizacje?

    Te usprawnienia to must-have dla każdego, kto używa OpenCode na poważnie. Jeśli zdarzało ci się pracować nad jednym projektem przez wiele godzin i zauważać niespójności w działaniu, to poprawki stabilizacyjne są właśnie dla ciebie. Jeśli wolisz pracę w czystym terminalu i irytowały cię zacięcia przy interaktywnych promptach, usprawnienia interfejsu terminalowego rozwiążą twój problem.

    To także dobra wiadomość dla zespołów pracujących w mieszanych środowiskach (macOS, Linux, Windows). Dążenie do używania standardowych API oraz poprawki związane z różnymi systemami świadczą o prawdziwym zaangażowaniu w obsługę wszystkich platform deweloperskich.

    Podsumowanie: Solidność Przed Nowinkami

    Najnowsze wydania OpenCode to aktualizacje, które mogą nie rozpromienić się nowymi, ekscytującymi funkcjami, ale za to znacząco podnoszą jakość codziennego użytkowania. Wzmacnianie stabilności jądra, przywrócenie kluczowej interaktywności w TUI oraz kolejny krok w uniezależnianiu się od specyficznych API – wszystkie te zmiany służą jednej rzeczy: zbudowaniu stabilnego, przewidywalnego i niezawodnego fundamentu pod dalszy rozwój.

    Pokazuje to zdrowy priorytet twórców: najpierw zapewnić, że podstawy są mocne, a dopiero potem budować na nich kolejne piętra funkcjonalności. Dla użytkowników oznacza to mniej frustracji, więcej płynności i spokojną pewność, że narzędzie nie zawiedzie w kluczowym momencie. W świecie narzędzi deweloperskich taka stabilność jest często cenniejsza niż tymczasowa sensacja nowej opcji.

  • GitHub Copilot CLI Wychodzi Z Publicznej Wersji Preview I Jest Już Ogólnie Dostępny

    GitHub Copilot CLI Wychodzi Z Publicznej Wersji Preview I Jest Już Ogólnie Dostępny

    Po kilku miesiącach intensywnego testowania i zbierania opinii od społeczności, GitHub ogłasza, że Copilot CLI – agent programistyczny działający natywnie w terminalu – osiągnął ogólną dostępność. Od 25 lutego 2026 roku narzędzie opuszcza fazę publicznego podglądu i staje się gotowym do produkcyjnego użytku rozwiązaniem dla wszystkich płacących subskrybentów Copilota. To nie jest zwykłe rozszerzenie linii poleceń, a raczej kompleksowe, agentowe środowisko programistyczne, które planuje, buduje, przegląda i pamięta między sesjami, bez konieczności opuszczania terminala.

    Od września 2025 roku, kiedy narzędzie trafiło do publicznego podglądu, zespół wprowadził setki ulepszeń. Efekt? Copilot CLI ewoluował z prostego asystenta w pełnoprawnego agenta, który może samodzielnie zarządzać złożonymi zadaniami.

    Agentowe Programowanie W Twoim Terminalu

    Sednem Copilot CLI jest przejście od reaktywnego chat-bota do proaktywnego agenta. Narzędzie nie tylko odpowiada na pytania, ale realnie wykonuje pracę: analizuje repozytorium, edytuje pliki, uruchamia komendy, testuje zmiany i iteruje, aż do osiągnięcia celu. Kluczową filozofią jest elastyczna kontrola. Decydujesz, jak dużo zaufania powierzasz agentowi.

    Dostępne są dwa główne tryby pracy. Tryb planowania aktywuje się kombinacją klawiszy Shift+Tab. W tym trybie Copilot najpierw analizuje twoje żądanie, zadaje doprecyzowujące pytania, a następnie tworzy szczegółowy plan implementacji – i to wszystko zanim napisze choć jedną linijkę kodu. Możesz ten plan przejrzeć, zaakceptować lub zmodyfikować, a dopiero potem zezwolić na wykonanie.

    Z kolei tryb autopilota przeznaczony jest dla zaufanych, rutynowych zadań. W tym trybie agent działa w pełni autonomicznie: wykonuje narzędzia, uruchamia polecenia i iteruje bez zatrzymywania się po każdym kroku o twoją aprobatę. To duża oszczędność czasu dla dobrze zdefiniowanych procesów.

    Co ciekawe, system automatycznie deleguje pracę do wyspecjalizowanych agentów wewnętrznych. Wszystko dzieje się pod spójnym interfejsem.

    Wybór Modelu AI I Rozszerzalność

    Jedna z najważniejszych nowości to wolność wyboru modelu językowego stojącego za agentem. Deweloperzy mogą teraz wybierać spośród flagowych modeli od czołowych dostawców. Model można zmieniać w trakcie sesji za pomocą komendy /model. To znosi wcześniejsze ograniczenia, które dotyczyły tylko użytkowników Enterprise i Pro+.

    Rozszerzalność to kolejny filar. Copilot CLI obsługuje Model Context Protocol (MCP), umożliwiając podłączanie agenta do zewnętrznych narzędzi i źródeł danych. Można instalować pluginy bezpośrednio z repozytoriów GitHub (/plugin install), definiować własne umiejętności (skills) w plikach markdown, a nawet tworzyć całkowicie niestandardowych agentów za pomocą kreatora lub plików .agent.md.

    Przegląd, Diff, Cofanie I Pamięć

    Przegląd, Diff, Cofanie I Pamięć

    Bezpieczne wprowadzanie zmian jest kluczowe. Copilot CLI ma wbudowane zaawansowane narzędzia do kontroli. Komenda /diff pokazuje wszystkie zmiany wprowadzone w trakcie sesji z kolorowym, składniowo podświetlonym podglądem inline. Można dodawać komentarze do konkretnych linii. /review analizuje przygotowane lub niezatwierdzone zmiany kodu, oferując szybką recenzję przed commitem.

    Pamięć agenta to przełomowe ulepszenie. Dzięki automatycznej kompaktacji, gdy rozmowa zbliża się do limitu kontekstu modelu, Copilot w tle kompresuje historię. Sesje teoretycznie mogą trwać w nieskończoność. Co ważniejsze, agent rozwija pamięć repozytorium i pamięć między sesjami. Uczy się konwencji, wzorców i preferencji twojego kodu, a potem wykorzystuje tę wiedzę w przyszłej pracy. Możesz go też pytać o zadania wykonane w poprzednich sesjach.

    Instalacja I Dopracowane Doświadczenie Terminalowe

    Copilot CLI jest dostępny na wszystkie główne systemy operacyjne: macOS, Linux i Windows. Zainstalujesz go przez npm, Homebrew, WinGet, skrypt instalacyjny lub pobierając samodzielny plik wykonywalny. Wersje z Homebrew i WinGet aktualizują się automatycznie. Narzędzie jest też domyślnie włączone w obrazie GitHub Codespaces i dostępne jako funkcja Dev Container.

    Od czasów publicznego podglądu interfejs terminala został mocno dopracowany. Tryb pełnoekranowy (Alt-screen) oferuje natywne wrażenia z myszką i przewijaniem. Agent szanuje twoją zmienną środowiskową $SHELL i oferuje pełne wsparcie skrótów klawiaturowych znanych z UNIX-a (jak Ctrl+A/E/W). Nie zapomniano też o dostępności – jest tryb czytnika ekranu i responsywny layout dla wąskich terminali.

    Gotowość Dla Przedsiębiorstw

    Gotowość Dla Przedsiębiorstw

    Dla organizacji GitHub przygotował zestaw funkcji zarządczych. Administratorzy mogą kontrolować dostępność modeli przez ustawienia polityk Copilota. Zarządzanie dostępem do sieci odbywa się przez dedykowane endpointy API dla subskrypcji. Narzędzie obsługuje proxy HTTPS oraz różne metody uwierzytelniania, w tym przepływ OAuth device flow i przyjazne dla CI/CD wykorzystanie GITHUB_ASKPASS.

    Dodatkowo, za pomocą hooków preToolUse można wdrożyć własne polityki, np. egzekwować zasady dostępu do plików czy wymuszać dodatkowe zatwierdzenia przed wykonaniem pewnych operacji.

    Jak Zacząć?

    Rozpoczęcie pracy jest proste. Po zainstalowaniu narzędzia i uwierzytelnieniu się na konto GitHub, wystarczy uruchomić komendę /init w katalogu projektu. Copilot CLI automatycznie przeanalizuje kod i wygeneruje instrukcje dostosowane do twojego środowiska. Od tego momentu możesz po prostu opisywać zadania, a agent będzie je realizował.

    Copilot CLI jest dostępny w ramach subskrypcji Copilot Pro, Pro+, Business oraz Enterprise. W przypadku planów Business i Enterprise administrator musi najpierw włączyć tę funkcję na stronie Polityk w ustawieniach organizacji.

    Podsumowanie

    Ogólna dostępność GitHub Copilot CLI to znaczący krok w ewolucji narzędzi AI dla deweloperów. To już nie tylko sugestie uzupełniania kodu w IDE, ale pełnoprawny współpracownik zrozumiały dla terminala, zdolny do prowadzenia złożonych, wieloetapowych prac developerskich. Połączenie wyboru modeli, rozszerzalności, między-sesyjnej pamięci i kontroli nad poziomem autonomii tworzy potężne narzędzie, które może znacząco przekształcić codzienny workflow programistów, skupiając cały cykl rozwoju – od planowania przez implementację po recenzję – w jednym, znanym i ulubionym środowisku: wierszu poleceń.

  • Qwen-Code v0.11.1: Większa Kontrola Agentów, Lepsza Kompatybilność i Stabilność

    Qwen-Code v0.11.1: Większa Kontrola Agentów, Lepsza Kompatybilność i Stabilność

    Projekt Qwen-Code, open-source’owy agent AI działający z terminala, właśnie opublikował nową, mniejszą aktualizację oznaczoną numerem 0.11.1-preview.0. To wydanie preview, które skupia się na doprecyzowaniu kluczowych funkcji, poprawie kompatybilności z edytorami kodu oraz zwiększeniu niezawodności działania w codziennej pracy programisty. Wersja stanowi uzupełnienie poprzedniego, głównego wydania 0.11.0.

    Z punktu widzenia użytkownika, ta aktualizacja to przede wszystkim mniej frustracji i więcej płynności. Chodzi o takie detale, jak lepsze zarządzanie limitami API, czytelniejszy dialog logowania czy nowy skrót klawiszowy do ponawiania błędnych zapytań. Qwen-Code, jako narzędzie wykorzystujące modele z serii Qwen do automatyzacji zadań programistycznych bezpośrednio w terminalu, właśnie dzięki takim usprawnieniom staje się bardziej przewidywalnym partnerem w pracy.

    Udoskonalenia Systemu Agentów i Kontekstu

    Jednym z kluczowych obszarów poprawy jest system agentów i zarządzanie kontekstem projektu. Qwen-Code coraz lepiej radzi sobie z dużymi bazami kodu, rozbijając zadania na mniejsze podzadania wykonywane przez tzw. subagentów.

    • AGENTS.md jako domyślny plik kontekstowy: Wersja 0.11.1-preview.0 wprowadza wsparcie dla pliku AGENTS.md jako domyślnego źródła kontekstu (#2018). To praktyczne udogodnienie dla zespołów chcących standaryzować zachowanie agenta w ramach projektu. Zamiast każdorazowo opisywać specyfikę kodu, można umieścić instrukcje w dedykowanym pliku Markdown w katalogu głównym repozytorium. Agent automatycznie weźmie go pod uwagę, co upraszcza zarządzanie złożonymi workflow’ami.
    • Wzmocnienie podagentów przez output-language.md: Poprawki autorstwa nowego współtwórcy, @zhangxy-zju, wzmacniają komunikację z subagentami (#1993). System teraz automatycznie dołącza zawartość pliku output-language.md do promptów systemowych podagentów, priorytetyzując ustawienia z poziomu projektu nad globalne. Dodatkowo wzmocniono sam szablon tego pliku, aby skuteczniej egzekwował wymagany język odpowiedzi. Dzięki temu cały łańcuch agentów działa spójniej i bardziej zgodnie z intencjami programisty.

    Niezawodność i Obsługa Błędów

    Praca z zewnętrznymi API modeli językowych wiąże się z wyzwaniami, takimi jak limity szybkości żądań (rate limits) czy niepełne odpowiedzi. Qwen-Code v0.11.1-preview.0 wprowadza kilka istotnych zabezpieczeń.

    • Lepsza obsługa limitów API: Dodano wsparcie dla konkretnego kodu błędu limitu szybkości 1305 oraz możliwość definiowania własnych kodów błędów, po których system powinien automatycznie ponowić żądanie (#1995). To techniczne, ale niezwykle praktyczne usprawnienie, które zmniejsza ryzyko nieoczekiwanego zatrzymania długotrwałego zadania z powodu chwilowego przekroczenia limitu.
    • Ochrona przed uciętymi wywołaniami narzędzi: Mechanizm wywoływania funkcji (tool calls) przez AI jest kluczowy dla interakcji z systemem plików czy Gitem. Naprawa (#2021) wprowadza mechanizm wykrywania i ochrony przed sytuacją, gdy odpowiedź modelu zostanie nieoczekiwanie ucięta w trakcie generowania takiego wywołania. Zapobiega to wykonywaniu uszkodzonych lub niepełnych instrukcji.
    • Wydzielenie ścieżki wykonania dla pojedynczych wywołań: Refaktoryzacja (#1999) wydziela osobną, uproszczoną ścieżkę wykonania dla zadań wymagających tylko jednego wywołania narzędzia. Takie podejście poprawia wydajność i ułatwia późniejsze debugowanie kodu.

    Lepsze Doświadczenie Deweloperskie: Logi, Skróty i Edytory

    Lepsze Doświadczenie Deweloperskie: Logi, Skróty i Edytory

    Aktualizacja przynosi też szereg zmian, które bezpośrednio przekładają się na komfort codziennej pracy z narzędziem.

    • Czystsze logi sesji: Wcześniej historie sesji mogły być zaśmiecone nadmiernymi, surowymi danymi ze strumieniowania odpowiedzi. Poprawka (#2041) redukuje tę nadmierną szczegółowość, dzięki czemu logi są czytelniejsze i bardziej przydatne podczas analizowania przebiegu zadania.
    • Nowy skrót klawiszowy Ctrl+Y: To proste, ale genialne ułatwienie (#2011). Gdy żądanie do AI zakończy się niepowodzeniem (np. z powodu błędu sieci), zamiast przepisywać prompt, można po prostu wcisnąć Ctrl+Y, aby je natychmiast ponowić. Oszczędza to czas i nerwy.
    • Ulepszony interfejs dialogu uwierzytelniania: Proces logowania i konfiguracji kluczy API stał się bardziej intuicyjny dzięki przejrzystemu układowi z trzema opcjami (#2030). Mniej pomyłek, szybsze rozpoczęcie pracy.
    • Naprawa kompatybilności z edytorem Zed: Dla użytkowników nowoczesnego, wydajnego edytora Zed to ważna wiadomość. Poprawka (#2017) autorstwa @Mingholy rozwiązuje problemy z kompatybilnością protokołu ACP (Agent Client Protocol), zapewniając płynną współpracę między Qwen-Code a tym edytorem.

    Pozostałe Poprawki i Kontekst

    Pozostałe Poprawki i Kontekst

    Wydanie obejmuje także inne techniczne usprawnienia. Dodano domyślne ustawienia dla modalności (obsługa plików PDF i innych mediów), aby zapobiec błędom API (#1982), oraz zaktualizowano instrukcje instalacji (#1994).

    Warto pamiętać, że Qwen-Code to narzędzie typu CLI napisane w Node.js (wymagana wersja 20+). Wspiera wieloprotokołowe API (kompatybilne z OpenAI, Anthropic, Gemini oraz natywne Qwen OAuth z darmowym limitem 1000 żądań dziennie). Jego moc to automatyzacja: refaktoryzacja dużych baz kodu, generowanie dokumentacji, zarządzanie workflow Git (PR, rebase) czy integracja z narzędziami jak Google Drive (przez MCP) lub Jira.

    Podsumowanie

    Qwen-Code v0.11.1-preview.0 nie jest przełomowym wydaniem, które dodaje zupełnie nowe, rewolucyjne funkcje. Jest za to doskonałym przykładem dojrzałości projektu, który skupia się na tym, co najważniejsze: stabilności, niezawodności i dopracowaniu detali ergonomii.

    Dla obecnych użytkowników aktualizacja oznacza po prostu lepsze, mniej awaryjne doświadczenie. Dla osób rozważających wdrożenie Qwen-Code do swojego workflow, to kolejny argument, że projekt jest aktywny, responsywny na feedback i systematycznie eliminuje bariery w codziennym użyciu. Poprawki w systemie agentów, lepsza obsługa błędów API oraz ulepszenia współpracy z edytorami takimi jak Zed pokazują, że rozwój idzie w dobrym, praktycznym kierunku, stawiając na solidność i kontrolę programisty nad procesem automatyzacji.