Google wydało nową nocną wersję swojego narzędzia AI działającego w terminalu — Gemini CLI v0.39.0-nightly.20260409. Aktualizacja koncentruje się na zwiększeniu kontroli użytkownika nad agentem, poprawie wydajności systemu oraz usunięciu kilku kluczowych błędów, które utrudniały pracę. Dla deweloperów i entuzjastów web devu oraz AI oznacza to bardziej stabilne i przewidywalne środowisko pracy bezpośrednio z linii poleceń.
Wśród najważniejszych zmian widać wyraźny nacisk na bezpieczeństwo operacji. Tryb Plan, w którym AI może autonomicznie planować zadania, teraz wymaga od użytkownika ręcznego potwierdzenia przed aktywacją każdej umiejętności. To istotna zmiana, która pozwala na lepszą kontrolę nad bardziej złożonymi, automatycznymi workflow. Dopracowano także formatowanie wyjścia narzędzi oraz obsługę klawiszy w Windows Terminal, rozwiązując problem z usuwaniem całych słów za pomocą Ctrl+Backspace.
Kluczowe zmiany w nocnej wersji 0.39.0
Wzmocniona kontrola w trybie Plan: Wprowadzono obowiązkowe potwierdzenie użytkownika dla aktywacji umiejętności, co daje większą władzę nad działaniami agenta.
Poprawki dla Windows Terminal i stabilności sesji: Naprawiono błąd uniemożliwiający usuwanie całych słów (Ctrl+Backspace) w Windows Terminal oraz problemy z wznawianiem zawieszonych sesji.
Wydajność i optymalizacja: Dodano nowe mechanizmy testowania zużycia pamięci i CPU, aby zapobiegać regresjom wydajności.
Bezpieczeństwo sandboxa: Wdrożono refaktoryzację sandboxa Seatbelt dla macOS oraz naprawiono problemy z symlinkami na Windows, co zwiększa izolację i bezpieczeństwo wykonywanych operacji.
Ta nocna wersja to nie tylko poprawki, ale także rozwój infrastruktury testowej. Zespół dodał zaawansowane testy integracyjne mierzące zużycie pamięci i wydajność procesora, co pokazuje dbałość o długoterminową stabilność projektu.
Dla użytkowników oznacza to bardziej responsywne działanie CLI. Szczególnie ważna dla programistów pracujących na Windowsie jest poprawka w Windows Terminal, która przywraca intuicyjne edytowanie linii poleceń.
Rozwój ekosystemu i przyszłość
Wydanie wpisuje się w szerszy trend rozwoju Gemini CLI jako platformy. Widać inwestycję w rozszerzalność i dalsze prace nad integracją z MCP serverami. Projekt, będący open source, aktywnie rozwija społeczność, co potwierdza długa lista pull requestów od wielu kontrybutorów.
Choć wersja nightly jest przeznaczona dla użytkowników chcących testować najnowsze, czasem niestabilne funkcje, to wprowadzone w wersji 0.39.0 poprawki są niezwykle praktyczne. Niektóre z nich, jak naprawa Ctrl+Backspace na Windowsie, były wyczekiwane przez długi czas. To pokazuje, że zespół nie tylko dodaje nowe, eksperymentalne możliwości, ale także słucha społeczności i troszczy się o codzienny komfort pracy.
Dla deweloperów zainteresowanych AI, web devem czy automatyzacją zadań devopsowych, Gemini CLI staje się coraz bardziej dojrzałym narzędziem. Ta nocna aktualizacja, skoncentrowana na kontroli i wydajności, to krok w kierunku zapewnienia stabilności potrzebnej do profesjonalnego wykorzystania AI w terminalu. Warto obserwować dalsze zmiany, zwłaszcza w stabilnych wydaniach, które powinny wkrótce wchłonąć te ulepszenia.
Ekosystem Gemini CLI, narzędzia do pracy z agentami AI z poziomu terminala, znacząco się rozrasta. Po wprowadzeniu nowych funkcji przyszedł czas na zwiększenie użyteczności dla programistów. Nowe rozszerzenia – Flutter i Nano Banana – pozwalają bezpośrednio wpiąć specjalistyczne narzędzia deweloperskie w workflow sterowany przez AI, oferując konkretne korzyści w zakresie budowy aplikacji i automatyzacji.
Dostępne przez proste komendy instalacyjne, jak gemini extensions install https://github.com/gemini-cli-extensions/flutter, dodatki te przekształcają Gemini CLI w konfigurowalne centrum AI. To nie tylko teoretyczne ciekawostki, ale realne narzędzia przyspieszające codzienne zadania.
Praktyczna rewolucja dla programistów Flutter
Rozszerzenie Flutter zapewnia kompleksowe wsparcie dla całego cyklu życia aplikacji – od bootstrapowania projektu po commity i zarządzanie zależnościami. Szczególnie interesujący jest sposób, w jaki automatyzuje ono kluczowe fazy pracy.
Na przykład komenda /modify, służąca do implementacji nowych funkcjonalności, działa w przejrzysty, zatwierdzany przez użytkownika sposób. Tworzy nową gałąź w Git, a następnie generuje plany MODIFICATION_DESIGN.md i IMPLEMENTATION.md. Dopiero po akceptacji projektu przez dewelopera (np. po wpisaniu „looks good”) przystępuje do generowania i wstrzykiwania kodu. Wprowadza to uporządkowany, agentowy przepływ pracy do codziennego developmentu.
Poza tym rozszerzenie daje dostęp do narzędzi MCP server, które pozwalają na inspekcję działającej aplikacji – wybór widgetów, analizę błędów runtime czy zarządzanie hot reload. Działa też jako interfejs do pub.dev, umożliwiając wyszukiwanie pakietów i zarządzanie plikiem pubspec.yaml. Automatyzacja przed commitowaniem przez /commit, która uruchamia formatowanie, analizę i testy, to kolejna duża oszczędność czasu i gwarancja jakości.
Efekt? Deweloper może przeprowadzić praktycznie cały proces prototypowania, code review i testowania z poziomu terminala, bez konieczności przełączania się do pełnego IDE, takiego jak VS Code. To istotne wzmocnienie dla koncepcji „vibe coding” i DevOps w świecie Fluttera.
Nano Banana: Niszowa integracja dla specjalistycznych środowisk
Podczas gdy rozszerzenie Flutter jest bogato udokumentowane, Nano Banana pojawia się w changelogach jako element rosnącego ekosystemu. Choć szczegóły jego komend nie są tak szeroko opisywane, integracja ta ma kluczowe znaczenie symboliczne i praktyczne.
Pozycjonowane jako wczesny kompan dla Fluttera, rozszerzenie Nano Banana umożliwia wpięcie wyspecjalizowanych narzędzi Nano Banana bezpośrednio w sesję CLI sterowaną przez AI. Ułatwia to budowę hybrydowych pipeline'ów dla mobilnego i webowego DevOps, gdzie niszowe rozwiązania muszą współpracować z szerszym workflow.
Wprowadzenie takich rozszerzeń pokazuje strategię Google: transformację Gemini CLI w platformę, którą deweloper może personalizować pod swoje potrzeby – podobnie jak zintegrowano już narzędzia od Conductor czy Firebase.
Wnioski: Ekosystem zamiast pojedynczego narzędzia
Dodanie rozszerzeń Flutter i Nano Banana to kamień milowy dla Gemini CLI. Przejście od pojedynczego narzędzia do rozszerzalnej platformy z równoległym ładowaniem dodatków otwiera nowe możliwości. Programiści zyskują nie tylko automatyzację boilerplate'u, ale i spójne, bezpieczne środowisko do zarządzania złożonymi zadaniami agentowymi – od generowania kodu z obrazu, przez refaktoryzację dużych baz kodu, po wdrażanie.
Rozszerzenia te, działając w tandemie z silnikiem polityk bezpieczeństwa i wsparciem dla modeli Gemini 1.5 Flash/Pro z dużym oknem kontekstowym, realnie zmieniają sposób pracy. Nie chodzi już tylko o szybsze pisanie kodu, ale o zaprojektowanie całego procesu developmentu wokół współpracy z AI z poziomu jednego, centralnego punktu sterowania – terminala. Aktualizacja jest prosta: gemini extensions update. Warto śledzić ten trend, bo to właśnie w takiej modularności i integracji może tkwić przyszłość narzędzi deweloperskich.
Deweloperzy korzystający z Gemini CLI, terminalowego asystenta AI od Google, otrzymali nową wersję do testów. Wydanie v0.36.0-preview.0 kontynuuje trend wzmacniania zabezpieczeń i ergonomii pracy, zapoczątkowany we wcześniejszych wersjach nightly. Wersja preview skupia się na bezpiecznej interakcji z przeglądarką oraz na usprawnieniach interfejsu użytkownika, oferując jednocześnie konkretne wytyczne dotyczące aktualizacji.
Kluczowe ulepszenia w bezpieczeństwie i prywatności
Najważniejszym filarem tej wersji preview są funkcje mające na celu ochronę użytkownika podczas pracy z agentami. Pojawiły się mechanizmy kontroli dostępu dla agenta przeglądarki, co stanowi istotny krok w zarządzaniu sesjami webowymi. System wprowadza też kontrolę wrażliwych akcji, które mogą mieć daleko idące konsekwencje. To rozwinięcie wcześniejszych mechanizmów zarządzania politykami (policies).
Dodatkowo usprawniono metadane dotyczące użycia tokenów API, co ułatwia audyt i monitorowanie. Dla zespołów korzystających z zaawansowanych konfiguracji dostępne jest teraz uwierzytelnianie przez centralny panel kontrolny. Wszystkie te zmiany wskazują na dojrzałe podejście do izolacji narzędzi i egzekwowania polityk bezpieczeństwa w dynamicznym środowisku AI.
Usprawnienia interfejsu i workflow
Poza bezpieczeństwem wersja v0.36.0-preview.0 przynosi szereg udogodnień w codziennej pracy dewelopera. Odświeżono układ edytora, poprawiając czytelność i organizację przestrzeni roboczej. Ciekawą nowością jest obsługa Git worktree, która pozwala na izolowanie sesji Gemini CLI w różnych kontekstach gałęzi Gita bez konieczności przełączania repozytoriów.
Zoptymalizowano czas uruchamiania przy użyciu flagi --version oraz uproszczono obsługę zdarzeń klawiatury i myszy. CLI zyskało również bardziej elastyczne rozwiązywanie modeli dynamicznych oraz rozszerzone ostrzeżenia o fallbacku terminala. Dla twórców agentów wsparcie dla konfiguracji ułatwia teraz pracę z agentami zdalnymi.
Praktyczne wskazówki: jak bezpiecznie aktualizować i śledzić zmiany
Przy tak szybkim tempie rozwoju twórcy podkreślają potrzebę zachowania ostrożności. W środowiskach testowych można używać opcji automatycznej aktualizacji, ale kluczowe jest monitorowanie oficjalnych wydań na GitHubie pod kątem poprawek.
Aby w pełni wykorzystać nowe funkcje bezpieczeństwa, warto aktywnie korzystać z flagi --policy i restrykcyjnych profili sandboxingu. Użytkownicy chcący testować najnowsze integracje powinni włączyć odpowiednie funkcje w ustawieniach.
Śledzenie zmian ułatwiają changelogi dostępne w dokumentacji oraz szczegółowe informacje w pull requestach na GitHubie. W przypadku długich sesji nowe mechanizmy kontroli wrażliwych akcji pomagają zapobiegać problemom, takim jak niebezpieczne rzutowania czy błędy związane z wyczerpaniem pamięci (OOM).
Podsumowanie: kolejny krok w ewolucji Gemini CLI
Wersja v0.36.0-preview.0 to nie rewolucja, a konsekwentne dopracowywanie narzędzia, które staje się coraz bardziej niezawodne i bezpieczne. Skupienie na zabezpieczeniach agenta przeglądarki pokazuje, że rozwój podąża za realnymi przypadkami użycia w zadaniach web deweloperskich i AI. Jednocześnie usprawnienia CLI, takie jak wsparcie dla Git worktree, świadczą o zrozumieniu potrzeb złożonych procesów programistycznych.
Szybkie tempo wydań preview zachęca do testowania, jednak zawsze z zachowaniem ostrożności i w oparciu o rekomendowane praktyki aktualizacji. Gemini CLI umacnia swoją pozycję jako profesjonalne narzędzie open-source, które łączy potencjał modeli językowych z praktycznością terminala.
Projekt Gemini CLI nie zwalnia tempa. Właśnie opublikowano nową stabilną wersję, która wprowadza długo wyczekiwane usprawnienia dla programistów, zwłaszcza fanów Vima. To jednak tylko część obrazu, bo równolegle trwają intensywne prace na kanale nightly, zwiastujące kolejne poważne zmiany w tej otwartoźródłowej konsolowej bramie do modeli Gemini. Wygląda na to, że narzędzie systematycznie przekształca się z ciekawostki w dojrzałe i potężne środowisko pracy.
Stabilny fundament: co nowego w najnowszej wersji
Najnowsza stabilna odsłona skupia się na tym, co najważniejsze: produktywności i elastyczności bezpośrednio w terminalu. Kluczową nowością jest pełna konfigurowalność skrótów klawiaturowych. Programiści mogą teraz definiować własne mapowania klawiszy, a także korzystać z wiązań dosłownych znaków. To ogromny krok w personalizacji, pozwalający dostosować interakcję z AI do indywidualnego, często bardzo ugruntowanego, workflow.
Pod maską działa też usprawniony mechanizm kontekstowy. W dużym skrócie, narzędzia systemu plików ładują kontekst „w ostatniej chwili”. Dzięki temu model otrzymuje najbardziej aktualne i istotne informacje, bez konieczności natychmiastowego przesyłania wszystkich danych. Przekłada się to na lepszą wydajność i celność odpowiedzi.
Ulepszenia dla użytkowników Vima
Jedna z bolączek wcześniejszych wersji – ograniczony tryb Vima – doczekała się poprawek. W Gemini CLI dostępny jest vim mode, który można przełączać i który oferuje podstawową nawigację w trybach NORMAL i INSERT. Pozwala to na bardziej naturalną edycję osobom przyzwyczajonym do skrótów Vima.
Dokumentacja wskazuje na ciągły rozwój tej funkcji, a społeczność zgłasza zapotrzebowanie na dodatkowe, zaawansowane mapowania klawiszy, takie jak operacje na znakach czy pełne wsparcie dla rejestrów. Obecna implementacja stanowi krok w kierunku lepszej integracji z workflow opartym na Vimie.
Tryb Plan: architektoniczny asystent
Do projektu trafił nowy tryb pracy o nazwie Plan Mode. To interesujące podejście do współpracy z AI. Tryb ten, dostępny w ustawieniach jako tryb zatwierdzania (plan approval mode), został zaprojektowany do analizy kodu i planowania zmian.
Jak to działa w praktyce? Po aktywacji Gemini CLI może przeglądać kod, analizować zależności i planować skomplikowane zmiany, które wymagają recenzji i zatwierdzenia przez użytkownika przed wykonaniem. To jak sesja strategiczna, w której AI przedstawia plan działania, a programista decyduje, co i jak chce wdrożyć. Funkcja ta jest niezwykle przydatna do eksploracji nieznanego codebase'u lub planowania refaktoryzacji z zachowaniem pełnej kontroli.
Kanał nightly: gdzie rodzi się przyszłość
Podczas gdy gałąź stabilna oferuje dopracowane funkcje, prawdziwe laboratorium innowacji znajduje się w nightly builds. To tam testowane są najbardziej eksperymentalne pomysły, które często trafiają później do wersji preview, a ostatecznie do stabilnej. Obecny cykl rozwojowy jest wyjątkowo intensywny.
Rozwijane są nowe funkcje, a system telemetrii jest stale ulepszany. Obsługa modeli jest poszerzana, oferując użytkownikom coraz więcej opcji w portfolio.
Usprawnienia dla developerów
Dla developerów pracujących ze skryptami przydatne mogą być różne flagi wyjścia, które pozwalają na bardziej strukturyzowaną interakcję z narzędziem. Praktyczne jest też bezpośrednie osadzanie kontekstu z plików w poleceniach, co eliminuje potrzebę ręcznego kopiowania kodu.
Drobna, ale miła dla oka zmiana: wskaźniki trybów pomagają w orientacji, w jakim stanie znajduje się obecnie interfejs.
Podsumowanie: konsekwentna droga do dojrzałości
Gemini CLI rozwija się w sposób systematyczny. Projekt jasno rozdziela ścieżki: stable dla codziennej, niezawodnej pracy, preview do testowania nowości tuż przed premierą oraz nightly dla śmiałych eksperymentów. Najnowsze zmiany, takie jak konfigurowalne skróty i ulepszenia trybu Vima, to bezpośrednia odpowiedź na potrzeby społeczności.
Jednocześnie prace nad nowymi trybami, takimi jak Plan, pokazują, że twórcy myślą o nowych paradygmatach współpracy z AI. Nie jest to już zwykły wrapper na API, a coraz bogatsze, samodzielne środowisko deweloperskie. Jeśli tempo i kierunek rozwoju się utrzymają, Gemini CLI może stać się nieodzownym narzędziem w terminalu każdego programisty, który chce mieć możliwości Geminiego zawsze pod ręką, bez odrywania się od klawiatury.
Najnowsza aktualizacja Gemini CLI, oznaczona numerem wersji v0.36.0-nightly.20260318.e2658ccda, to duży krok naprzód w rozwoju terminalowego narzędzia od Google. Skupia się ona na dwóch kluczowych filarach: rozszerzeniu zdolności agentowych oraz znaczącym wzmocnieniu architektury bezpieczeństwa. Dla deweloperów oznacza to bardziej niezawodne, kontrolowane i wydajne środowisko dla workflowów asystowanych przez AI, takich jak vibe coding, migracje legacy code czy automatyzacja DevOps.
Przebudowa rdzenia agentów: AgentLoopContext
Kluczową zmianą techniczną tej wersji jest pełna migracja pakietu `core` na `AgentLoopContext`. Może to brzmieć jak szczegół implementacyjny, ale w praktyce ma fundamentalne znaczenie dla stabilności i rozszerzalności całego systemu. AgentLoopContext stanowi ujednolicony kontekst wykonania dla pętli agenta, dzięki czemu zarządzanie stanem, narzędziami i pamięcią staje się bardziej przewidywalne i mniej podatne na błędy.
Bezpośrednio z tym wiążą się zmiany w architekturze. Sub-agenci to mniejsze, wyspecjalizowane jednostki AI, które mogą być uruchamiane równolegle lub sekwencyjnie w celu wykonania konkretnych podzadań. Nowa struktura kontekstu ułatwia zarządzanie ich stanem i wykonaniem.
Architektura bezpieczeństwa również została wzmocniona. Jeśli agent postanowi wykonać polecenie shellowe lub skrypt, operacje te są lepiej kontrolowane, co minimalizuje ryzyko przypadkowego uszkodzenia systemu hosta. To przejście w stronę filozofii „shift-left security” w workflowach deweloperskich – zabezpieczenia są wbudowane w proces od samego początku, a nie dodawane na końcu.
Rozszerzona konfiguracja i kontrola
Ta wersja wprowadza zaawansowane możliwości konfiguracji, pozwalające na głęboką personalizację zachowania agenta bez potrzeby modyfikacji kodu źródłowego CLI. Dają one programistom pełną kontrolę nad cyklem życia sesji i wykonywanych operacji.
Umożliwia to precyzyjne dostosowywanie zachowania agenta. Można na przykład automatycznie wczytywać historię Gita danego projektu na początku sesji, aby agent od razu miał kontekst ostatnich zmian, lub dodawać dodatkową walidację przed wykonaniem planowanych operacji.
Bezpieczeństwo: domeny i polityki
Oprócz ulepszeń architektonicznych ta wersja wprowadza ważne ustawienia bezpieczeństwa. Pojawia się możliwość definiowania ograniczeń domenowych dla agenta przeglądarkowego (allowed domain restrictions). Można dzięki temu zezwolić agentowi na automatyzację działań tylko w wybranych, zaufanych domenach, co ogranicza ryzyko przypadkowej interakcji ze szkodliwymi stronami.
Dla zespołów lub użytkowników wymagających maksymalnej kontroli dostępne są opcje pozwalające na zarządzanie systemem zatwierdzania operacji. To cenna funkcja w środowiskach produkcyjnych lub przy pracy z wrażliwym kodem.
Mechanizmy zarządzania zadaniami (todos) i trackerami projektu zostały udoskonalone, co wprowadza kolejną warstwę kontroli nad planowaniem działań. Wynika to częściowo z szeregu zmian w module tracker.
Lepszy kontekst, MCP i obsługa języków CJK
Wydajność agentów AI jest wprost proporcjonalna do jakości i trafności kontekstu, który otrzymują. Wersja v0.36.0-nightly.20260318.e2658ccda kontynuuje usprawnienia w tym obszarze. Wprowadzono hierarchiczne ładowanie kontekstu z plików GEMINI.md. System sprawdza plik globalny (np. ~/.gemini/global-context.md), potem projektowy, a na końcu specyficzny dla podfolderu – przy czym bardziej szczegółowy kontekst nadpisuje ogólny. Zapewnia to spójną, trwałą „pamięć projektu” bez konieczności powtarzania tych samych instrukcji w promptach.
Integracja z serwerami MCP (Model Context Protocol) pozostaje kluczowym elementem ekosystemu. Pozwala ona podłączać zewnętrzne serwery, które udostępniają agentowi niestandardowe narzędzia – np. do wykonywania zapytań do prywatnej bazy danych, integracji z Figmą czy zarządzania infrastrukturą chmurową. To wydajny sposób na rozszerzenie możliwości agenta bez „zanieczyszczania” jego głównego promptu.
Warto też odnotować poprawę obsługi wprowadzania znaków CJK (chińskich, japońskich, koreańskich) oraz pełną obsługę skalarnych wartości Unicode w protokołach terminala. To ważne ułatwienie dla międzynarodowych zespołów deweloperskich.
Optymalizacje wydajnościowe i poprawki błędów
Pod maską przeprowadzono szereg optymalizacji, które przekładają się na płynniejsze działanie. Zależności w TrackerService zostały zoptymalizowane, co przyspiesza sprawdzanie stanu zadań. Interfejs trackera został dopracowany – poprawiono sortowanie i formatowanie, co zwiększa czytelność.
Wprowadzono również model Topic-Action-Summary dla promptów, którego celem jest redukcja nadmiernej gadatliwości (verbosity) modeli, co przekłada się na oszczędność tokenów i bardziej zwartą komunikację.
Lista poprawek błędów jest długa i obejmuje m.in. naprawę ręcznego usuwania historii sub-agentów, deduplikację pamięci projektu przy włączonym JIT context, lepsze zarządzanie konfliktami komend dla skills oraz obsługę sesji w Git worktrees dla izolowanej pracy równoległej.
Podsumowanie: dojrzałość ekosystemu agentów AI
Wydanie Gemini CLI v0.36.0-nightly.20260318.e2658ccda nie wprowadza jednej, głośnej funkcji, lecz konsekwentnie wzmacnia fundamenty pod zaawansowane, produkcyjne użycie agentów AI w terminalu. Migracja na AgentLoopContext, uszczelnienie architektury bezpieczeństwa oraz rozbudowane możliwości konfiguracji tworzą ramy, w których kontrola idzie w parze z automatyzacją.
Dla deweloperów pracujących nad modernizacją legacy code, automatyzacją DevOps czy po prostu stosujących vibe coding, zmiany te oznaczają mniej niespodzianek, większą przewidywalność i zaufanie do narzędzia. Ta wersja Gemini CLI dostarcza zarówno mocniejszy „silnik”, jak i bardziej zaawansowane systemy kontroli, ułatwiając efektywną pracę.
Rozwijający się ekosystem AI dla deweloperów nieustannie dostarcza nowych narzędzi, które integrują sztuczną inteligencję z codziennymi workflowami. Kimi Code CLI, terminalowy agent programistyczny z rodziny MoonshotAI, doczekał się wersji 1.21.0. To nie kolejny zwykły punkt w changelogu, ale zestaw konkretnych usprawnień, które znacząco poprawiają komfort pracy z długimi fragmentami tekstu, obrazami i nawigacją po poleceniach.
Refaktoring zarządzania promptem: porządek w chaosie
Najbardziej zauważalną zmianą dla użytkownika jest gruntowna przebudowa sposobu obsługi wprowadzanego tekstu. Głównym problemem w pracy z AI w terminalu był bałagan powstający po wklejeniu długiego kodu, konfiguracji czy logów. Prompt stawał się nieczytelny, przesuwany w nieskończoność, a kontekst rozmowy z agentem – rozmyty.
Wersja 1.21.0 wprowadza mechanizm compact placeholders. Teraz, gdy wklejony tekst przekracza 300 znaków lub zawiera więcej niż 3 linie, Kimi Code CLI automatycznie zastępuje go w buforze wpisu krótkim tokenem: [Pasted text #n]. Pełna treść jest jednak w całości wysyłana do modelu AI, więc agent ma pełny kontekst do pracy. To rozwiązanie zachowuje klarowność promptu dla użytkownika, nie ograniczając możliwości analizy przez AI.
Co ciekawe, ten placeholder nie jest tylko statycznym skrótem. Użytkownik może otworzyć go w zewnętrznym edytorze (np. za pomocą Ctrl-O), rozwinąć pełną treść, edytować ją i zapisać – a system ponownie zwinie ją do poręcznego tokena. To eleganckie połączenie czytelności i funkcjonalności.
Drugą, równie istotną częścią refaktoringu jest obsługa obrazów ze schowka. Wklejanie screenshotów, diagramów czy grafik do promptu było możliwe, ale skutkowało wstawianiem długich, nieczytelnych ciągów danych. Teraz obrazy są automatycznie cache'owane na dysku, a w buforze promptu pojawia się jasny token [image:…]. Agent AI otrzymuje pełną grafikę jako kontekst, ale deweloper widzi tylko zwięzłą reprezentację. To rozwiązanie szczególnie przydatne w workflowach związanych z debugowaniem UI, analizą layoutu czy pracą z dokumentacją zawierającą zrzuty ekranu.
Warto też wspomnieć o poprawce związanej z UTF-16 surrogate characters. To techniczny, ale ważny szczegół: dane kopiowane z niektórych aplikacji na Windowsie mogły zawierać specjalne znaki (lone surrogates), które powodowały błędy serializacji (UnicodeEncodeError) przy zapisie historii czy generowaniu JSON. Kimi Code CLI 1.21.0 sanitizuje te znaki przed przetworzeniem, eliminując źródło potencjalnych crashy i zwiększając stabilność pracy z różnymi źródłami tekstu.
Nowe menu slash commands: pełna szerokość i opisy
Interakcja z Kimi Code CLI w trybie shellowym często opiera się na poleceniach typu slash, takich jak /help, /setup, /plan czy /compact. Dotychczasowe menu wyboru było standardowym, ograniczonym popupem, który często nie wyświetlał pełnych opisów i wymagał pamiętania, co robi każda komenda.
W tej wersji autouzupełnianie i menu zostały przeprojektowane na pełnowymiarowy, niestandardowy interfejs. Nowe menu zajmuje całą szerokość terminala, prezentując nie tylko nazwy poleceń, ale również ich wieloliniowe opisy. Dzięki temu deweloper może szybko przejrzeć wszystkie dostępne opcje wraz z ich funkcjonalnością bez konieczności zaglądania do dokumentacji. Menu obsługuje też podświetlanie i przewijanie, co przy długiej liście poleceń jest kluczowe dla ergonomii.
Poprawka dotyczy też skutecznego kończenia procesów przy anulowaniu poleceń shellowych. Gdy w trakcie wykonywania polecenia (np. długiego builda czy testów) użytkownik je anuluje, Kimi Code CLI teraz jawnie zabija podproces, aby uniknąć pozostawiania procesów osieroconych (orphaned processes) w systemie. To ważne dla zarządzania zasobami i czystości środowiska, szczególnie przy intensywnej, wielozadaniowej pracy z agentem.
Testy end-to-end: większa stabilność w shellowym PTY
Część zmian w 1.21.0 jest niewidoczna dla użytkownika końcowego, ale fundamentalna dla długoterminowej stabilności produktu. Chodzi o dodanie kompleksowych testów end-to-end dla shellowego PTY (pseudo-terminal) i zarządzania sesjami.
PTY jest kluczowym komponentem pozwalającym Kimi Code CLI na interakcję z systemową powłoką (bash, zsh) w sposób, który umożliwia AI wykonywanie poleceń, czytanie outputu i reagowanie na nie. Testy end-to-end symulują pełne scenariusze użycia, weryfikując, czy integracja z shellem, przekazywanie danych, zarządzanie sesjami i przywracanie sprawności po błędach działają zgodnie z oczekiwaniami. Wprowadzenie takich testów znacząco zwiększa pewność, że kolejne aktualizacje nie spowodują regresji w tych kluczowych obszarach, a operacje shellowe z asystą AI będą niezawodne.
Kimi Code CLI w kontekście web dev, AI i DevOps
Kimi Code CLI nie jest tylko ciekawostką, ale praktycznym narzędziem w arsenale deweloperów, szczególnie tych pracujących w obszarach web developmentu, sztucznej inteligencji i DevOps. Instaluje się go standardowymi metodami dla Pythona, a jego główna wartość leży w integracji AI z natywnym terminalem.
W trybie shellowym pozwala na wykonywanie poleceń z asystą AI, integrację jako plugin Zsh, obsługę Agent Client Protocol (ACP) dla IDE takich jak Zed oraz konfigurację narzędzi MCP dla usług zewnętrznych. Może analizować logi, sugerować poprawki w kodzie, pomagać w debugowaniu, a nawet – dzięki wprowadzonemu wcześniej Plan Mode – tworzyć strukturalne plany działania przed wdrożeniem zmian.
Użycie jest intuicyjne: wchodzimy do katalogu projektu, uruchamiamy kimi, wykonujemy /setup i /help, a potem prowadzimy konwersację z agentem, który może edytować pliki, wykonywać polecenia i odpowiadać na pytania kontekstowe. Aktualizację do najnowszej wersji wykonujemy standardowymi metodami aktualizacji pakietów Python.
Wydanie 1.21.0 jest częścią szybkiego cyklu rozwojowego MoonshotAI. Ekosystem jest powiązany z modelami Kimi, takimi jak seria K2, co zapewnia spójność w wykorzystaniu AI.
Dlaczego te zmiany są ważne?
Na pierwszy rzut oka poprawki w zarządzaniu promptem i menu mogą wydawać się kosmetyczne. W praktyce jednak rozwiązują realne problemy, które utrudniają flow deweloperów pracujących z AI w terminalu. Bałagan w prompcie rozprasza i utrudnia skupienie na zadaniu. Ograniczone menu poleceń wymaga ciągłego przypominania sobie funkcjonalności. Problemy z zabijaniem procesów prowadzą do niepotrzebnego zużycia zasobów.
Wersja 1.21.0 eliminuje te punkty tarcia, czyniąc Kimi Code CLI bardziej przewidywalnym i ergonomicznym. Refaktoring obsługi promptów to nie tylko „lepsze wklejanie”, ale fundamentalne podejście do zarządzania kontekstem: oddzielenie reprezentacji dla człowieka od danych dla AI. Nowe menu slash commands to krok w stronę interfejsu samodokumentującego się, gdzie narzędzie uczy użytkownika swoich możliwości w trakcie pracy. Testy end-to-end są cichą gwarancją, że ta ergonomia nie rozsypie się przy kolejnych, bardziej złożonych funkcjach.
Co to oznacza dla przyszłości?
Wydanie 1.21.0 pokazuje wyraźny trend w rozwoju Kimi Code CLI: skupienie na stabilności i użyteczności, a nie tylko na dodawaniu kolejnych, ekspansywnych funkcji.
To ważny sygnał dla całej kategorii agentów AI do kodowania. Sztuczna inteligencja w terminalu musi być nie tylko potężna, ale również wygodna i przewidywalna. Chaos w interfejsie odciąga uwagę od rozwiązywania problemów, a niestabilność podważa zaufanie. Kimi Code CLI 1.21.0 konsekwentnie usuwa źródła chaosu i niestabilności, umacniając swoją pozycję jako narzędzie, które nie tylko „może”, ale również „jest przyjemne w użyciu”.
Dla deweloperów oznacza to, że integracja AI z codziennym workflowem w shellu staje się coraz płynniejsza. Możemy wklejać długie logi bez zapychania promptu, przeglądać polecenia bez zaglądania do dokumentacji i mieć pewność, że anulowanie zadania nie stworzy bałaganu w systemie. To właśnie takie, inkrementalne poprawki budują długoterminową adopcję i realną produktywność.
Wersja 1.21.0 narzędzia Kimi Code CLI przynosi zmiany, które wielu użytkowników nazywa przełomowymi. Nie chodzi tu o nowe, błyskotliwe funkcje, ale o solidną pracę nad fundamentami – sposobem, w jaki współpracujemy z asystentem AI w terminalu. To aktualizacja, która sprawia, że rozmowa z agentem przestaje być monologiem z przerwami na ładowanie, a zaczyna przypominać płynną, dynamiczną wymianę zdań z partnerem, który naprawdę słucha.
Głównym autorem wszystkich kluczowych zmian w tej wersji jest użytkownik GitHub o nicku @RealKai42, którego serie pull requestów znacząco przeprojektowały interakcję z agentem.
Sterowanie agentem w locie: koniec biernego oczekiwania
Najważniejsza nowość to inline running prompt. Wcześniej, gdy agent (np. model AI) rozpoczął generowanie odpowiedzi czy wykonywanie zadania, użytkownik musiał cierpliwie czekać na zakończenie całej tury. Każda chęć doprecyzowania, zmiany kierunku lub odpowiedzi na pytanie agenta wymagała przerwania procesu lub oczekiwania na jego koniec.
Wersja 1.21.0 burzy ten schemat. Teraz output agenta renderowany jest bezpośrednio w obszarze promptu, a użytkownik może w dowolnym momencie wpisać i wysłać kolejną wiadomość – tak zwaną komendę sterującą (steer). Może to być uzupełnienie instrukcji („zamiast tego użyj biblioteki X”), odpowiedź na pytanie agenta („tak, zatwierdzam usunięcie tego pliku”) lub całkowita zmiana kontekstu.
Co kluczowe, dzieje się to bez przerywania generowania bieżącej odpowiedzi. Agent otrzymuje nasz nowy input i dynamicznie dostosowuje do niego swoje dalsze działanie. Mechanizm został przeprojektowany – zamiast sztucznych, „syntetycznych” wywołań narzędzi, nasze komunikaty sterujące są teraz dołączane jako zwykłe wiadomości użytkownika. To rozwiązanie eleganckie i bardziej kompatybilne z systemem wizualizacji oraz zapisywaniem kontekstu.
W praktyce oznacza to, że jeśli agent zaczyna iść w niepożądanym kierunku, nie musimy już czekać, aż skończy, by to skorygować. Możemy od razu interweniować. To kolosalna różnica dla płynności pracy.
Trwałe prompty systemowe i lepszy kontekst
Kolejna istotna poprawka dotyczy zarządzania kontekstem sesji. Do tej pory prompt systemowy – czyli początkowe instrukcje definiujące rolę i sposób działania agenta – był traktowany jako coś ulotnego. Po restarcie sesji czy podczas jej analizy w narzędziach wizualizacyjnych ta kluczowa informacja mogła zostać utracona lub stać się nieczytelna.
W 1.21.0 prompt systemowy jest na stałe zapisywany jako pierwszy wpis w pliku context.jsonl. Ma to dwie ogromne zalety. Po pierwsze, narzędzia do wizualizacji sesji (jak kimi vis) mogą teraz odczytać pełny kontekst konwersacji, łącznie z pierwotnymi założeniami. Po drugie, gdy sesja jest wznawiana, agent odzyskuje dokładnie te same początkowe instrukcje, zamiast próbować je odtwarzać lub działać bez nich. Zapewnia to znacznie większą spójność i przewidywalność działań agenta w dłuższym horyzoncie czasowym.
Wizualizacja i zarządzanie sesjami bez wychodzenia z terminala
Panel wizualizacji (kimi vis) również otrzymał przydatne ulepszenia. Dodano skróty do katalogów sesji bezpośrednio ze strony podglądu sesji. Użytkownik może teraz jednym kliknięciem otworzyć folder bieżącej sesji w eksploratorze plików swojego systemu (obsługa zarówno macOS, jak i Windows) lub skopiować ścieżkę do schowka (akcja „Copy DIR”).
To może wydawać się drobnostką, ale dla deweloperów, którzy często analizują logi, ślady wykonania czy zapisane konteksty, jest to ogromne ułatwienie. Nie trzeba już ręcznie nawigować przez ukryte foldery w ~/.kimi/ – dostęp jest natychmiastowy.
Dopracowanie szczegółów: logowanie, powiadomienia i replay sesji
Reszta zmian w tej wersji to dopracowanie istniejących funkcji, które razem tworzą znacznie lepsze doświadczenie użytkownika (UX).
Lepsze logowanie: Proces konfiguracji klucza API został usprawniony. Podczas weryfikacji klucza wyświetlany jest teraz animowany spinner, a w przypadku błędu (np. wybrania złej platformy) system wyświetla bardziej pomocne komunikaty. Po udanym logowaniu pojawia się jasne podsumowanie konfiguracji.
Naprawione powiadomienia: Komenda aktualizacji wyświetlana w powiadomieniach typu „toast” jest teraz pobierana z jednej, stałej wartości, co eliminuje niespójności.
Ulepszony replay sesji: Mechanizm odtwarzania zapisanych sesji został poprawiony, aby poprawnie wyświetlać komunikaty sterujące (steer messages) wysłane podczas pracy agenta. Filtruje też wewnętrzne, techniczne komunikaty systemowe, przez co odtworzona konwersacja jest czystsza i bardziej zrozumiała.
Echo wpisanego tekstu: W trybie agenta, po wysłaniu wiadomości, prompt i nasz tekst są teraz wyświetlane (echo) w terminalu. Dzięki temu zapis rozmowy jest bardziej przejrzysty i przypomina naturalną wymianę zdań.
Kimi Code CLI: kontekst dla deweloperów
Dla tych, którzy nie mieli wcześniej styczności z tym narzędziem, warto przypomnieć, czym jest Kimi Code CLI. To open-source'owy agent AI działający w terminalu, stworzony przez MoonshotAI i wydany na licencji Apache 2.0. Jego filozofia opiera się na transparentności i kontroli – agent pomaga w zadaniach programistycznych (pisanie, edycja i analiza kodu, operacje shellowe, automatyzacja), ale cały jego proces myślowy, wywołania narzędzi i podjęte działania są widoczne dla użytkownika.
CLI obsługuje integrację z IDE przez Agent Client Protocol (ACP) – można je skonfigurować np. w edytorze Zed. Posiada też tryb shell, w którym można wykonywać zwykłe polecenia systemowe, oraz wsparcie dla MCP (Model Context Protocol), co pozwala na rozszerzanie jego możliwości o zewnętrzne narzędzia i serwisy.
Podsumowanie: ewolucja w kierunku płynnej współpracy
Wersja 1.21.0 Kimi Code CLI nie rzuca się w oczy nowym sloganem czy marketingowym szumem. To aktualizacja dla praktyków – deweloperów, którzy na co dzień używają AI jako partnera w terminalu. Główne zmiany – sterowanie agentem w locie, trwały kontekst i usprawnienia wizualizacji – mają jeden wspólny mianownik: zmniejszają dystans i opóźnienia między intencją użytkownika a działaniem agenta.
Dzięki temu praca z narzędziem staje się bardziej dynamiczna, interaktywna i w końcu przypomina prawdziwą współpracę, a nie asynchroniczne rzucanie zadań w próżnię. Te ulepszenia fundamentów są często ważniejsze niż kolejna nowa, choćby i spektakularna funkcja. Pokazują też dojrzałość projektu, który skupia się na jakości doświadczenia użytkownika, a nie tylko na rozbudowie listy możliwości.
Nowa wersja narzędzia Kimi Code CLI, oznaczona numerem 1.20.0, to solidna aktualizacja skupiająca się na ulepszeniu istniejących funkcji i naprawie uciążliwych błędów. To nie rewolucja, ale ważny krok w rozwoju tego popularnego, open-source'owego asystenta programistycznego, który pozwala pracować z kodem i terminalem przy pomocy AI. Wydanie koncentruje się głównie na dopracowaniu trybu planowania, który zadebiutował w poprzedniej wersji, oraz na dodaniu praktycznych opcji zarządzania sesjami.
Tryb planowania trafia do interfejsu webowego
Jedna z najważniejszych nowości w wersji 1.20.0 dotyczy trybu planowania (plan mode). Funkcja ta, wprowadzona w wersji 1.19.0, pozwala agentowi AI przejść w fazę projektowania działań. W tym trybie ma on dostęp wyłącznie do narzędzi odczytu, takich jak przeglądanie plików (Glob, Grep, ReadFile). Może wówczas zapisać strukturalny plan działania do pliku i przedstawić go użytkownikowi do akceptacji, zanim przystąpi do faktycznego wykonania zadań.
Co się zmienia? Przede wszystkim tryb planowania przestaje być wyłącznie funkcją konsolową. W wersji 1.20.0 dodano przełącznik w interfejsie webowym. Dzięki temu użytkownicy preferujący pracę w przeglądarce mogą łatwo włączać i wyłączać ten tryb za pomocą przycisku na pasku narzędzi. Gdy tryb jest aktywny, pole edycji zostaje obramowane przerywaną, niebieską linią, co stanowi jasną wskazówkę wizualną.
Co równie istotne, stan trybu planowania jest teraz zapisywany. Oznacza to, że po zamknięciu sesji i powrocie do niej później, Kimi Code CLI pamięta, czy pracowałeś w trybie planowania. Ta pozornie drobna zmiana znacząco poprawia płynność pracy nad złożonymi projektami wymagającymi wielu sesji.
Dodano też podgląd planu w UI. To kolejne ułatwienie – teraz nie musisz szukać pliku z planem w systemie, aby go przejrzeć. Wszystko jest dostępne bezpośrednio w interfejsie.
Pełna kontrola nad sesjami: eksport, import, usuwanie
Drugim filarem tej aktualizacji jest znacznie ulepszone zarządzanie sesjami. Do tej pory sesje były zarządzane głównie z poziomu konsoli. Wersja 1.20.0 wprowadza kompleksowy zestaw akcji ułatwiających ich archiwizację i przenoszenie.
W interfejsie wizualizacji (kimi vis) oraz na stronie szczegółów sesji pojawiły się nowe przyciski. Teraz możesz:
Pobrać sesję jako plik ZIP jednym kliknięciem.
Zaimportować sesję z pliku ZIP. Importowane sesje trafiają do dedykowanego katalogu ~/.kimi/imported_sessions/ i są oznaczone specjalnym filtrem „Imported”.
Eksportować sesję z linii komend za pomocą poleceń dostępnych w interfejsie webowym (kimi vis).
Usuwać sesje, w tym te zaimportowane, z dodatkowym potwierdzeniem w oknie dialogowym.
To potężne funkcje dla zespołów i osób, które chcą tworzyć kopie zapasowe swojej pracy, dzielić się konkretnymi sesjami debugowania ze współpracownikami lub po prostu usunąć stare, niepotrzebne konwersacje z agentem.
Kluczowe poprawki błędów poprawiające komfort pracy
Pod maską wersja 1.20.0 przynosi szereg poprawek rozwiązujących konkretne problemy zgłaszane przez użytkowników. To właśnie te zmiany często mają największy wpływ na codzienną wygodę użytkowania.
Problem z nagłówkami HTTP na Linuxie: W systemach Linux białe znaki (spacje, znaki nowej linii) na końcach wartości nagłówków HTTP mogły powodować błędy połączenia, szczególnie przy autoryzacji OAuth. Poprawka automatycznie przycina te zbędne znaki.
Formatowanie odpowiedzi OpenAI: Dostawca „OpenAI Responses” czasami wysyłał niejawny parametr reasoning.effort=null, co mogło naruszać kompatybilność z niektórymi endpointami oczekującymi specyficznego formatu. Teraz parametry związane z rozumowaniem (reasoning) są pomijane, chyba że zostaną ustawione jawnie.
Kompresja kontekstu z plikami multimedialnymi: Gdy konwersacja zawierała elementy multimedialne (obrazy, audio, wideo), proces automatycznej kompresji kontekstu mógł się nie powieść, co prowadziło do błędów API. Zamiast czarnej listy (wykluczającej ThinkPart), zastosowano białą listę (zachowującą tylko TextPart), co stabilizuje działanie tej funkcji.
Odświeżanie indeksu plików w web UI: System wzmianek plików (użycie symbolu @) w interfejsie webowym czasami nie odświeżał się po zmianie sesji lub po modyfikacji plików w obszarze roboczym (workspace). Teraz indeks jest resetowany przy przełączaniu sesji i automatycznie odświeżany po 30 sekundach braku aktywności.
Kontekst i jak zacząć
Kimi Code CLI to napisany w Pythonie agent działający w linii komend. To narzędzie dla programistów, które łączy czat AI, edycję kodu, wykonywanie poleceń shell oraz integrację z IDE, takimi jak Zed czy Neovim, przez protokół ACP. Instalacja odbywa się za pomocą menedżera pakietów uv (uv tool install kimi-cli) lub PyPI.
Po instalacji uruchomienie polecenia kimi w katalogu projektu otwiera interaktywną powłokę. Polecenie /setup przeprowadzi Cię przez konfigurację klucza API, a /help wyświetli listę dostępnych komend. Aktualizację do najnowszej wersji wykonasz komendą uv tool upgrade kimi-cli --no-cache.
Wydanie 1.20.0 doskonale wpisuje się w obecne trendy w narzędziach deweloperskich opartych na AI: stawianie na trwałość sesji, dopracowywanie interfejsów użytkownika (zarówno webowych, jak i CLI) oraz głębszą integrację z workflow programisty. Nie są to spektakularne nowości, lecz zmiany budujące solidne fundamenty pod długoterminową użyteczność narzędzia. Naprawa błędów związanych z kompresją kontekstu czy nagłówkami HTTP może być niewidoczna na pierwszy rzut oka, ale dla osób, które się z nimi borykały, stanowi o diametralnej poprawie stabilności.
Podsumowanie
Wersja 1.20.0 Kimi Code CLI to przykład dojrzałego rozwoju oprogramowania. Zamiast dodawać kolejne, być może niedopracowane funkcje, zespół skupił się na szlifowaniu i utrwalaniu istniejących rozwiązań. Przeniesienie trybu planowania do UI webowego i zapisywanie jego stanu sprawia, że funkcja ta staje się w pełni praktyczna. Nowe opcje zarządzania sesjami dają użytkownikom pełną kontrolę nad ich pracą, a zestaw poprawek eliminuje przeszkody irytujące w codziennym użytkowaniu.
To aktualizacja, która prawdopodobnie nie wywoła dużego szumu, ale jej brak byłby odczuwalny. Dla obecnych użytkowników oznacza po prostu płynniejszą i bardziej przewidywalną pracę, a dla nowych – narzędzie, które od pierwszego uruchomienia działa stabilniej. W świecie szybko rozwijających się asystentów AI taka dbałość o detale i użyteczność jest dokładnie tym, czego potrzebują programiści.
Wydanie pre-release Gemini CLI, oznaczone jako v0.34.0-preview.4, przynosi ważne zmiany, które mogą znacząco poprawić doświadczenie użytkowników, szczególnie tych pracujących z AI w terminalu. To nie tylko kolejna iteracja – wprowadza eksperymentalne, ale kluczowe funkcje sandboxingu, solidne poprawki interfejsu oraz szereg poprawek stabilności, które wpływają na codzienną pracę. Jeśli używasz Gemini CLI do vibe codingu, automatyzacji DevOps czy szybkiego prototypowania, ta wersja jest warta uwagi.
Rewolucyjny sandboxing: LXC i gVisor
Jednym z najważniejszych, choć jeszcze eksperymentalnych elementów tej wersji, jest rozszerzenie możliwości sandboxingu. Sandbox, czyli izolowane środowisko wykonawcze, jest niezbędny do bezpiecznego testowania skryptów, uruchamiania nieznanych poleceń czy pracy z agentami AI, które mogą próbować wykonać niebezpieczne operacje.
Do tej pory Gemini CLI oferował pewne mechanizmy izolacji, ale v0.34.0-preview.4 idzie o krok dalej. Po pierwsze, dodano eksperymentalne wsparcie dla kontenerów LXC. LXC (Linux Containers) to lekki system konteneryzacji, który pozwala stworzyć izolowane środowisko Linuxa bez narzutu pełnej maszyny wirtualnej. Dla deweloperów oznacza to możliwość uruchamiania poleceń czy skryptów w bezpiecznej „klatce”, która chroni główny system.
Po drugie, pojawiła się integracja z gVisor (runsc). gVisor to sandbox runtime dla kontenerów, stworzony przez Google, który implementuje własny, minimalistyczny kernel w języku Go. Został zaprojektowany specjalnie do bezpiecznego izolowania aplikacji. Natywna integracja z gVisor w Gemini CLI daje jeszcze większą kontrolę i pewność podczas wykonywania operacji, które mogłyby potencjalnie naruszyć system.
Te dwie technologie nie są jeszcze domyślnie włączone i wymagają odpowiedniej konfiguracji, ale ich pojawienie się w kodzie źródłowym pokazuje wyraźny kierunek rozwoju: Gemini CLI chce być bezpiecznym narzędziem nie tylko do interakcji z AI, ale także do automatyzacji i DevOps. Szczególnie w przypadku vibe codingu – gdzie agent AI może dynamicznie generować i testować kod – takie sandboxy są absolutną koniecznością.
Szlifowanie interfejsu użytkownika
Drugim dużym obszarem zmian jest interfejs. W aplikacjach terminalowych UX często jest niedoceniany, ale w Gemini CLI otrzymuje on ciągłe poprawki.
Ciekawą nowością jest możliwość konfiguracji sandboxa w `settings.json`. Daje to większą kontrolę nad środowiskiem wykonawczym. Historia chatu została poprawiona, aby była bardziej przejrzysta i czytelna. Nawet generowane snapshoty SVG (używane np. do dzielenia się fragmentami pracy) otrzymały drobne, ale praktyczne ulepszenia.
Poprawki rdzenia i stabilność
Pod płaszczem nowych funkcji kryje się wiele poprawek stabilności, które bezpośrednio wpływają na niezawodność narzędzia.
W długo działających sesjach pojawiało się ryzyko crashów związanych z Out of Memory (OOM). W v0.34.0-preview.4 wprowadzono poprawki optymalizujące zarządzanie pamięcią, które mają temu zapobiegać.
Inne istotne bugfixy obejmują: autocomplete dla plików (poprawki dla ścieżek takich jak @scripts/copy_files.js, @file), refaktoryzację OAuth oraz zarządzanie extensions. Naprawiono także błąd AbortError w pętli strumieniowania (stream loop).
Drobne, ale znaczące ulepszenia
Warto wspomnieć o kilku innych zmianach, które składają się na lepszy user experience. Trackery zadań (task trackers) otrzymały zestaw narzędzi CRUD oraz poprawki wizualizacji, co pomaga w zarządzaniu zadaniami wewnątrz CLI. Agent przeglądarkowy został ulepszony poprzez emisję postępu, nakładkę (overlay) dla automatyzacji oraz dodatkowe testy integracyjne.
Jak zainstalować i co dalej
Wersja v0.34.0-preview.4, jak wszystkie wydania preview, nie jest jeszcze uważana za całkowicie stabilną. Może zawierać eksperymentalne funkcje, które będą jeszcze dopracowywane. Instalacja odbywa się standardowo poprzez npm:
npm install -g @google/gemini-cli@preview
Warto zauważyć, że ta wersja jest częścią ciągłego cyklu rozwojowego Gemini CLI. Wcześniejsze nightly builds (jak v0.34.0-nightly.20260307) wprowadzały już różne zmiany. Wersja preview konsoliduje te usprawnienia i dodaje nowe.
Znaczenie dla deweloperów
Dla osób pracujących w obszarach web developmentu, AI, DevOps czy terminal-based workflows, ta wersja Gemini CLI przynosi konkretne korzyści. Sandboxing otwiera drogę do bezpiecznego testowania skryptów i automatyzacji generowanych przez AI. Poprawki UI sprawiają, że codzienna praca jest płynniejsza, a poprawki stabilności zmniejszają ryzyko utraty sesji czy problemów z autouzupełnianiem.
Choć niektóre funkcje są jeszcze eksperymentalne, ich obecność pokazuje, że Gemini CLI nie jest tylko „chatbotem w terminalu”. Staje się kompleksowym narzędziem dla deweloperów, którzy chcą integrować AI z codziennymi workflowami, zachowując bezpieczeństwo i kontrolę.
Podsumowanie
Gemini CLI v0.34.0-preview.4 to solidny krok naprzód dla tego terminalowego agenta AI. Eksperymentalne sandboxy (LXC i gVisor) odpowiadają na realne potrzeby bezpieczeństwa w vibe codingu i automatyzacji DevOps. Szlifowanie interfejsu i liczne poprawki rdzenia – od zarządzania pamięcią po autocomplete – zwiększają niezawodność aplikacji w długotrwałych sesjach.
To wydanie pokazuje, że projekt nie skupia się wyłącznie na nowych, spektakularnych funkcjach, ale także na fundamentach: stabilności, bezpieczeństwie i użyteczności. Dla deweloperów już korzystających z Gemini CLI aktualizacja do wersji preview może znacząco poprawić komfort pracy. Dla tych, którzy jeszcze go nie próbowali – to dobry moment, aby sprawdzić, jak terminalowe AI może być nie tylko potężne, ale także bezpieczne i przemyślane.
Ostatnie aktualizacje Kimi Code CLI, terminalowego asystenta AI od Moonshot AI, mocno stawiają na kontrolę i przejrzystość. Zamiast agenta działającego jak „czarna skrzynka”, użytkownicy otrzymują narzędzia do zatwierdzania jego planów, śledzenia każdego kroku i sprawnego zarządzania kodem. To wyraźny sygnał, że rozwój tego typu narzędzi idzie w stronę większej współpracy człowieka z AI, a nie pełnej autonomii.
Kluczowe nowości pojawiły się w wersjach 1.7.0, 1.15.0, a zwłaszcza 1.12.0 z lutego 2026 roku. Wprowadzają one tryb planowania, dedykowane polecenie do wizualizacji sesji oraz szereg usprawnień w panelach zatwierdzania i pracy z plikami. Brzmi technicznie? W praktyce to zmiana, która może znacząco przyspieszyć pracę i zwiększyć pewność podczas korzystania z asystenta.
Tryb planowania: najpierw strategia, potem wykonanie
Najważniejszą nowością jest tryb planowania. Dotąd agent mógł od razu przystąpić do modyfikacji plików czy uruchamiania komend. Teraz, po aktywacji trybu (skrótem Shift+Tab lub komendą /plan), jego możliwości są czasowo ograniczone wyłącznie do narzędzi odczytu: przeglądania katalogów (Glob), wyszukiwania w plikach (Grep) i czytania plików (ReadFile).
W tym trybie agent analizuje zadanie, a następnie tworzy ustrukturyzowany plan, który zapisuje w specjalnym pliku. Ten plan to nie luźna notatka, lecz konkretna lista kroków do wykonania. Dopiero po jego stworzeniu agent prosi użytkownika o zatwierdzenie, prezentując plan w specjalnym panelu. Użytkownik może go zaakceptować, odrzucić lub – jak pokazują najnowsze zapowiedzi – zażądać jego edycji. Agent będzie wtedy modyfikował tylko odpowiednie sekcje planu, zamiast przepisywać go od zera.
To podejście eliminuje element zaskoczenia. Zamiast sprawdzać historię poleceń po fakcie, wiesz z góry, co agent zamierza zrobić. Jest to szczególnie cenne przy bardziej złożonych refaktoryzacjach czy migracjach, gdzie niechciana zmiana mogłaby zepsuć projekt.
kimi vis: interaktywna wizualizacja sesji
Drugi filar aktualizacji to nowe polecenie kimi vis. Uruchamia ono interaktywny dashboard w przeglądarce, służący do dogłębnej inspekcji śladów sesji. To potężne narzędzie do debugowania i zrozumienia sposobu działania agenta.
Dashboard pozwala przejrzeć chronologię zdarzeń w sesji (timeline), przyjrzeć się pełnemu kontekstowi rozmowy z modelem (context viewer) oraz analizować statystyki użycia. Co praktyczne, z poziomu wizualizacji można też otworzyć katalog sesji czy skopiować jego ścieżkę. W połączeniu z możliwością eksportu i importu całej sesji do pliku ZIP, kimi vis staje się narzędziem do archiwizacji, dzielenia się przykładowymi sesjami lub analizy problematycznych przypadków.
To kolejny krok w demistyfikacji działania AI. Dzięki wizualizacji możesz zobaczyć, jakie narzędzia były wywoływane, w jakiej kolejności i z jakimi argumentami. Jeśli agent podjął złą decyzję, łatwiej zrozumieć dlaczego.
Usprawnione panele i skróty klawiszowe
Aby proces zatwierdzania planów i odpowiadania na pytania agenta był płynny, znacznie przeprojektowano interfejs w trybie shell. W wersji 1.15.0 wprowadzono szybkie wybieranie opcji za pomocą klawiszy numerycznych (1-5) w panelach pytań i zatwierdzeń.
Dodano też nawigację „zakładkową” dla paneli z wieloma pytaniami. Za pomocą strzałek lewo/prawo lub klawisza Tab można przełączać się między pytaniami, co jest bardzo intuicyjne. Panel wizualnie wskazuje, które pytania mają już przypisaną odpowiedź, które jest bieżące, a które oczekują na reakcję. Stan ten jest przywracany po powrocie do danego pytania.
Może wydawać się to drobnostką, ale ma ogromny wpływ na ergonomię. Praca z agentem przestaje być walką z interfejsem, a staje się płynną interakcją. Usunięcie prefiksu z nazwą użytkownika z promptu również uprościło i oczyściło widok terminala.
Lepsza praca z plikami i zasobami
Obsługa plików została dopracowana w kilku obszarach. Po pierwsze, udoskonalono mechanizm wzmiankowania plików za pomocą @. W interfejsie webowym (a koncepcja ta jest kluczowa dla całego ekosystemu) po naciśnięciu @ pojawia się menu z autouzupełnianiem, pozwalając szybko odnosić się do załączonych plików czy plików w obszarze roboczym.
Co ważne, indeks tych plików jest teraz odświeżany po zmianie sesji lub gdy pliki w workspace ulegną zmianie, co eliminuje problem nieaktualnych sugestii. W wersji 1.12.0 dodano też wsparcie dla osadzonej treści zasobów w trybie ACP (Agent Communication Protocol). To techniczna, ale istotna zmiana, która zapewnia, że gdy używamy Kimi z edytorami takimi jak Zed, Neovim czy Emacs, odwołania do plików za pomocą @ poprawnie dołączają ich zawartość do kontekstu.
Kontekst i moc modelu K2.5
Warto pamiętać, że Kimi Code CLI to tylko klient. Jego możliwości są bezpośrednio powiązane z modelem językowym, z którym współpracuje. Obecnie jest to głównie Kimi K2.5, potężny model o architekturze Mixture-of-Experts (MoE).
K2.5 ma imponujące parametry: 1 bilion parametrów całkowitych, z czego 32 miliardy są aktywne podczas inferencji. Jego skuteczność w zadaniach inżynierii oprogramowania potwierdza wynik 92,3% w OCRBench – benchmarku do oceny zdolności wizualnego kodowania. Co kluczowe dla programistów, oferuje tzw. „thinking mode” (tryb myślenia), który pozwala modelowi na dłuższe, wewnętrzne rozumowanie przed podaniem odpowiedzi. W kontekście CLI model ten jest nie tylko potężny, ale i relatywnie tani, co czyni go konkurencyjnym wobec rozwiązań takich jak Claude Code.
Podsumowanie: więcej kontroli, mniej niespodzianek
Ostatnie aktualizacje Kimi Code CLI jasno wyznaczają kierunek: uczynienie AI-assisted coding procesem bardziej przewidywalnym, kontrolowanym i przejrzystym. Tryb planowania oddaje inicjatywę strategiczną w ręce użytkownika, narzędzie kimi vis daje wgląd w „myślenie” agenta, a dopracowane panele i obsługa plików usuwają bariery w codziennej interakcji.
To nie jest już tylko narzędzie do szybkiego generowania kodu. To coraz bardziej dojrzała platforma do współpracy, w której AI działa jak starannie nadzorowany partner, a nie nieprzewidywalny automat. Dla programistów, którzy potrzebują nie tylko szybkości, ale też pewności i możliwości audytu zmian, te funkcje mogą być decydującym argumentem.