Kategoria: Aktualizacje Oprogramowania

  • Google Antigravity 1.20.6: Naprawiono kluczową blokadę w tworzeniu reguł i workflow

    Google Antigravity 1.20.6: Naprawiono kluczową blokadę w tworzeniu reguł i workflow

    Google Antigravity, agentowe IDE, które na starcie mocno poruszyło społeczność programistów, otrzymało nową, pozornie drobną aktualizację. Wersja 1.20.6, która trafiła do użytkowników w połowie marca 2026 roku, skupia się na jednym, lecz absolutnie kluczowym problemie. Chodzi o naprawę błędu uniemożliwiającego tworzenie własnych reguł i workflow – fundamentu personalizacji w tym środowisku.

    Choć w oficjalnym changelogu widnieje tylko jedna pozycja: „Fix for customizations creation”, dla wielu deweloperów ta poprawka oznacza powrót do pełni funkcjonalności. Bez możliwości definiowania własnych reguł cała koncepcja „vibe coding” i zarządzania pracą autonomicznych agentów stawała pod znakiem zapytania.

    Co konkretnie naprawiono w aktualizacji 1.20.6?

    Zgodnie z release notes, głównym i jedynym celem wersji 1.20.6 było usunięcie błędu, który blokował użytkownikom tworzenie nowych dostosowań (customizations). W praktyce chodziło o niemożność definiowania własnych reguł (rules) i przepływów pracy (workflows) wewnątrz platformy.

    To nie jest drobna uciążliwość, a poważna blokada. Reguły w Google Antigravity to mechanizm, za pomocą którego deweloperzy „uczą” swoje agenty specyficznych standardów kodowania, formatowania commitów, preferencji architektonicznych czy zasad code review. Agent, działający w oparciu o modele Gemini, ma te reguły automatycznie uwzględniać, co jest esencją spersonalizowanej, wydajnej współpracy między człowiekiem a AI.

    Wiele wskazuje na to, że błąd mógł być skutkiem ubocznym wcześniejszych aktualizacji. Niektórzy użytkownicy na forach wspominali o problemach z rozpoznawaniem workspace’ów po upgrade’ach, co skutkowało utratą dostępu do zdefiniowanych wcześniej reguł. Aktualizacja 1.20.6 ma być odpowiedzią na te problemy, przywracając podstawową funkcję tworzenia i zarządzania customizacjami.

    Stopniowy rollout i kontekst poprzednich wersji

    Jak to często bywa w przypadku narzędzi Google, nowa wersja Antigravity jest wdrażana stopniowo. Proces rolloutu może trwać kilka dni, zanim aktualizacja dotrze do wszystkich użytkowników systemów Windows, macOS i Linux. Co istotne, platforma oferuje też tryb ręcznej aktualizacji w ustawieniach, pozwalając bardziej ostrożnym użytkownikom pozostać przy starszej, stabilnej wersji, jeśli nowa wprowadza niepożądane zmiany.

    Aby zrozumieć znaczenie tej małej poprawki, warto rzucić okiem na kontekst poprzednich wydań. Bezpośrednio przed 1.20.6 ukazała się wersja 1.20.5 (9 marca 2026), która niosła zestaw ogólnych ulepszeń stabilności i interfejsu użytkownika (3 improvements, 3 fixes, 1 patch). Wcześniej, pod koniec lutego, w wersji 1.20.3 wprowadzono m.in. formalną ścieżkę remediacji dla kont zawieszonych z powodu naruszenia regulaminu.

    To pokazuje, że zespół rozwija platformę wielotorowo: z jednej strony pracuje nad nowymi funkcjami i bezpieczeństwem, a z drugiej musi szybko reagować na krytyczne błędy funkcjonalne, takie jak ten związany z tworzeniem reguł. W świecie developmentu, gdzie automatyzacja przez agenty jest kluczowa, utrata możliwości ich precyzyjnego konfigurowania paraliżuje pracę.

    Dlaczego możliwość tworzenia własnych reguł jest tak ważna?

    Dlaczego możliwość tworzenia własnych reguł jest tak ważna?

    Google Antigravity od początku promowane było nie jako kolejny edytor kodu, ale jako „agent-first IDE”. Jego siłą nie jest sam edytor (choć oferuje znany z VS Code panel boczny dla agenta), lecz możliwość równoległego zarządzania wieloma autonomicznymi agentami w widoku Manager. Agenci potrafią tworzyć „Artefakty” – listy zadań, plany, zrzuty ekranu – i mają dostęp do edytora, terminala oraz przeglądarki.

    Jednak bez możliwości nadania im klarownych, spersonalizowanych instrukcji, ich autonomia może prowadzić do chaosu. Tu właśnie wkracza mechanizm reguł. W materiałach promocyjnych z marca 2026 wspominano o wsparciu dla plików agents.mmd, w których deweloperzy mogą definiować swoje standardy kodowania, format commitów czy preferencje. Agenci mają te zasady odczytywać i automatycznie się do nich stosować.

    Wyobraźmy sobie zespół, który ma ściśle określone konwencje nazewnictwa zmiennych, strukturę katalogów czy wymagania dotyczące testów. Wprowadzenie tych zasad jako reguł do Antigravity sprawia, że każdy agent działający na rzecz projektu będzie je respektował. To ogromna oszczędność czasu na mikrozarządzaniu i korektach. Blokada w tworzeniu takich reguł oznaczałaby więc powrót do ręcznego, żmudnego poprawiania sugestii AI.

    Nierozwiązane problemy i perspektywy użytkowników

    Nierozwiązane problemy i perspektywy użytkowników

    Choć aktualizacja 1.20.6 rozwiązuje palący problem, społeczność zwraca uwagę na inne, wciąż istniejące błędy. Jeden z użytkowników zgłasza na forum uporczywy problem specyficzny dla macOS na architekturze Apple Silicon: żądania agentów kończą się błędem HTTP 400 „Invalid project resource name projects/”. Problem ten, związany z serializacją, podobno przetrwał nawet aktualizację do 1.20.6 i wymaga lokalnych obejść (workarounds).

    Pojawiają się też głosy o innych kwestiach, jak różnice w limitach odświeżania między planami subskrypcyjnymi (8-dniowe blokady na planach płatnych vs 7-dniowe na darmowym), które mogą wpływać na płynność pracy. To przypomina, że rozwój tak złożonej, wieloplatformowej i opartej na chmurze AI aplikacji to ciągłe żonglowanie priorytetami.

    Mimo że jedna poprawka może wyglądać jak „literal nothingburger”, jak napisał jeden z użytkowników, to w rzeczywistości odblokowuje ona kluczowy element filozofii Antigravity. Platforma ma sens tylko wtedy, gdy deweloper może ją dostosować do swojego unikalnego flow i swojego „vibe’u”. Bez tej personalizacji jest po prostu kolejnym edytorem z chatbotem.

    Podsumowanie: Mała poprawka, duże znaczenie dla workflow

    Wydanie Google Antigravity 1.20.6 to klasyczny przykład „critical fix”. Z punktu widzenia liczby pozycji w changelogu aktualizacja jest minimalna. Z punktu widzenia użytkownika, który polega na autonomii agentów i ich precyzyjnym dostrojeniu, jest to aktualizacja niezbędna.

    Przywrócenie możliwości tworzenia i zarządzania customizacjami, regułami i workflow oznacza przywrócenie kontroli nad procesem developmentu. Pozwala deweloperom w pełni wykorzystać potencjał „vibe coding”, gdzie agenci nie tylko wykonują zadania, ale robią to zgodnie z ustalonymi, wewnętrznymi standardami.

    Dla społeczności skupionej wokół web developmentu, AI i DevOps, gdzie automatyzacja i spójność są na wagę złota, ta naprawa jest kluczowa. Pokazuje też, że zespół Google Antigravity aktywnie słucha feedbacku i reaguje na blokujące problemy, nawet jeśli ich rozwiązanie nie jest opatrzone fanfarami nowych funkcji. W końcu najważniejsza innowacja to ta, która po prostu działa.

  • OpenCode 1.2.27: wsparcie dla wielu okien i znaczny wzrost wydajności

    OpenCode 1.2.27: wsparcie dla wielu okien i znaczny wzrost wydajności

    Wydanie OpenCode w wersji 1.2.27, które zadebiutowało 16 marca 2026 roku, przynosi szereg poprawek i optymalizacji stabilizujących działanie narzędzia. To nie są jedynie kosmetyczne zmiany, lecz solidna aktualizacja, która wzmacnia fundamenty tego otwartoźródłowego asystenta kodowania AI.

    Popularność narzędzi do vibe coding, czyli programowania sterowanego promptami, rośnie lawinowo. Deweloperzy szukają rozwiązań, które nie tylko zrozumieją ich intencje, ale też pozwolą płynnie zarządzać złożonymi projektami. OpenCode odpowiada na te potrzeby, łącząc potężne zdolności agentowe z praktycznym interfejsem. Wersja 1.2.27 udowadnia, że twórcy projektu słuchają swojej społeczności.

    Stabilizacja i poprawki błędów

    Kluczową poprawką, która powstała dzięki zgłoszeniu społeczności, jest usunięcie błędu zaraportowanego przez użytkownika @luisfelipesena (#16814). Problem dotyczył utraty sesji po inicjalizacji repozytorium Git w istniejącym projekcie (git init). Wyobraźcie sobie sytuację: zaczynacie pracę z OpenCode w folderze, który nie jest jeszcze pod kontrolą wersji. Agent pomaga w pisaniu kodu, a potem decydujecie się dodać Gita. I nagle… cała sesja znika. Wersja 1.2.27 definitywnie rozwiązuje ten problem, co dla wielu procesów wytwórczych opartych na VCS jest nie do przecenienia.

    Kolejna istotna zmiana dotyczy rdzenia aplikacji. Przeprowadzono refaktoryzację ProviderAuthService oraz AuthService z użyciem wzorca Effect, co przekłada się na większą niezawodność i łatwiejsze utrzymanie kodu.

    Desktop nabiera blasku i szybkości

    Desktop nabiera blasku i szybkości

    Aktualizacja interfejsu użytkownika w aplikacji desktopowej to zestaw usprawnień, które zapewniają płynniejszą pracę.

    • Wybór modelu AI jest teraz trwale przypisany do sesji*. Jeśli w danej sesji pracujecie z konkretnym modelem, to przy kolejnym powrocie do niej ten wybór zostanie zachowany. To drobiazg, który eliminuje irytujące powtarzanie tej samej czynności.

    Dostrojono również kontrolki kompozytora promptów, czyli miejsca, w którym wpisujecie instrukcje dla AI. Działają one teraz bardziej responsywnie, co niweluje poczucie opóźnienia (latency). Naprawiono też uciążliwy błąd, przez który przewijanie tekstu „uciekało” poza pole wprowadzania promptu.

    Wizualnie otwieranie i zamykanie paska bocznego wzbogacono o subtelne animacje, które obejmują nawet elementy paska tytułowego. Poprawiono odstępy, kolory wskaźników ładowania oraz tła elementów listy. To właśnie te detale sprawiają, że aplikacja sprawia wrażenie dopracowanej.

    Stabilność i wsparcie dla ekosystemu

    Stabilność i wsparcie dla ekosystemu

    Wydanie zawiera również poprawki stabilizujące pracę w różnych środowiskach. Tryb fail-fast podczas instalacji zależności konfiguracyjnych w testach end-to-end pozwala szybciej wykryć problemy z budowaniem projektu (buildem). Dla użytkowników AWS poprawiono filtrowanie pustych bloków treści dla dostawcy Bedrock (poprawka @elithrar, #14586).

    Interfejs wiersza poleceń (CLI) został wzbogacony o nowe funkcje zarządzania, co ułatwia codzienną pracę. Z kolei w trybie tekstowym (TUI) uporządkowano listę dostawców przy logowaniu i usunięto zbędne ostrzeżenie dotyczące OpenRouter.

    Co ciekawe, w przygotowaniu tej aktualizacji brało udział kilku aktywnych współtwórców spoza głównego zespołu, takich jak @luisfelipesena, @elithrar i @ryanskidmore. Pokazuje to, jak kluczowy jest wkład społeczności – to właśnie ich zgłoszenia i poprawki doprowadziły do wyeliminowania najbardziej uciążliwych błędów.

    Co to oznacza dla Twojego workflow?

    Jeśli jesteś web deweloperem, te zmiany bezpośrednio wpłyną na Twoją codzienną pracę. Stabilniejsze działanie oznacza, że OpenCode będzie lepiej radzić sobie z dużymi projektami, zawierającymi tysiące plików i zależności.

    Dla entuzjastów sztucznej inteligencji i vibe coding refaktoryzacja usług autoryzacji to inwestycja w przyszłość. Czystsza architektura ułatwi dodawanie nowych modeli i dostawców, a także zapewni większą stabilność podczas długich, złożonych sesji z agentem.

    Z perspektywy DevOps naprawa problemów z Gitem, lepsze zarządzanie sesjami i ogólna stabilizacja sprawiają, że OpenCode staje się bardziej godnym zaufania narzędziem, które można włączyć w zautomatyzowany pipeline lub wykorzystać do utrzymania skomplikowanej infrastruktury.

    Podsumowanie

    Wydanie OpenCode 1.2.27 nie kusi krzykliwymi nowościami. Zamiast tego skupia się na fundamentalnych usprawnieniach: stabilności i ergonomii. Głębokie optymalizacje silnika i interfejsu przygotowują grunt pod dalszy rozwój.

    To aktualizacja, która świadczy o dojrzałości projektu. Zamiast gonić za kolejnymi, niedopracowanymi funkcjami, twórcy dopracowali podstawy. Efekt? Narzędzie, które nie tylko potrafi więcej dzięki AI, ale po prostu zapewnia lepszy komfort pracy. To prawdopodobnie najlepsza wiadomość dla wszystkich, którzy już używają OpenCode lub planują go wypróbować.

  • OpenCode v1.2.25: lepsze bezpieczeństwo typów, wsparcie arm64 i rozszerzona integracja z modelami językowymi

    OpenCode v1.2.25: lepsze bezpieczeństwo typów, wsparcie arm64 i rozszerzona integracja z modelami językowymi

    Projekt OpenCode, otwartoźródłowy asystent kodowania działający w terminalu, IDE i jako aplikacja desktopowa, właśnie otrzymał znaczącą aktualizację. Wersja 1.2.27 przynosi szereg usprawnień architektonicznych, które mają bezpośredni wpływ na stabilność, wydajność i możliwości pracy z AI. To nie są kosmetyczne poprawki, lecz zmiany, które realnie wpływają na codzienną pracę programistów korzystających z narzędzi do „vibe coding”.

    Najważniejsze nowości? Zwiększone bezpieczeństwo typów dzięki „branded types”, natywne wsparcie dla architektury ARM64 na Windows oraz rozszerzenie możliwości integracji z dużymi modelami językowymi (LLM) o rozwiązania spoza ekosystemu OpenAI.

    Fundamenty bezpieczniejsze niż kiedykolwiek: branded types

    Jedną z kluczowych zmian w rdzeniu OpenCode jest wprowadzenie tzw. branded types. To zaawansowana technika w TypeScripcie, która pomaga zapobiegać błędom logicznym przez nadanie typom prostym (jak string czy number) swoistej „tożsamości”. Na czym to polega? W skrócie: identyfikator projektu (ProjectID) przestaje być zwykłym ciągiem znaków. Staje się osobnym typem, który nie jest wymienny z identyfikatorem sesji (SessionID) czy dostawcy modelu (ProviderID).

    W praktyce oznacza to, że kompilator wyłapie błąd, jeśli przez pomyłkę przekażesz WorkspaceID tam, gdzie oczekiwany jest ModelID. Te typy są teraz propagowane przez wewnętrzne sygnatury funkcji, schematy w bazie danych (Drizzle) i walidację danych (Zod). Dla programistów korzystających z API OpenCode lub rozwijających jego wtyczki to duży skok w stronę eliminacji całej klasy błędów już na etapie pisania kodu. To także uszczelnienie przepływów związanych z kontami użytkowników, które zostały przepisane z użyciem biblioteki Effect dla większej przewidywalności i odporności na błędy.

    ARM64 dla Windows: szybsza praca na nowym sprzęcie

    Drugą ważną wiadomością, zwłaszcza dla użytkowników laptopów z procesorami ARM (jak Microsoft Surface Pro z Qualcomm Snapdragon X), jest dodanie natywnych plików binarnych dla ARM64 na Windows. Dotąd OpenCode prawdopodobnie działał na takim sprzęcie przez warstwę emulacji. Teraz może korzystać z pełni możliwości procesora, co przekłada się na szybsze uruchamianie, płynniejszą pracę terminala i mniejsze zużycie energii.

    To nie jest odosobniona poprawka. W zestawieniu widać też inne zmiany dla środowiska Windows, jak ukrywanie konsoli w tle w frameworku Electron czy poprawki w ścieżkach Git dla Git Bash, MSYS2 i Cygwin. Wszystko to wskazuje na konsekwentne dbanie o doświadczenie użytkowników tej platformy.

    LLM bez granic: Azure, Vertex AI i optymalizacja agenta

    LLM bez granic: Azure, Vertex AI i optymalizacja agenta

    Jeśli chodzi o integrację z AI, OpenCode w wersji 1.2.27 znacząco poszerza horyzonty. Najważniejsze zmiany to:

    • Wsparcie dla modeli innych niż OpenAI na Azure. Teraz narzędzie potrafi korzystać z endpointów completions dostępnych na platformie Azure, otwierając drogę do używania różnorodnych modeli hostowanych w chmurze Microsoftu.
    • Integracja z Google Vertex AI. Dzięki wkładowi społeczności dodano obsługę Vertex AI poprzez zmienną środowiskową GOOGLE_VERTEX_LOCATION. To proste, ale potężne rozszerzenie ekosystemu dostępnych modeli.
    • Lepsza prezentacja umiejętności agenta. To ciekawa optymalizacja pod kątem efektywności kosztowej. Mechanizm, który informuje model AI o dostępnych narzędziach (skills) i funkcjach OpenCode, został dopracowany. Chodzi o to, by zużywać mniej tokenów na te opisy, jednocześnie zwiększając szansę, że AI poprawnie zidentyfikuje i wywoła potrzebne narzędzie. W efekcie sesje mogą być tańsze i bardziej precyzyjne.
    • Wsparcie wariantów „thinking” dla SAP AI. Dla użytkowników modeli SAP AI dodano możliwość korzystania z różnych wariantów rozumowania (thinking variants).

    Stabilność, stabilność i jeszcze raz stabilność

    Stabilność, stabilność i jeszcze raz stabilność

    Lista poprawek w tym wydaniu jest długa i pełna technicznych szczegółów, które przekładają się na znacznie większy komfort użytkowania. Wśród nich warto wymienić:

    • Odporność na błędy przy pobieraniu danych organizacji. System lepiej radzi sobie z chwilowymi problemami sieciowymi.
    • Bezpieczne przełączanie kont. Logowanie i aktualizowanie kont zostało zabezpieczone, co jest kluczowe w środowiskach wieloużytkownikowych.
    • Rozwiązanie problemu z cache'owaniem dowiązań symbolicznych (symlinków). Zapobiega to tworzeniu duplikatów kontekstu w pamięci.
    • Naprawiony timeout przy przetwarzaniu długich strumieni odpowiedzi z LLM oraz ograniczenie dostępu do katalogów systemowych w celu zwiększenia bezpieczeństwa.
    • Poprawki w zarządzaniu cyklem życia procesów (spawn lifecycle), które eliminują procesy „zombie” pozostające w tle.

    Aplikacja desktopowa i terminal: płynniejszy interfejs

    Część desktopowa oraz TUI (Text-based User Interface, czyli interfejs terminalowy) również otrzymały solidną porcję poprawek. Użytkownicy aplikacji desktopowej zauważą:

    • Większą płynność i brak problemów ze stanem terminala. Poprawiono animacje, zarządzanie fokusem i ogólną responsywność.
    • Naprawione błędy z rozmiarem paska bocznego na urządzeniach mobilnych w trybie workflow.
    • Przepisaną inicjalizację serwera i połączenia WebSocket dla większej niezawodności.
    • Nowe okno debugowania i statystyki deweloperskie dla osób chcących zajrzeć pod maskę.
    • Zoptymalizowane renderowanie sesji, co odciąża procesor.

    W interfejsie terminalowym (TUI) poprawiono m.in. obsługę błędów przy tworzeniu nowej sesji i zapewniono, że automatyczne przesyłanie promptów (--prompt) czeka na pełne załadowanie listy modeli.

    Dlaczego te zmiany mają znaczenie?

    OpenCode pozycjonuje się jako otwarta alternatywa dla komercyjnych asystentów kodowania. Wydanie 1.2.27 pokazuje, że projekt dojrzewa nie tylko przez dodawanie nowych funkcji, ale przede wszystkim przez inwestycję w solidność fundamentów.

    Bezpieczeństwo typów to mniej błędów w przyszłości. Wsparcie ARM64 to dbałość o użytkowników nowej generacji sprzętu. Rozszerzenie integracji z LLM pozwala uniknąć uzależnienia od jednego dostawcy (vendor lock-in) i zapewnia elastyczność. Natomiast setki poprawek stabilizacyjnych oznaczają, że można skupić się na pisaniu kodu z pomocą AI, zamiast walczyć z narzędziem.

    Dla społeczności skupionej wokół web developmentu, AI i „vibe coding” to istotny krok. Pokazuje on, że otwartoźródłowe narzędzia mogą nie tylko naśladować liderów rynku, ale też wprowadzać innowacje na poziomie architektury i kompatybilności. Teraz pozostaje tylko sprawdzić, jak te wszystkie ulepszenia sprawdzają się w codziennej pracy.

  • Kimi Code CLI w wersji 1.20.0: lepszy tryb planowania, zarządzanie sesjami i kluczowe poprawki

    Kimi Code CLI w wersji 1.20.0: lepszy tryb planowania, zarządzanie sesjami i kluczowe poprawki

    Nowa wersja narzędzia Kimi Code CLI, oznaczona numerem 1.20.0, to solidna aktualizacja skupiająca się na ulepszeniu istniejących funkcji i naprawie uciążliwych błędów. To nie rewolucja, ale ważny krok w rozwoju tego popularnego, open-source'owego asystenta programistycznego, który pozwala pracować z kodem i terminalem przy pomocy AI. Wydanie koncentruje się głównie na dopracowaniu trybu planowania, który zadebiutował w poprzedniej wersji, oraz na dodaniu praktycznych opcji zarządzania sesjami.

    Tryb planowania trafia do interfejsu webowego

    Jedna z najważniejszych nowości w wersji 1.20.0 dotyczy trybu planowania (plan mode). Funkcja ta, wprowadzona w wersji 1.19.0, pozwala agentowi AI przejść w fazę projektowania działań. W tym trybie ma on dostęp wyłącznie do narzędzi odczytu, takich jak przeglądanie plików (Glob, Grep, ReadFile). Może wówczas zapisać strukturalny plan działania do pliku i przedstawić go użytkownikowi do akceptacji, zanim przystąpi do faktycznego wykonania zadań.

    Co się zmienia? Przede wszystkim tryb planowania przestaje być wyłącznie funkcją konsolową. W wersji 1.20.0 dodano przełącznik w interfejsie webowym. Dzięki temu użytkownicy preferujący pracę w przeglądarce mogą łatwo włączać i wyłączać ten tryb za pomocą przycisku na pasku narzędzi. Gdy tryb jest aktywny, pole edycji zostaje obramowane przerywaną, niebieską linią, co stanowi jasną wskazówkę wizualną.

    Co równie istotne, stan trybu planowania jest teraz zapisywany. Oznacza to, że po zamknięciu sesji i powrocie do niej później, Kimi Code CLI pamięta, czy pracowałeś w trybie planowania. Ta pozornie drobna zmiana znacząco poprawia płynność pracy nad złożonymi projektami wymagającymi wielu sesji.

    Dodano też podgląd planu w UI. To kolejne ułatwienie – teraz nie musisz szukać pliku z planem w systemie, aby go przejrzeć. Wszystko jest dostępne bezpośrednio w interfejsie.

    Pełna kontrola nad sesjami: eksport, import, usuwanie

    Drugim filarem tej aktualizacji jest znacznie ulepszone zarządzanie sesjami. Do tej pory sesje były zarządzane głównie z poziomu konsoli. Wersja 1.20.0 wprowadza kompleksowy zestaw akcji ułatwiających ich archiwizację i przenoszenie.

    W interfejsie wizualizacji (kimi vis) oraz na stronie szczegółów sesji pojawiły się nowe przyciski. Teraz możesz:

    • Pobrać sesję jako plik ZIP jednym kliknięciem.
    • Zaimportować sesję z pliku ZIP. Importowane sesje trafiają do dedykowanego katalogu ~/.kimi/imported_sessions/ i są oznaczone specjalnym filtrem „Imported”.
    • Eksportować sesję z linii komend za pomocą poleceń dostępnych w interfejsie webowym (kimi vis).
    • Usuwać sesje, w tym te zaimportowane, z dodatkowym potwierdzeniem w oknie dialogowym.

    To potężne funkcje dla zespołów i osób, które chcą tworzyć kopie zapasowe swojej pracy, dzielić się konkretnymi sesjami debugowania ze współpracownikami lub po prostu usunąć stare, niepotrzebne konwersacje z agentem.

    Kluczowe poprawki błędów poprawiające komfort pracy

    Pod maską wersja 1.20.0 przynosi szereg poprawek rozwiązujących konkretne problemy zgłaszane przez użytkowników. To właśnie te zmiany często mają największy wpływ na codzienną wygodę użytkowania.

    • Problem z nagłówkami HTTP na Linuxie: W systemach Linux białe znaki (spacje, znaki nowej linii) na końcach wartości nagłówków HTTP mogły powodować błędy połączenia, szczególnie przy autoryzacji OAuth. Poprawka automatycznie przycina te zbędne znaki.
    • Formatowanie odpowiedzi OpenAI: Dostawca „OpenAI Responses” czasami wysyłał niejawny parametr reasoning.effort=null, co mogło naruszać kompatybilność z niektórymi endpointami oczekującymi specyficznego formatu. Teraz parametry związane z rozumowaniem (reasoning) są pomijane, chyba że zostaną ustawione jawnie.
    • Kompresja kontekstu z plikami multimedialnymi: Gdy konwersacja zawierała elementy multimedialne (obrazy, audio, wideo), proces automatycznej kompresji kontekstu mógł się nie powieść, co prowadziło do błędów API. Zamiast czarnej listy (wykluczającej ThinkPart), zastosowano białą listę (zachowującą tylko TextPart), co stabilizuje działanie tej funkcji.
    • Odświeżanie indeksu plików w web UI: System wzmianek plików (użycie symbolu @) w interfejsie webowym czasami nie odświeżał się po zmianie sesji lub po modyfikacji plików w obszarze roboczym (workspace). Teraz indeks jest resetowany przy przełączaniu sesji i automatycznie odświeżany po 30 sekundach braku aktywności.

    Kontekst i jak zacząć

    Kimi Code CLI to napisany w Pythonie agent działający w linii komend. To narzędzie dla programistów, które łączy czat AI, edycję kodu, wykonywanie poleceń shell oraz integrację z IDE, takimi jak Zed czy Neovim, przez protokół ACP. Instalacja odbywa się za pomocą menedżera pakietów uv (uv tool install kimi-cli) lub PyPI.

    Po instalacji uruchomienie polecenia kimi w katalogu projektu otwiera interaktywną powłokę. Polecenie /setup przeprowadzi Cię przez konfigurację klucza API, a /help wyświetli listę dostępnych komend. Aktualizację do najnowszej wersji wykonasz komendą uv tool upgrade kimi-cli --no-cache.

    Wydanie 1.20.0 doskonale wpisuje się w obecne trendy w narzędziach deweloperskich opartych na AI: stawianie na trwałość sesji, dopracowywanie interfejsów użytkownika (zarówno webowych, jak i CLI) oraz głębszą integrację z workflow programisty. Nie są to spektakularne nowości, lecz zmiany budujące solidne fundamenty pod długoterminową użyteczność narzędzia. Naprawa błędów związanych z kompresją kontekstu czy nagłówkami HTTP może być niewidoczna na pierwszy rzut oka, ale dla osób, które się z nimi borykały, stanowi o diametralnej poprawie stabilności.

    Podsumowanie

    Wersja 1.20.0 Kimi Code CLI to przykład dojrzałego rozwoju oprogramowania. Zamiast dodawać kolejne, być może niedopracowane funkcje, zespół skupił się na szlifowaniu i utrwalaniu istniejących rozwiązań. Przeniesienie trybu planowania do UI webowego i zapisywanie jego stanu sprawia, że funkcja ta staje się w pełni praktyczna. Nowe opcje zarządzania sesjami dają użytkownikom pełną kontrolę nad ich pracą, a zestaw poprawek eliminuje przeszkody irytujące w codziennym użytkowaniu.

    To aktualizacja, która prawdopodobnie nie wywoła dużego szumu, ale jej brak byłby odczuwalny. Dla obecnych użytkowników oznacza po prostu płynniejszą i bardziej przewidywalną pracę, a dla nowych – narzędzie, które od pierwszego uruchomienia działa stabilniej. W świecie szybko rozwijających się asystentów AI taka dbałość o detale i użyteczność jest dokładnie tym, czego potrzebują programiści.

  • Codex 0.113.0: większa kontrola nad uprawnieniami, rynek pluginów i lepszy serwer aplikacji

    Codex 0.113.0: większa kontrola nad uprawnieniami, rynek pluginów i lepszy serwer aplikacji

    Wydanie Codex 0.113.0 to nie tylko kolejna aktualizacja, ale solidny krok naprzód w budowaniu platformy do zaawansowanej automatyzacji kodowania. OpenAI skupia się na trzech kluczowych filarach: bezpieczeństwie, ekosystemie i użyteczności. Najnowsza wersja wprowadza dynamiczne żądania uprawnień w runtime, ulepsza zarządzanie pluginami i znacząco poprawia wydajność serwera aplikacji. Dla developerów oznacza to większą elastyczność i mniej problemów technicznych.

    Dynamiczne uprawnienia: agent pyta o pozwolenie

    Jedna z najciekawszych nowości to wbudowane narzędzie request_permissions. Do tej pory Codex wymagał predefiniowanego zestawu uprawnień przy uruchomieniu. Jeśli w trakcie pracy agent potrzebował dostępu do nowego zasobu, mógł po prostu przestać działać.

    Teraz to się zmienia. Działający agent może w trakcie wykonywania zadania poprosić użytkownika o dodatkowe uprawnienia, np. dostęp do konkretnego katalogu, połączenia sieciowego czy uruchomienie zewnętrznego polecenia. To rozwiązanie przypomina systemy uprawnień znane z nowoczesnych mobilnych systemów operacyjnych.

    Dlaczego to ważne? Zwiększa płynność pracy. Zamiast przewidywać każdy scenariusz w konfiguracji, możemy zacząć zadanie z podstawowym zestawem uprawnień, a Codex poprosi o więcej w miarę potrzeb. To duży krok w stronę bardziej interaktywnej i opartej na współpracy automatyzacji.

    Dojrzałość ekosystemu pluginów: odkrywanie i zarządzanie

    Pluginy w Codex zyskują na dojrzałości, co widać w kilku konkretnych ulepszeniach. Po pierwsze, dodano endpoint plugin/uninstall, który wreszcie pozwala na czyste usunięcie niechcianych rozszerzeń. To podstawowa funkcja, której brak był dotkliwy przy zarządzaniu środowiskiem.

    Po drugie, metadane zwracane przez polecenie plugin/list są teraz bogatsze. Mamy więcej informacji o samym pluginie, jego autorze czy wymaganiach. Instalacja jest też bezpieczniejsza, ponieważ weryfikacja autoryzacji następuje już na etapie instalacji, a nie dopiero przy pierwszym uruchomieniu. Te zmiany sprawiają, że zarządzanie wtyczkami przestaje być eksperymentem, a staje się przewidywalną częścią workflow.

    Aplikacje i serwer: poprawki i niezawodność

    Ulepszenia serwera aplikacji (app-server) są skierowane do osób, które używają Codex w zautomatyzowanych pipeline'ach lub integrują go z własnymi narzędziami. Wprowadzono między innymi health checki, które zwiększają niezawodność monitorowania.

    Exec został też przeniesiony na nową, wewnątrzprocesową ścieżkę serwera aplikacji, co zwiększa wydajność i stabilność. Te poprawki sprawiają, że integracja Codex z innymi systemami staje się bardziej niezawodna.

    Bezpieczeństwo i konfiguracja: nowy język polityk

    Bezpieczeństwo i konfiguracja: nowy język polityk

    Bezpieczeństwo sandboxa przeszło spory lifting. Wprowadzono wstępne wsparcie dla konfiguracji profili uprawnień (permission-profile) w pliku config.toml. Jest to istotne dla zespołów korporacyjnych i każdego, kto poważnie traktuje bezpieczeństwo. Daje to administratorom narzędzie do definiowania zasad zgodnych z polityką firmy, bez blokowania produktywnej pracy.

    Konfiguracja wyszukiwania w sieci również została rozbudowana. Nie jest to już prosty przełącznik on/off. Możemy skonfigurować filtry, ustawienia zależne od lokalizacji i inne parametry narzędzia, co pozwala dostosować je do specyficznych potrzeb projektu lub wymogów compliance.

    Poprawki i usprawnienia pod maską

    Wydanie przynosi też zestaw ważnych poprawek rozwiązujących codzienne problemy. Dodano ściślejszą walidację katalogu roboczego przy starcie sandboxa, co powinno zwiększyć stabilność działania.

    Dla użytkowników pluginów istotna jest poprawka gwarantująca, że wtyczki ładują się poprawnie w sesjach TUI. Brzmi to technicznie, ale wcześniej mogło się zdarzyć, że plugin był zainstalowany, lecz nie działał w interfejsie tekstowym.

    Ciekawostką jest dodanie funkcji inspekcji obrazów. Dla użytkowników Windowsa mamy dobrą wiadomość: wydania CLI są teraz publikowane także w menedżerze pakietów winget.

    Podsumowanie: w stronę bardziej responsywnej platformie

    Codex 0.113.0 nie rewolucjonizuje jednej konkretnej funkcji, ale konsekwentnie poprawia fundamenty platformy. Wprowadzenie dynamicznych uprawnień to zmiana filozofii – ze sztywnego agenta na współpracownika, który pyta i dostosowuje się na bieżąco. Dojrzałość zarządzania pluginami oraz istotne ulepszenia serwera aplikacji otwierają nowe możliwości integracji i automatyzacji złożonych procesów.

    Nowe wsparcie dla profili uprawnień to odpowiedź na potrzeby profesjonalnego, zespołowego wykorzystania Codex w środowiskach, gdzie kontrola jest kluczowa. Wszystko to uzupełnia solidna porcja poprawek błędów, dzięki którym codzienna praca z narzędziem staje się po prostu przyjemniejsza. Widać wyraźnie, że projekt open-source Codex CLI ewoluuje w kompletne, robustowe środowisko deweloperskie. Aktualizację można zainstalować standardowo przez npm: npm install -g @openai/[email protected].

  • OpenCode Zwiększa Możliwości: Lepsze Wsparcie Windows, Nowe Modele AI i Udoskonalenia Interfejsu

    OpenCode Zwiększa Możliwości: Lepsze Wsparcie Windows, Nowe Modele AI i Udoskonalenia Interfejsu

    Najnowsza wersja OpenCode, oznaczona numerem 1.2.21 i wydana 7 marca 2026 roku, przynosi szereg istotnych ulepszeń, które umacniają pozycję tego otwartoźródłowego asystenta kodowania jako wszechstronnego narzędzia. Aktualizacja koncentruje się na poprawie kompatybilności z systemem Windows, rozszerza listę dostępnych modeli AI o najnowsze rozwiązania i wprowadza liczne usprawnienia interfejsu, które znacząco podnoszą komfort codziennej pracy.

    Dla społeczności liczącej już miliony programistów zmiany te oznaczają bardziej stabilne i przyjazne środowisko do współpracy z agentami AI, niezależnie od wybranej platformy czy dostawcy modeli.

    Solidny fundament: Windows, ścieżki i kompatybilność

    Jednym z kluczowych obszarów tej aktualizacji jest poprawa działania w środowisku Windows. Zespół OpenCode kontynuuje prace nad stabilnością i wydajnością na tej platformie, wprowadzając ogólne ulepszenia systemowe.

    Zoptymalizowano uruchamianie aplikacji desktopowej, która w systemie Windows domyślnie korzysta teraz z PowerShella zamiast tradycyjnego wiersza poleceń (Command Prompt), co zapewnia lepsze wsparcie dla skryptów i narzędzi deweloperskich. Poprawki sięgają też głębiej – zaimplementowano lepszą obsługę sygnałów w celu bezpiecznego zamykania procesów oraz wprowadzono optymalizacje związane z monitorowaniem systemu plików. Te zmiany, choć mniej widoczne na pierwszy rzut oka, są kluczowe dla długoterminowej stabilności i wydajności narzędzia.

    Nowa moc AI: Claude Opus 4.6 i rozszerzona lista dostawców

    OpenCode słynie z agnostycznego podejścia do modeli językowych, obsługując ponad 75 dostawców – od gigantów takich jak Anthropic, OpenAI czy Google, po lokalne rozwiązania typu Ollama. Wersja 1.2.21 poszerza ten ekosystem o najnowsze i najbardziej wydajne modele.

    Użytkownicy mogą teraz wykorzystywać możliwości Claude Opus 4.6. Dodano również wsparcie dla modeli GPT-5.2-codex w różnych wariantach, wraz z odpowiednią dokumentacją i uwierzytelnianiem dla usługi Codex. Dla użytkowników SAP AI dodano wsparcie dla wariantów „thinking”, a dla Google Vertex AI wprowadzono zmienną środowiskową GOOGLE_VERTEX_LOCATION, pozwalającą precyzyjnie wybrać region.

    Co istotne, wybór modelu jest teraz trwale zapisywany dla każdej sesji. Oznacza to, że jeśli w konkretnym zadaniu przełączysz się na przykład na Claude’a, to przy ponownym otwarciu sesji agent będzie nadal korzystał z tego modelu. To drobne, ale niezwykle praktyczne usprawnienie, które pozwala zaoszczędzić czas i eliminuje potrzebę pamiętania o ręcznej zmianie ustawień.

    Dopracowany interfejs: kompaktowy widok, płynność i intuicyjność

    Najbardziej odczuwalne zmiany zaszły w warstwie interfejsu użytkownika (UI), zarówno w aplikacji desktopowej, jak i w interfejsie terminalowym (TUI). Celem było uproszczenie obsługi, przyspieszenie działania i poprawa ergonomii.

    W aplikacji desktopowej wprowadzono opcjonalny kompaktowy widok interfejsu, który redukuje zbędne odstępy i pozwala wyświetlić więcej treści na ekranie. Cały system animacji został przeprojektowany – od płynnego chowania i pokazywania panelu bocznego, przez animacje przycisków w pasku tytułowym, po lepsze przejścia spinnerów na liście sesji. Dzięki temu aplikacja nie tylko działa sprawniej, ale i sprawia wrażenie nowocześniejszej.

    Naprawiono również irytujące błędy, takie jak przewijanie, które „uciekało” pod pole wprowadzania promptu, czy nieprawidłowe kolory tła elementów listy. Ulepszono obsługę wielu okien w Electronie, dodano ikonę „Home” dla łatwiejszej nawigacji oraz podgląd plików SVG bezpośrednio w przeglądarce sesji. W TUI poprawiono wyświetlanie statusu narzędzi – zamiast ogólnego „Running…” użytkownik widzi teraz liczbę oczekujących wywołań lub strzałkę wskazującą aktywność.

    Ulepszenia pod maską: sesje, pluginy i workflow

    Oprócz nowych funkcji wersja 1.2.21 wprowadza wiele usprawnień w podstawowej mechanice działania OpenCode.

    Zaimplementowano paginację historii sesji po stronie serwera, co znacząco poprawia wydajność przy pracy z dużą liczbą zapisanych rozmów. W celu zwiększenia niezawodności przepisano kluczowe usługi (ProviderAuthService, AuthService) przy użyciu biblioteki Effect. W CLI dodano podkomendy do zarządzania kontami oraz mechanizm „fail-fast” przy instalacji zależności konfiguracyjnych w testach.

    W obszarze agenta AI wprowadzono istotne zmiany w strukturze: pole tools jest teraz oznaczone jako przestarzałe (zastąpione przez permission), podobnie jak maxSteps (obecnie używa się steps). Dodano interaktywne narzędzie do zadawania pytań o preferencje użytkownika oraz opcję wyłączenia automatycznego ładowania promptów i umiejętności z pliku .claude. Daje to programistom większą i bardziej precyzyjną kontrolę nad zachowaniem agenta.

    Podsumowanie: dojrzałość i skupienie na detalach

    Wydanie OpenCode 1.2.21 nie jest rewolucją, lecz świadectwem dojrzałości projektu. Zamiast wprowadzać niedopracowane nowości, zespół skupił się na systematycznym wzmacnianiu fundamentów, usuwaniu błędów i dopracowaniu User Experience na wszystkich frontach.

    Ulepszenia dla Windowsa wzmacniają pozycję projektu na tej platformie. Nowe modele AI dają dostęp do najnowocześniejszych możliwości językowych. Z kolei setki drobnych poprawek w interfejsie składają się na wrażenie płynności i solidności, które jest kluczowe w narzędziu używanym codziennie przez wiele godzin. To właśnie takie aktualizacje, budujące zaufanie poprzez niezawodność i dbałość o szczegóły, cementują pozycję OpenCode jako jednego z wiodących otwartoźródłowych agentów kodowania.

  • OpenCode v1.2.20: Fundament Stabilności i Udoskonalenia Interfejsu Terminalowego

    OpenCode v1.2.20: Fundament Stabilności i Udoskonalenia Interfejsu Terminalowego

    Wydanie OpenCode w wersji 1.2.20, opublikowane 6 marca 2026 roku, to kolejny kluczowy krok w ewolucji tego zaawansowanego środowiska programistycznego wspieranego przez sztuczną inteligencję. Choć nie wprowadza spektakularnych nowości, koncentruje się na kwestiach fundamentalnych dla codziennej pracy – solidności rdzenia i płynności działania. Aktualizacja ta eliminuje poważne problemy z zarządzaniem pamięcią i zwiększa kompatybilność, poprawiając jednocześnie user experience w trybie tekstowego interfejsu użytkownika (TUI).

    Dla zespołu OpenCode takie wydania są często najważniejsze. Stabilna i przewidywalna podstawa pozwala później bezpiecznie wprowadzać eksperymentalne funkcje, na których skupiają się kolejne wersje, jak 1.2.21 czy 1.2.23. Wersja 1.2.20 to cegiełka umacniająca fundament pod przyszłe innowacje.

    Naprawa krytycznego wycieku pamięci w daemonach fsmonitor

    Najpoważniejszą zmianą w tej wersji jest rozwiązanie problemu wycieku pamięci w daemonach fsmonitor. Narzędzie to monitoruje zmiany w systemie plików, reagując na modyfikacje kodu w czasie rzeczywistym. Nieszczelność w jego działaniu była jednak wyjątkowo dotkliwa.

    Podczas uruchamiania testów nieprawidłowo zamykane procesy daemonów potrafiły pozostawiać w pamięci operacyjnej (committed memory) ponad 60 GB śmieci. Dla programistów pracujących na lokalnych maszynach, zwłaszcza tych z mniejszą ilością RAM, taki wyciek prowadził do drastycznego spadku wydajności całego systemu, a nawet do jego zawieszenia. Problem był szczególnie uciążliwy podczas długich sesji deweloperskich lub przy ciągłym uruchamianiu testów jednostkowych i integracyjnych.

    Naprawa tego błędu ma bezpośredni wpływ na developer experience. Zamiast martwić się o restartowanie środowiska co kilka godzin w celu zwolnienia pamięci, użytkownik może skupić się wyłącznie na pisaniu kodu. Zwiększa to również niezawodność OpenCode jako narzędzia do ciągłej integracji (CI), gdzie stabilne zużycie zasobów jest kluczowe.

    Większa kompatybilność: zamiana Bun.which na npm which

    Kolejna istotna zmiana w module core dotyczy zastąpienia narzędzia Bun.which jego odpowiednikiem z ekosystemu npm – npm which. To część szerszego trendu w rozwoju OpenCode, polegającego na stopniowym odchodzeniu od specyficznych API środowiska Bun na rzecz bardziej uniwersalnych rozwiązań z Node.js.

    Funkcja which służy do lokalizowania ścieżek do plików wykonywalnych w systemie. Choć API Buna jest wydajne, jego użycie może czasem powodować problemy z kompatybilnością w niektórych konfiguracjach, zwłaszcza przy złożonych setupach z wieloma menedżerami pakietów lub w kontenerach.

    • Migracja na npm which zwiększa przenośność kodu OpenCode. Oznacza to, że środowisko będzie działać bardziej niezawodnie na różnych dystrybucjach Linuksa, wersjach macOS czy w systemie Windows z WSL2. To strategiczny ruch ułatwiający wdrożenie OpenCode w zróżnicowanych zespołach i infrastrukturach. Trend ten jest kontynuowany w późniejszych wydaniach, w których pojawiają się podobne zmiany, jak zastąpienie Bun.semver czy Bun.shell.

    Przywrócenie obsługi stdin z Buna w TUI

    W obszarze tekstowego interfejsu użytkownika (TUI) wprowadzono ważną poprawkę techniczną. Przywrócono wykorzystanie Bun.stdin do odczytu danych wejściowych z prompta. Poprzednie wydanie eksperymentowało z przejściem na node:stream/consumers w celu poprawy kompatybilności, co jednak najwyraźniej wywołało pewne komplikacje.

    Interfejs TUI w OpenCode jest kluczowy dla osób preferujących pracę bezpośrednio w terminalu. Wszelkie problemy z odczytem komend, zwłaszcza w trybie interaktywnym podczas pisania promptów dla AI, natychmiast odbijają się na produktywności. Przywrócenie sprawdzonego mechanizmu z Bun zapewnia płynność i responsywność, których oczekują programiści. Pokazuje to również podejście zespołu OpenCode: chęć do eksperymentowania, ale i zdolność do szybkiego wycofania zmian, które nie działają optymalnie.

    Kontekst ścieżki rozwoju

    Aby w pełni zrozumieć znaczenie wersji 1.2.20, warto spojrzeć na sąsiadujące wydania. Poprzednia wersja była dużym krokiem w stronę uniezależnienia od Buna. Zawierała serię zamian: Bun.stderr, Bun.color, Bun.connect, Bun.hash, Bun.write i Bun.sleep na ich odpowiedniki z Node.js. Wersja 1.2.20 kontynuuje ten proces, skupiając się na Bun.which.

    Z kolei wersja 1.2.21, wydana dzień później, wprowadza już ulepszenia funkcjonalne, które bazują na stabilności zapewnionej przez „łatanie” w 1.2.20. Mowa tu o poprawie rozwiązywania ścieżek Git na Windowsie, uszczelnieniu wycieku uchwytów sesji PTY czy zachowaniu oryginalnych zakończeń linii (line endings) w narzędziu do edycji. To klasyczny schemat: najpierw budowa solidnego fundamentu, a dopiero potem bezpieczne wznoszenie na nim nowych konstrukcji.

    Dlaczego takie wydania są kluczowe?

    Dla użytkownika końcowego wydania skupione na stabilizacji mogą nie być tak ekscytujące jak te wprowadzające nowe modele AI czy spektakularne funkcje interfejsu. Ich wartość jest jednak nie do przecenienia.

    • Niezawodność to podstawa zaufania do narzędzia. Programista używa OpenCode jako głównego środowiska pracy, a wszelkie problemy z zarządzaniem pamięcią czy kompatybilnością bezpośrednio uderzają w jego efektywność. Stabilne zużycie zasobów jest kluczowe zarówno lokalnie, jak i w środowiskach CI/CD. Wydania takie jak 1.2.20, choć mało efektowne, są niezbędne, aby innowacyjne funkcje mogły działać bez zarzutu. Dzięki takim aktualizacjom OpenCode staje się nie tylko potężnym, ale i godnym zaufania partnerem w procesie tworzenia oprogramowania.
  • OpenCode Wprowadza Duże Zmiany: Lepszą Obsługę Windows, Nowe Modele AI i Przepisane Centrum Systemu

    OpenCode Wprowadza Duże Zmiany: Lepszą Obsługę Windows, Nowe Modele AI i Przepisane Centrum Systemu

    Najnowsza wersja OpenCode, v1.2.21, przynosi konkretne ulepszenia, które sprawiają, że platforma jest bardziej stabilna, uniwersalna i wydajna. To nie tylko kosmetyczna aktualizacja – to solidna praca nad fundamentami, szczególnie ważna dla użytkowników Windows oraz osób potrzebujących niezawodności w codziennej pracy z AI.

    Solidniejsze podwaliny: od Bun do Node.js

    Jedną z najważniejszych, choć mniej widowiskowych zmian, jest migracja kluczowych funkcjonalności z API Bun na ich odpowiedniki w Node.js. Bun, jako środowisko wykonawcze, jest szybki, ale w niektórych scenariuszach mógł powodować problemy z kompatybilnością. Teraz OpenCode zastępuje:
    `Bun.semver` – pakietem `npm semver`. Bun shell – bezpośrednimi wywołaniami spawn.

    • pathToFileURL z Bun – modułem url z Node.js.

    To przejście znacząco poprawia stabilność i kompatybilność międzyplatformową, co ma kluczowe znaczenie w dużych projektach.

    Windows nie zostaje w tyle: ARM64 i zalecenia

    Dla użytkowników Windows ta aktualizacja jest szczególnie istotna. OpenCode wprowadza targety wydania ARM64 dla CLI i aplikacji desktopowej na tę platformę. Dodano też rozwiązanie dla dowiązań symbolicznych (symlinks) w cache instancji, aby uniknąć duplikowania kontekstu.

    Aplikacja desktopowa oparta na Electronie ukrywa teraz tło konsoli Windows, co poprawia estetykę. Dla zapewnienia najlepszej obsługi i kompatybilności zaleca się korzystanie z Windows Subsystem for Linux (WSL).

    Nowe modele AI i bezpieczniejsze typowanie

    Changelog rozszerza możliwości integracji z modelami AI. System dodaje wsparcie dla zmiennej środowiskowej GOOGLE_VERTEX_LOCATION w Vertex AI oraz warianty thinking dla providera SAP AI.

    Aby zwiększyć bezpieczeństwo typów, wprowadzono brandowane typy ID (takie jak PartID, WorkspaceID, SessionID). Typy te są walidowane przez schematy Drizzle i Zod, co w praktyce oznacza, że system ma większą kontrolę nad poprawnością danych i pozostawia mniej miejsca na błędy.

    Ulepszenia TUI i aplikacji desktopowej: od wydajności po UX

    W interfejsie tekstowym (TUI) poprawiono prezentację umiejętności (skills) agentów, aby zwiększyć szansę na ich poprawne wykorzystanie. Naprawiono również obsługę błędów podczas tworzenia sesji.

    W aplikacji desktopowej skupiono się na wyeliminowaniu zjawiska „jank” – czyli nieprzyjemnych przycięć interfejsu. Poprawiono animacje terminala, problemy z focusem oraz zarządzanie stanem pasków bocznych (sidebars). Dodano także okno debugowania dla deweloperów oraz statystyki rozwoju wewnątrz aplikacji.

    • Wiele innych optymalizacji dotyczy wydajności*: naprawiono wycieki pamięci przy wielu instancjach jdtls LSP w monorepo Java, usprawniono przetwarzanie symlinków oraz zarządzanie cache. Wprowadzono flagę OPENCODE_EXPERIMENTAL_WORKSPACES dla nowej funkcji workspace-serve.

    Dlaczego to ważne?

    OpenCode nie jest tylko kolejnym klientem ChatGPT. To agnostyczna platforma dla wielu dostawców AI (Claude, GPT, Gemini, Ollama), która działa w terminalu, jako aplikacja desktopowa oraz w IDE (VS Code, Cursor). Oferuje dwa główne tryby: „Plan” (analiza read-only) oraz „Build” (wprowadzanie zmian, pisanie kodu, wykonywanie zadań). Integruje się z GitHubem, automatyzuje obsługę issue i pull requestów na podstawie komentarzy oraz współpracuje z wtyczkami i serwerami MCP.

    Najnowsza wersja pokazuje, że rozwój idzie w kierunku solidności i uniwersalności. Zamiast dodawać kolejne efektowne, lecz niestabilne funkcje, zespół dopracował podstawy: kompatybilność międzyplatformową, migrację na stabilniejsze API, obsługę Windows oraz bezpieczeństwo typów.

    To podejście jest kluczowe, gdy platforma aspiruje do miana profesjonalnego narzędzia używanego codziennie w realnych projektach – tam, gdzie losowe błędy czy problemy ze ścieżkami plików mogą zmarnować godzinę pracy.

    Co dalej?

    Trend w rozwoju programowania wspomaganego przez AI ewoluuje od prostych chatbotów w stronę złożonych systemów agentowych, które potrafią orkiestrować wiele narzędzi jednocześnie. OpenCode, wprowadzając funkcje takie jak workspace-serve (obecnie eksperymentalna), podąża właśnie w tym kierunku.

    Aktualizacja v1.2.21 stabilizuje fundamenty potrzebne do tej bardziej złożonej, autonomicznej pracy. Lepsza obsługa Windows otwiera platformę dla większej grupy programistów, a migracja kluczowych modułów do Node.js zapewnia większą przewidywalność systemu. Poprawki wydajności i UX sprawiają natomiast, że codzienna praca staje się płynniejsza i bardziej efektywna.

  • Codex v0.111.0: Tryb Fast Domyślnie Włączony I Kluczowe Ulepszenia Interfejsu

    Codex v0.111.0: Tryb Fast Domyślnie Włączony I Kluczowe Ulepszenia Interfejsu

    Najnowsza aktualizacja Codex, oznaczona numerem 0.111.0, przynosi istotną zmianę w domyślnej konfiguracji tego zaawansowanego asystenta programistycznego. Tryb Fast jest teraz włączany automatycznie dla wszystkich nowych sesji. Wprowadzono też wyraźny wskaźnik w interfejsie tekstowym (TUI), który informuje, czy sesja działa w trybie szybkim, czy standardowym. Te pozornie drobne modyfikacje mają duży wpływ na wydajność i przejrzystość pracy z narzędziem, choć – jak się okazuje – nie obyło się bez pewnych problemów.

    Co oznacza tryb Fast w Codex?

    Tryb Fast w Codex to ustawienie, które bezpośrednio wpływa na to, jak szybko asystent wykonuje wnioskowanie (inference) pomiędzy wątkami, agentami podrzędnymi (subagents) oraz podczas kompaktowania zadań. Przełączenie na Fast oznacza priorytet dla szybkości działania. W opisie funkcji podkreśla się, że zapewnia ona „najszybsze wnioskowanie kosztem 2-krotnie szybszego zużycia zasobów planu”.

    To kluczowa informacja dla użytkowników. W trybie Standard Codex może działać bardziej zachowawczo, zarządzając zasobami w sposób zrównoważony. Tryb Fast zdejmuje te ograniczenia, co przekłada się na szybsze odpowiedzi, ale i szybsze zużywanie dostępnych limitów. Do tej pory użytkownik musiał ten tryb wybrać świadomie. W wersji 0.111.0 deweloperzy uznali, że większość osób preferuje szybkość, i ustawili ją jako opcję domyślną.

    Wizualna informacja w nagłówku TUI

    Drugim ważnym ulepszeniem jest modyfikacja interfejsu tekstowego. Nagłówek TUI wyraźnie wyświetla teraz informację o aktualnie aktywnym trybie sesji – Fast lub Standard. To nie tylko kwestia estetyki.

    Dzięki temu programiści od razu widzą, w jakim trybie pracuje Codex. Ma to szczególne znaczenie teraz, gdy tryb szybki jest domyślny. Jeśli ktoś zauważy zbyt gwałtowny spadek dostępnych zasobów, ten wskaźnik daje mu natychmiastową podpowiedź co do potencjalnej przyczyny. Przejrzystość w zarządzaniu kosztami i wydajnością jest w przypadku takich narzędzi kluczowa.

    Inne ulepszenia w pakiecie

    Wydanie 0.111.0 to nie tylko zmiana trybu. Wprowadzono też inne istotne funkcjonalności.

    • Dynamiczny import lokalnych plików JavaScript w środowisku REPL (js_repl) to spore ułatwienie. Teraz można bezpośrednio importować lokalne pliki .js i .mjs, co ułatwia ponowne wykorzystanie skryptów z obszaru roboczego podczas interaktywnej pracy. To mały, ale praktyczny krok w stronę lepszej integracji.

    • Ulepszone wykrywanie pluginów to kolejna zmiana. Codex informuje teraz model o tym, które wtyczki są włączone na początku każdej sesji. Poprawia to wykrywanie zainstalowanych serwerów MCP (Model Context Protocol), aplikacji i umiejętności, pozwalając asystentowi od razu z nich skorzystać.

    Nieoczekiwane skutki uboczne: skoki zużycia zasobów

    Niestety, zmiany w wersji 0.111.0 nie przeszły bezproblemowo. Wśród użytkowników szybko pojawiły się zgłoszenia o gwałtownych skokach zużycia tokenów i zasobów planu po aktualizacji. Analiza problemu prowadzona na forach deweloperskich wskazuje na połączenie dwóch czynników.

    Po pierwsze, samo włączenie domyślnego trybu Fast powoduje szybsze zużycie zasobów – było to oczekiwane, ale może zaskoczyć nieprzygotowanych użytkowników. Po drugie, co prawdopodobnie istotniejsze, w tej samej wersji wprowadzono zmiany w logice zdolności agentowych (agency).

    Algorytmy odpowiedzialne za tworzenie agentów podrzędnych (subagents) stały się bardziej agresywne. Są one teraz jawnie zachęcane do równoległego uruchamiania wielu „eksplorerów” i ponownego ich wykorzystywania. W praktyce po aktualizacji sesje nadrzędne zaczęły tworzyć znacznie więcej długożyjących agentów podrzędnych, często z flagą fork_context: true.

    Efekt? Jeden z raportów pokazuje, jak dzienne zużycie tokenów u jednego użytkownika skoczyło z poziomu około 100–180 milionów przed aktualizacją do ponad 1 miliarda w wersji 0.111.0. W niektóre dni nawet 86% wszystkich tokenów było zużywanych przez agentów podrzędnych, a nie przez główną sesję. To już nie tylko kwestia samego trybu Fast, ale zmiany w fundamentalnym zachowaniu systemu.

    Co to oznacza dla programistów?

    Zmiany w Codex 0.111.0 mają swoje dobre i złe strony. Z jednej strony domyślna szybkość i lepsza informacja w TUI to ewidentne ułatwienia. Praca staje się płynniejsza, a interfejs bardziej przejrzysty.

    Z drugiej strony należy zachować teraz szczególną czujność. Korzystając z zaawansowanych funkcji, zwłaszcza tych związanych z wieloma agentami, można nieoczekiwanie narazić się na bardzo wysokie zużycie zasobów. Warto regularnie sprawdzać wskaźnik w nagłówku TUI. Należy też pamiętać, że tryb można zmienić – jeśli priorytetem jest oszczędność zasobów, a nie maksymalna prędkość, powrót do ustawienia Standard będzie rozsądnym krokiem.

    Problem ze skokami zużycia został zgłoszony jako regresja i jest badany przez zespół deweloperski. To naturalna część cyklu rozwoju złożonego oprogramowania. Kluczowe jest jednak, aby użytkownicy byli świadomi tej dynamiki.

    Wnioski

    Aktualizacja Codex do wersji 0.111.0 pokazuje klasyczny dylemat rozwoju zaawansowanych narzędzi AI: balans między wydajnością, funkcjonalnością a przewidywalnością kosztów. Włączenie trybu Fast domyślnie to wyraźny sygnał, że twórcy stawiają na szybkość działania, prawdopodobnie odpowiadając na feedback społeczności.

    Jednak równoległa zmiana w logice agentów podrzędnych, choć mająca na celu poprawę możliwości systemu, wprowadziła istotny efekt uboczny. Przypomina to, że takie systemy są niezwykle złożone, a pozornie odrębne modyfikacje mogą na siebie nieoczekiwanie oddziaływać.

    Dla programisty korzystającego z Codex najważniejsza jest teraz świadomość: domyślnych ustawień, informacji widocznych w interfejsie oraz potencjalnego wpływu narzędzia na zużycie zasobów. Nowy wskaźnik w TUI jest w tej sytuacji bezcenny – pozwala trzymać rękę na pulsie i w porę zareagować, jeśli praca z asystentem stanie się zbyt kosztowna. Ostatecznie to od użytkownika zależy, jak wykorzysta potencjał szybszego trybu, zarządzając jednocześnie nowymi, bardziej złożonymi zachowaniami systemu.

  • OpenCode v1.2.18: Udoskonalone Zamykanie, Interaktywny TUI i Stabilny Pulpit

    OpenCode v1.2.18: Udoskonalone Zamykanie, Interaktywny TUI i Stabilny Pulpit

    Wersja 1.2.19, planowana na połowę marca, ma skupić się na migracji z Bun na Node.js w niektórych częściach aplikacji, co powinno poprawić kompatybilność. W planach jest też wersja 1.2.20, która ma naprawić wyciek pamięci w fsmonitor. Widać, że zespół nie zwalnia tempa.