Twórcy Zed udostępnili wersję 0.230.2. Jest to wydanie serwisowe, które usuwa błąd powodujący wyłączanie się programu na systemie Windows oraz wprowadza kilka mniejszych poprawek technicznych. Naprawa dotyczy operacji na diffach, czyli funkcji porównywania zmian w kodzie, z której programiści korzystają podczas pracy z Gitem.
Wersja 0.230.2 to patch stabilizacyjny. Pojawił się on po serii aktualizacji wprowadzających nowe funkcje, takie jak udostępnianie ekranu na Wayland czy wyszukiwanie wieloliniowe. Zespół rozwijający Zed stosuje model pracy, w którym po etapie dodawania nowych narzędzi następuje faza poprawiania błędów i optymalizacji kodu.
Naprawa błędu przy porównywaniu plików na Windows
Głównym powodem wydania tej wersji jest rozwiązanie problemu opisanego w zgłoszeniu #53251. Błąd ten powodował natychmiastowe zamknięcie aplikacji na Windowsie w trakcie generowania diffów. Porównywanie różnic między wersjami plików jest niezbędne przy przeglądaniu zmian w kodzie (code review) czy analizie historii projektu w Gicie.
Usunięcie tej usterki przywraca stabilność pracy użytkownikom Windowsa. Awaria podczas tak powtarzalnej czynności utrudniała codzienne pisanie kodu i zarządzanie repozytoriami.
Inne poprawki w wersji 0.230.2
Poza głównym błędem, aktualizacja zawiera drobne zmiany poprawiające działanie interfejsu i współpracę z narzędziami zewnętrznymi. Deweloperzy skupili się na stabilności UI oraz lepszym zarządzaniu zasobami systemowymi, co przekłada się na płynniejsze działanie edytora.
Zmiany wprowadzone w ostatnich aktualizacjach
Wersja 0.230.2 uzupełnia większe wydanie 0.230.0. W ostatnich tygodniach do Zed trafiło kilka istotnych nowości:
Wyszukiwanie i zamiana tekstu w wielu liniach (multi-line search and replace) w wyszukiwarce projektowej. Ulepszona funkcja porównywania zawartości schowka z zaznaczonym tekstem w widoku obok siebie.
Poprawki błędów przy kopiowaniu tekstu na systemach z Wayland. Usunięcie błędów powodujących zawieszanie się panelu asystenta AI podczas wklejania danych.
Wcześniejsze aktualizacje przyniosły także wsparcie dla pracy zdalnej przez SSH, mniejsze zużycie pamięci RAM oraz lepszą integrację z modelami AI wspomagającymi pisanie kodu.
Aktualizacja do wersji 0.230.2
Instalacja tej wersji jest zalecana przede wszystkim osobom korzystającym z Zed na systemie Windows. Naprawa błędu przy diffach usuwa najpoważniejszą przyczynę niestabilności programu w ostatnim czasie.
Mimo że wersja 0.230.2 skupia się na błędach, pokazuje ona kierunek rozwoju edytora. Twórcy łączą wdrażanie nowoczesnych funkcji, takich jak asystenci AI czy obsługa kontenerów deweloperskich, z dbaniem o podstawowe elementy: szybkość działania i niezawodność narzędzi Git oraz ESLint. Aktualizacja zapewnia dostęp do wszystkich ostatnich poprawek, co poprawia komfort pracy przy projektach webowych i deweloperskich.
Aktualizacja OpenCode do wersji v1.3.17 wprowadza zmiany w dwóch obszarach: integracji z usługami AI Cloudflare oraz stabilności interfejsu terminalowego (TUI) w systemie Windows. Poprawki te bezpośrednio wpływają na wygodę pracy z tym asystentem kodowania.
Lepsza obsługa błędów dla Cloudflare AI
Główną zmianą w tej wersji jest usprawnienie współpracy z Cloudflare Workers AI oraz Cloudflare AI Gateway. W poprzednich wydaniach brak zmiennych środowiskowych Cloudflare mógł powodować błędy, które nie informowały jasno o przyczynie problemu. Dzięki poprawce od użytkownika @mchenco, OpenCode v1.3.17 lepiej radzi sobie z takimi sytuacjami.
Jeśli aplikacja nie wykryje danych konta, takich jak CF_API_TOKEN czy CF_ACCOUNT_ID, wyświetli instrukcje konfiguracji. Program wskazuje teraz, których zmiennych brakuje i jak je uzupełnić. Ułatwia to uruchomienie funkcji AI osobom, które dopiero zaczynają korzystać z infrastruktury Cloudflare.
Zmiana ta jest istotna w kontekście wykorzystania modeli dostępnych na platformie Workers AI oraz narzędzi takich jak Sandbox SDK czy Responses API. Deweloperzy tworzący agenty AI lub korzystający z Browser Renderingu na infrastrukturze Cloudflare mogą teraz łatwiej połączyć te usługi z OpenCode.
Przywrócenie obsługi klawiatury Kitty w terminalu
W wersji v1.3.17 przywrócono domyślną obsługę klawiatury Kitty dla użytkowników systemu Windows. Wcześniej usunięcie jednego z obejść technicznych spowodowało problemy z wprowadzaniem danych w interfejsie terminalowym (TUI).
Kitty to protokół terminalowy wykorzystywany do obsługi zaawansowanych funkcji tekstowych i graficznych. Błędy w jego obsłudze prowadziły do gubienia znaków lub opóźnień podczas pisania. Naprawa tego błędu sprawia, że interakcja z TUI jest stabilna. Jest to ważne dla osób, które wolą zarządzać sesjami, narzędziami bashowymi i wtyczkami bezpośrednio z wiersza poleceń, zamiast korzystać z aplikacji okienkowej.
Zmiany w module Core
Wersja v1.3.17 korzysta również z szerszych aktualizacji silnika OpenCode Core. Cloudflare AI Gateway automatycznie pomija teraz parametr max_tokens dla modeli OpenAI z serii o-series oraz GPT-5, co zapobiega odrzucaniu żądań przez API.
Wprowadzono także dziedziczenie kontekstu autoryzacji przez obszary robocze (workspaces). Po zalogowaniu się do dostawcy AI w jednym oknie, autoryzacja jest aktywna także w innych sesjach w ramach tego samego obszaru roboczego. Dzięki temu użytkownik nie musi logować się wielokrotnie.
Dodatkowo system automatycznie ponawia próby połączenia w przypadku wystąpienia błędów 5xx po stronie dostawcy. Dzieje się to nawet wtedy, gdy oficjalne biblioteki SDK nie wymuszają takiego zachowania, co zwiększa odporność narzędzia na chwilowe przerwy w działaniu usług zewnętrznych.
Praktyczne znaczenie aktualizacji
OpenCode v1.3.17 skupia się na eliminowaniu konkretnych problemów technicznych zgłaszanych przez użytkowników.
Łatwiejsza konfiguracja: Jasne komunikaty o błędach pozwalają szybciej przygotować środowisko do pracy.
Stabilność pracy: Naprawa obsługi klawiatury w terminalu pozwala na płynne pisanie kodu bez przerw technicznych.
Udział użytkownika @mchenco w pracach nad tą wersją pokazuje, że społeczność ma realny wpływ na rozwój projektu. Nawet poprawki dotyczące komunikatów o błędach są istotne dla autorów OpenCode i trafiają do oficjalnych wydań.
Stabilność i przewidywalność
Wydanie v1.3.17 stawia na niezawodność. Dla programistów korzystających z AI Cloudflare poprawa obsługi błędów oznacza mniej czasu spędzonego na debugowaniu ustawień. Z kolei naprawa protokołu Kitty przywraca komfort pracy w terminalu.
W połączeniu z funkcjami takimi jak inteligentne ponawianie prób połączenia i współdzielenie autoryzacji, OpenCode staje się bardziej przewidywalnym narzędziem. Zamiast dodawania wielu nowych opcji, twórcy skupili się na tym, aby obecne funkcje działały bez zakłóceń w codziennej pracy deweloperskiej.
Wydanie Codex 0.118.0 z kwietnia 2026 roku przyniosło serię kluczowych ulepszeń skupionych na stabilności, bezpieczeństwie i elastyczności dla programistów oraz inżynierów AI. OpenAI skoncentrowało się na trudnych aspektach pracy z sandboxami sieciowymi, wprowadziło przydatne flow autoryzacyjne oraz znacznie poprawiło narzędzia wiersza poleceń, co wspiera efektywniejsze kodowanie wspomagane przez AI (AI-driven coding) oraz agentic workflows.
Sieciowanie w Windows na poziomie systemu operacyjnego
Największą zmianą w tej wersji jest gruntowna przebudowa obsługi sieci dla sandboxów w systemie Windows. Do tej pory proxy konfigurowano głównie za pomocą zmiennych środowiskowych, co bywało niewystarczające w skomplikowanych środowiskach korporacyjnych. Wersja 0.118.0 wprowadza proxy-only networking z wykorzystaniem reguł egress na poziomie samego systemu operacyjnego.
Oznacza to, że sandbox Codex może teraz ściśle egzekwować polityki dostępu do sieci. Administratorzy i użytkownicy mają do dyspozycji precyzyjne mechanizmy kontroli: mogą ograniczyć dostęp wyłącznie do menedżerów pakietów, takich jak npm czy PyPI, zezwolić na pełny dostęp do internetu dla testów, otworzyć jedynie konkretne domeny lub całkowicie zablokować ruch sieciowy. Dodano też pełne wsparcie dla protokołów proxy, w tym SOCKS5, oraz dedykowanych zmiennych WS_PROXY/WSS_PROXY dla ruchu WebSocket, co wprowadzono już we wcześniejszej wersji 0.104.0. To rozwiązanie długo oczekiwanych problemów z łącznością w środowiskach korporacyjnych.
Nowa autoryzacja kodem urządzenia dla ChatGPT oraz dynamiczne tokeny
Kolejnym ważnym ulepszeniem jest dodanie device code sign-in flow dla ChatGPT w ramach serwera aplikacji Codex. Ten mechanizm autoryzacji pozwala użytkownikowi zalogować się bezpiecznie na urządzeniu z ograniczonymi możliwościami wprowadzania danych (np. w sandboxie), używając kodu z innego urządzenia. Zwiększa to bezpieczeństwo i wygodę, szczególnie w zdalnych i zarządzanych konfiguracjach.
Dla twórców integracji z własnymi modelami (custom model providers) wprowadzono dynamiczne odświeżanie tokenów bearer. To automatyczne, bezproblemowe odświeżanie tokenów uwierzytelniających zapobiega przerwom w działaniu usług spowodowanym wygasaniem sesji, zapewniając płynność w długotrwałych zadaniach AI.
Elastyczność CLI i wzrost stabilności sandboxów
Interfejs wiersza poleceń (CLI) Codex zyskał nowe możliwości. Polecenie codex exec obsługuje teraz workflow prompt-plus-stdin, który pozwala na bardziej elastyczne łączenie promptów z danymi ze standardowego wejścia. Ułatwia to skryptowanie i automatyzację zadań. CLI lepiej zachowuje teraz ustawienia przypisane do profilów, a w systemie pojawiła się eksperymentalna podkomenda exec-server.
Jeśli chodzi o stabilność, wersja 0.118.0 przynosi istotne poprawki dla sandboxów na Linuxie i Windowsie. Naprawiono m.in. obsługę podzielonych systemów plików, błędy związane z operacjami apply_patch na systemach tylko do odczytu oraz problemy z zaporą sieciową w Windows. Na macOS rozwiązano błąd typu panic w kliencie HTTP wewnątrz sandboxa. Wszystko to sprawia, że środowisko izolowane działa znacznie bardziej niezawodnie.
Przywrócenie kluczowych przepływów pracy w TUI i ulepszenia MCP
Interfejs tekstowy (TUI) odzyskał kilka utraconych funkcji, stając się znów w pełni funkcjonalnym narzędziem. Ogólnie TUI działa teraz płynniej i szybciej. Usunięto zbędne odpytywanie o autoryzacją (polling) dla wyłączonych serwerów, a MCP (Model Control Plane) lepiej obsługuje znormalizowane narzędzia i zachowuje kolejność wyników wyszukiwania, zamiast sortować je alfabetycznie.
Środowisko zdalne i app-server również zyskał na aktualizacji, otrzymując m.in. transport egress dla WebSocketów, przekazywanie katalogu roboczego (--cd) oraz nowe API systemu plików zintegrowane z sandboxem. Te zmiany spajają ekosystem Codex, obejmujący już CLI, aplikację desktopową, IDE i chmurę, działający w oparciu o modele GPT-5.x-Codex.
Co oznaczają te zmiany dla deweloperów i inżynierów AI?
Wydanie Codex 0.118.0 to przede wszystkim aktualizacja skupiona na pracy inżynieryjnej „pod maską”. Nie ma tu spektakularnych, widocznych na pierwszy rzut oka funkcji, ale wprowadzono fundamentalne ulepszenia, które usuwają chroniczne przeszkody. Lepsza kontrola sieci w sandboxach otwiera drzwi do bezpieczniejszego stosowania Codex w firmach z restrykcyjnymi politykami IT. Wygodniejsza autoryzacja i stabilniejsze CLI poprawiają codzienne doświadczenie dewelopera.
Poprawki stabilizacyjne dla Linuxa, Windowsa i macOS oznaczają mniej frustracji podczas pracy z agentami AI, które często intensywnie korzystają z izolowanych środowisk. W połączeniu z szerszym kontekstem – jak wsparcie ogromnych okien kontekstowych (1M) przez GPT-5.4 – Codex 0.118.0 solidnie wzmacnia fundamenty pod zaawansowane zdolności agentowe (agentic workflows) w web devie i DevOps, czyniąc je bardziej przewidywalnymi i niezawodnymi. To krok w stronę dojrzałości platformy, dzięki której inżynierowie mogą skupić się na tworzeniu, a nie na walce z narzędziami.
Aktualizacja OpenCode do wersji 1.3.7 przynosi kluczowe usprawnienia dla użytkowników systemu Windows oraz poprawia stabilność i wygodę pracy w trybie tekstowym (TUI). Najważniejszą nowością jest długo wyczekiwane, natywne wsparcie dla PowerShell, które ma na celu rozwiązanie problemów z domyślnym przywracaniem starszych powłok systemowych. To niejedyna zmiana – wydanie naprawia także irytujące błędy, takie jak podwójne naliczanie tokenów i problemy z konfiguracją, co łącznie znacząco podnosi komfort codziennego korzystania z tego asystenta AI.
PowerShell w końcu jako „pełnoprawny obywatel” Windows
Dla programistów pracujących na Windowsie wybór terminala i powłoki to często kwestia osobistych preferencji i efektywności. Dotychczas OpenCode, nawet gdy był uruchamiany z nowoczesnego PowerShell 7 (znanego jako pwsh), mógł nieoczekiwanie korzystać ze starszego Windows PowerShell 5.1 lub wręcz z cmd.exe. Wersja 1.3.7 oficjalnie wprowadza wsparcie „first-class” dla PowerShell na Windows, traktując pwsh jako pełnoprawną i preferowaną powłokę.
To zmiana, której domagała się społeczność, zgłaszając konkretne problemy w repozytorium projektu. Dzięki niej workflow w terminalu ma stać się bardziej przewidywalny i zintegrowany. Warto jednak zauważyć, że według zgłoszeń użytkowników wprowadzenie tej funkcjonalności w wersji 1.3.7 spowodowało u niektórych nowe błędy, takie jak całkowite nieotwieranie się terminala lub nieprawidłowe działanie poleceń powłoki. Użytkownicy, którzy cenią sobie nowoczesne funkcje PowerShell 7, takie jak lepsza obsługa kolorów, szybsze przetwarzanie potoków czy wieloplatformowość, mogą więc napotkać niespójne zachowanie narzędzia. Jest to szczególnie istotne w środowiskach, gdzie możliwości WSL (Windows Subsystem for Linux) są z jakichś powodów ograniczone, a PowerShell pozostaje głównym narzędziem automatyzacji.
Usprawnienia TUI i nie tylko: stabilność i estetyka
Poza główną nowością aktualizacja przynosi szereg drobniejszych, ale istotnych poprawek. Tryb TUI (Text-based User Interface), czyli tekstowy interfejs OpenCode, został dopracowany. Ulepszono zachowanie okien modalnych, które teraz są mniej inwazyjne, oraz dodano kolory placeholderów w polach dialogowych zgodne z aktywnym motywem. Poprawia to nie tylko estetykę, ale i czytelność interfejsu w terminalu.
W zakresie poprawek błędów kluczową kwestią jest naprawa błędu, który powodował podwójne liczenie zużycia tokenów u dostawców Anthropic i Amazon Bedrock. Problem ten mógł prowadzić do zawyżonych metryk w sesjach i nieprecyzyjnego śledzenia kosztów. Teraz raportowanie tokenów jest dokładne. Dodatkowo rozwiązano problem konfiguracji dotyczący plików CLAUDE.md na poziomie projektu. Zmienna środowiskowa OPENCODE_DISABLE_CLAUDE_CODE_PROMPT jest teraz prawidłowo respektowana, co daje programistom pełną kontrolę nad tym, kiedy i jak ten plik ma być używany przez asystenta.
Ciekawym detalem jest też zmiana w procesie instalacji wtyczek. Od teraz konfiguracje w formacie JSONC (JSON z komentarzami) zachowują dodane przez użytkownika komentarze podczas aktualizacji. To drobna, ale niezwykle praktyczna funkcja, która chroni cenne notatki i wyjaśnienia w plikach konfiguracyjnych przed przypadkowym nadpisaniem.
Co oznacza ta aktualizacja dla użytkowników?
Wydanie OpenCode 1.3.7 koncentruje się na solidności i dopasowaniu do rzeczywistych potrzeb użytkowników, zwłaszcza tych korzystających z ekosystemu Windows. Wprowadzenie natywnego wsparcia PowerShell usuwa realną barierę w codziennej pracy wielu programistów, choć u części osób może powodować nowe problemy techniczne. W połączeniu z poprawkami stabilności – takimi jak dokładne liczenie tokenów i lepsze zarządzanie konfiguracją – tworzy to bardziej dojrzałą wersję narzędzia, choć przed aktualizacją warto sprawdzić dostępność nowszych wydań, takich jak 1.3.7.
Zmiany te pokazują, że rozwój OpenCode idzie w parze z sugestiami społeczności. Poprawki dotyczące TUI świadczą o dbałości o doświadczenie użytkowników preferujących pracę w czystym terminalu, którzy stanowią istotną część odbiorców tego typu asystentów AI. Aktualizacja jest dostępna przez standardowe kanały dystrybucji, w tym Chocolatey (choco upgrade opencode -y), Scoop czy NPM, umożliwiając łatwe wdrożenie tych usprawnień do codziennej pracy z kodem.
Nowa wersja otwartoźródłowego asystenta kodowania OpenCode, oznaczona numerem 1.3.7, przynosi długo wyczekiwane usprawnienia dla deweloperów pracujących w systemie Windows. Wydanie, które ukazało się 30 marca 2026 roku, skupia się na poprawie doświadczeń użytkownika na platformie Microsoftu oraz na dopracowaniu zarządzania konfiguracją, co jest kluczowe dla zespołowej pracy nad projektami.
PowerShell jako środowisko pierwszej klasy
Najważniejszą nowością w OpenCode v1.3.7 jest wprowadzenie first-class PowerShell support. Oznacza to, że narzędzie oferuje teraz pełnoprawne, natywne wsparcie dla nowoczesnego środowiska PowerShell, traktując je na równi z tradycyjnym wierszem poleceń (CMD).
Dla wielu programistów pracujących w ekosystemie Windows PowerShell jest domyślnym i preferowanym terminalem, oferującym większe możliwości automatyzacji i zarządzania systemem niż starsze CMD. Dotychczasowe wersje OpenCode działały w tym środowisku, ale teraz integracja jest głębsza i oficjalnie wspierana. To nie tylko kwestia wygody, ale też zapewnienia stabilności i przewidywalności działania wszystkich funkcji AI coding agenta. Poprawka ta idzie w parze z innym technicznym rozwiązaniem z tego wydania, które eliminuje błąd segmentacji (segmentation fault) związany z ładowaniem sekcji PE w Bun, co również zwiększa stabilność instalacji na Windows.
Zachowywanie komentarzy w plikach konfiguracyjnych pluginów
Kolejna, z pozoru drobna, ale niezwykle praktyczna zmiana dotyczy procesu instalacji pluginów. OpenCode v1.3.7 wprowadza mechanizm, który pozwala zachować komentarze JSONC w plikach konfiguracyjnych. JSONC to format JSON z komentarzami, powszechnie używany w plikach konfiguracyjnych wielu nowoczesnych narzędzi.
Podczas instalacji czy aktualizacji pluginu system konfiguracji często nadpisywał cały plik, usuwając wszystkie ręcznie dodane komentarze i adnotacje. Było to frustrujące, zwłaszcza w zespołach, gdzie skomentowana konfiguracja jest kluczowa dla zrozumienia poszczególnych ustawień przez wszystkich członków grupy. Teraz OpenCode inteligentnie zachowuje te komentarze, utrzymując czytelność i historię zmian w plikach. To realna poprawka dla deweloperów, którzy cenią sobie porządek i dobrą dokumentację wewnątrz kodu projektu.
Naprawa ustawień projektowych i dopracowanie interfejsu
Wydanie 1.3.7 naprawia też istotny błąd związany z zarządzaniem konfiguracją na poziomie projektu. Chodziło o zmienną środowiskową OPENCODE_DISABLE_CLAUDE_CODE_PROMPT, która – zdefiniowana w projektowym pliku CLAUDE.md – była ignorowana. Mogło to prowadzić do niespójnego zachowania między różnymi projektami, w zależności od tego, czy programista pracował z ustawieniami globalnymi, czy lokalnymi. Poprawka zapewnia, że ustawienia zdefiniowane w projekcie mają właściwy priorytet.
Nie zabrakło też usprawnień w samym TUI (Text-based User Interface). Twórcy wprowadzili mniej inwazyjne zachowanie okna wyboru wariantów modelu (variant modal), co przyspiesza i ułatwia pracę. Dodano również nowe kolory dla placeholderów w polach tekstowych, bazujące na aktywnym motywie kolorystycznym, co poprawia spójność wizualną całego interfejsu.
Dlaczego te zmiany są istotne?
OpenCode, jako wieloplatformowy AI coding agent dostępny przez terminal, aplikację desktopową lub rozszerzenie IDE, stale ewoluuje, by dostosować się do realiów pracy programistów. Wersja 1.3.7 jest dobrym przykładem tej strategii: nie wprowadza rewolucyjnych funkcji, ale znacząco poprawia komfort pracy (developer experience) w kluczowych obszarach.
Wsparcie dla PowerShell to ukłon w stronę ogromnej społeczności deweloperów korzystających z Windowsa. Zachowanie komentarzy w konfiguracji to uznanie dla dobrych praktyk inżynierii oprogramowania. Naprawa ustawień projektowych to dbałość o przewidywalność i spójność. Razem składają się one na bardziej dojrzałe i niezawodne narzędzie.
Kolejne wydania, od wersji 1.3.7 aż do 1.3.7, kontynuowały tę linię, dopracowując wydajność TUI, rozszerzając wsparcie dla dostawców LLM i poprawiając stabilność na Windows. Wersja 1.3.7 stanowiła solidny fundament pod te dalsze ulepszenia, pokazując, że twórcy OpenCode słuchają swojej społeczności i skupiają się na praktycznych, codziennych potrzebach programistów.
Rok 2026 przynosi dalszą, niezwykle dynamiczną ewolucję narzędzi opartych na modelach Claude, które od początku projektowano jako inteligentnych asystentów programistycznych. Po niedawnych, przełomowych skokach wydajności, twórcy nie zwalniają tempa. Teraz w centrum uwagi znalazło się znaczące poszerzenie dostępności platformy oraz ciągłe doskonalenie sprawdzonych rozwiązań. To już nie są narzędzia tylko dla wybranych systemów – teraz otwierają się na miliony deweloperów korzystających z Windowsa.
Windows na pokładzie: koniec z wykluczeniem platformowym
Najgłośniejszą nowością jest oficjalne wsparcie dla systemu Windows. To strategiczny krok, który diametralnie zmienia zasięg narzędzi Claude. Kluczowym wymaganiem jest posiadanie Git for Windows (który należy zainstalować w pierwszej kolejności) lub środowiska WSL (Windows Subsystem for Linux). Co ciekawe, WSL w wersji 2 oferuje dodatkową warstwę bezpieczeństwa dzięki sandboxingowi. Sam proces instalacji jest prosty: wystarczy uruchomić odpowiednią komendę w PowerShellu, CMD lub Git Bashu. Skrypt pobierze i skonfiguruje narzędzie lokalnie. Co ważne, instalacja może wymagać uprawnień administratora (np. dla WSL), a wersje aktualizują się automatycznie w tle.
"Claude on Windows requires Git for Windows or WSL. You can launch claude from PowerShell, CMD, or Git Bash" – ta prosta instrukcja z dokumentacji podkreśla: „Claude na Windowsie wymaga Git for Windows lub WSL. Możesz uruchomić claude z poziomu PowerShella, CMD lub Git Basha”.
Dla deweloperów, którzy napotkali problemy z wersją Node.js, rozwiązanie jest proste: aktualizacja Node lub pobranie narzędzia bez jego użycia. Sukces instalacji można łatwo zweryfikować komendą claude --help, która wyświetli aktualną wersję.
Nie tylko dostęp: dalsze gigantyczne skoki wydajności
Rozszerzenie na nową platformę to faktyczny koniec ery, w której zaawansowane narzędzia AI do kodowania były domeną głównie systemów macOS i Linux.
Pod maską: nowe modele i dalsze skoki wydajności
Wydajność narzędzi Claude zawsze opierała się na modelach językowych firmy Anthropic. Teraz ta baza została wzmocniona. Najnowsze iteracje – Claude 3.5 Sonnet, Claude 3 Opus i Claude 3 Haiku – oferują solidne okno kontekstowe do 200 tysięcy tokenów. To otwiera drzwi do szybszego budowania aplikacji i pracy z dużymi bazami kodu, gdzie wcześniej limity stanowiły znaczące ograniczenie.
Te aktualizacje bezpośrednio przekładają się na płynność pracy. To kontynuacja trendu zapoczątkowanego wcześniejszymi „ogromnymi skokami wydajności”, ale teraz zyskują na tym wszyscy użytkownicy, niezależnie od systemu operacyjnego.
Głębsza integracja: od VS Code po niszowe środowiska
Sama konsola to nie wszystko. Prawdziwa moc narzędzi Claude ujawnia się w symbiozie z ulubionym IDE programisty. Narzędzie płynnie łączy się z VS Code lub Cursorem, oferując slash commands, tryb planowania (planning mode) czy zdalne sterowanie edytorem – funkcje znane z wcześniejszych wydań, a teraz dostępne dla szerszego grona odbiorców.
Dostępne są natywne wtyczki dla VS Code i JetBrains. Tu jednak pojawia się pewne ograniczenie. Visual Studio – flagowe środowisko Microsoftu – wciąż nie doczekało się natywnej integracji. Deweloperzy pracujący nad dużymi projektami Win32 czy C++ są zmuszeni do używania CLI w zewnętrznych terminalach (takich jak Windows Terminal) lub rozważenia zmiany IDE, co często oznacza rezygnację z zaawansowanego debugowania.
Pokazuje to, że mimo szerokiej ekspansji, istnieją nisze, w których integracja wciąż kuleje. Dla społeczności webdevowej, AI czy DevOpsowej, która często pracuje w VS Code, JetBrains lub lekkich edytorach, nie stanowi to jednak problemu.
Podsumowanie: dojrzałe narzędzie dla każdego programisty
Ewolucja narzędzi Claude w 2026 roku to historia o otwieraniu się na użytkownika i dopracowywaniu szczegółów. Wsparcie dla Windowsa to nie tylko odhaczenie kolejnego punktu na liście systemów. To strategiczna decyzja, która demokratyzuje dostęp do zaawansowanej pomocy AI w codziennym kodowaniu. Miliony deweloperów zyskują nowe możliwości bez konieczności zmiany całego workflow czy systemu operacyjnego.
Jednocześnie rozwój nie zwalnia tam, gdzie Claude był już obecny. Nowe modele, płynne integracje i optymalizacje sprawiają, że narzędzie nie staje się tylko „tym samym, ale na Windowsie”. Staje się po prostu lepsze, szybsze i bardziej wszechstronne.
Pozostaje pytanie o Visual Studio i specjalistyczne projekty C++. Być może to kolejny front rozwoju. Na dziś jednak rozwiązania Claude przestały być egzotycznym narzędziem dla wybranych. Stały się pełnoprawnym, wieloplatformowym graczem w świecie AI-assisted coding, gotowym na vibecoding, rapid prototyping i walkę z coraz większą złożonością kodu.
W połowie marca 2026 roku projekt OpenCode – otwartoźródłowy agent AI wspomagający programowanie – otrzymał znaczącą aktualizację oznaczoną jako wersja 1.2.27. Nie jest to zwykła porcja poprawek błędów. Wydanie skupia się na dwóch kluczowych filarach: wzmocnieniu stabilności i wydajności rdzenia aplikacji oraz znaczącym poszerzeniu kompatybilności międzyplatformowej, szczególnie dla użytkowników systemu Windows. Dla społeczności deweloperów oznacza to solidniejszą, szybszą i bardziej niezawodną pracę z AI, niezależnie od systemu operacyjnego czy wybranej konfiguracji modeli.
Rdzeń wsparty lepszym typowaniem i zarządzaniem
Wersja 1.2.27 kontynuuje prace nad stabilizacją i ulepszaniem rdzenia aplikacji. Kluczowe zmiany obejmują poprawki w zarządzaniu sesjami i konfiguracją, mające na celu zwiększenie przewidywalności i niezawodności działania.
Wprowadzono również ulepszenia związane z identyfikatorami, takie jak dodanie workspaceID do sesji, co pozwala na lepsze odróżnianie i zarządzanie kontekstem pracy. Te zmiany, choć często wewnętrzne, przyczyniają się do tworzenia stabilniejszego i mniej podatnego na błędy kodu.
Prawdziwie wieloplatformowy: normalizacja i tolerancja dla Windows
Aktualizacja przynosi konkretne korzyści dla użytkowników różnych systemów, z wyraźnym naciskiem na środowisko Windows. Zespół włożył duży wysiłek w naprawienie specyficznych problemów tego systemu:
Normalizacja ścieżek: Dodano normalizację odwrotnych ukośników (\) w ścieżkach, plikach git excludesFile oraz funkcji config.rel(). Rozwiązuje to mnóstwo problemów, które mogły wystąpić przy mieszaniu formatów ścieżek.
Tolerancja NTFS: Wprowadzono 50-milisekundową tolerancję dla precyzji czasu modyfikacji (mtime) systemu plików NTFS. Systemy plików różnią się w tych detalach, a taka tolerancja zapobiega fałszywym alarmom (false positives) w narzędziach śledzących zmiany.
Końcówki linii: Dodano obsługę znaków CRLF w frontmatter plików Markdown, co jest standardem w systemie Windows.
Czyszczenie preloadu: Zabezpieczono proces czyszczenia przed błędami EBUSY, które mogą blokować pliki.
Dla użytkowników terminali na różnych platformach wprowadzono też istotne zmiany: zastąpiono kod specyficzny dla środowiska Bun (jak Bun.stderr, Bun.connect, Bun.hash) jego odpowiednikami z Node.js. Poszerza to kompatybilność i ułatwia przyszły rozwój, odchodząc od rozwiązań unikalnych dla Buna na rzecz bardziej uniwersalnych API.
Szybsze ładowanie i lepsze zarządzanie sesjami
Wydajność i doświadczenie użytkownika również uległy poprawie. Wprowadzono kilka praktycznych usprawnień:
Szybsze ładowanie udostępnień: Optymalizacja ładowania linków do współdzielonych sesji.
Nowe flagi dla Gita: Dodano wsparcie dla flag --initial-branch i --bare podczas inicjalizacji repozytoriów Git.
Wyższy timeout: Zwiększono domyślny limit czasu przetwarzania fragmentów (chunks) z 2 do 5 minut, co pomaga przy bardziej złożonych zadaniach.
Lepsze zarządzanie sesjami: Naprawiono problem utraty sesji między różnymi drzewami roboczymi (worktrees) i gałęziami sierocymi (orphan branches).
Rozszerzona obsługa modeli AI w ekosystemie
OpenCode od początku stawia na elastyczność w wyborze modeli. Wydanie z marca 2026 przynosi dalsze poszerzenie tych możliwości. Do listy obsługiwanych modeli w Codex dodano nowe pozycje, w tym GPT-5.4.
W tle działa też cały ekosystem pluginów, który zwiększa możliwości automatyzacji. Sam OpenCode bywa opisywany jako „prawdziwy deweloper żyjący na twoim komputerze”, a te aktualizacje idą właśnie w kierunku uczynienia go jeszcze bardziej samodzielnym i wszechstronnym narzędziem o wysokiej agentowości.
Stabilniejsze pobieranie danych i obsługa błędów
W obszarze niezawodności wprowadzono ulepszenia w komunikacji błędów i zarządzaniu procesami. Dodano czytelne komunikaty błędów HTML i usprawniono proces zamykania aplikacji poprzez kończenie osieroconych procesów podrzędnych MCP (Model Context Protocol) oraz eksponowanie OPENCODE_PID podczas wyłączania, co ułatwia diagnostykę. Wprowadzone zmiany w zarządzaniu sesjami i danymi tworzą solidne podstawy pod przyszłe, odporne zarządzanie kontekstem pracy.
Ulepszenia aplikacji desktopowej i TUI
Interfejs użytkownika, zarówno w wersji desktopowej, jak i terminalowej (TUI), otrzymał szereg poprawek. W aplikacji desktopowej zaktualizowano bibliotekę OpenTUI do nowszej wersji, co przyniosło ulepszenia w renderowaniu Markdown i ogólnej stabilności.
W TUI ulepszono wyświetlanie wykonywanych zadań – teraz zamiast ogólnego komunikatu „Running…” pokazywana jest liczba oczekujących wywołań narzędzi. Wprowadzono również czytelniejsze wskaźniki aktywności.
Podsumowanie: Dojrzałość i uniwersalność
Aktualizacja OpenCode z marca 2026 to nie spektakularna rewolucja, a raczej głęboka ewolucja w kierunku dojrzałości produkcyjnej. Główny przekaz jest jasny: projekt dorósł do etapu, w którym stabilność, niezawodność i kompatybilność są tak samo ważne, jak nowe funkcje.
Poprzez ulepszenia rdzenia, rozszerzenie wsparcia dla Windows, dopracowanie zarządzania zasobami i błędami oraz ciągłe ulepszanie interfejsów, OpenCode umacnia swoją pozycję jako profesjonalne, uniwersalne narzędzie w arsenale programisty. To właśnie ten rodzaj systematycznej pracy „pod maską” pozwala na budowanie zaufania i umożliwia prawdziwy „vibe coding” – płynną, niemal intuicyjną współpracę z agentem AI, który działa dyskretnie, skutecznie i na dowolnej platformie.
Ostatnia aktualizacja OpenCode, otwartoźródłowego asystenta kodowania AI, przynosi dwie kluczowe nowości dla deweloperów. Po pierwsze, rozszerza możliwości integracji z chmurą, dodając oficjalne wsparcie dla modeli Azure spoza ekosystemu OpenAI. Po drugie, co istotne dla rosnącej grupy użytkowników, rozwiązuje długo oczekiwany problem: dodaje natywne wsparcie dla architektury ARM64 w systemie Windows, co jest przełomem dla posiadaczy laptopów z procesorami Qualcomm Snapdragon X Elite.
Dlaczego ARM64 dla Windows stanowiło taki problem?
Problem był znany od miesięcy i zgłoszony oficjalnie w repozytorium projektu jako issue #4340. Użytkownicy systemu Windows 11 na architekturze ARM64, instalujący OpenCode przez menedżery pakietów takie jak WinGet, Chocolatey czy nawet npm install -g opencode-ai, napotykali tę samą, frustrującą wiadomość: „It seems that your package manager failed to install the right version of the opencode CLI for your platform. You can try manually installing the 'opencode-windows-arm64′ package”. Paradoks polegał na tym, że taki pakiet po prostu nie istniał.
Winę za ten stan rzeczy ponosił łańcuch zależności. OpenCode jest zbudowany na środowisku uruchomieniowym Bun. A Bun do niedawna nie oferował natywnej wersji bun-windows-arm64 – wszystko przez to, że sam Bun zależy od silnika WebKit, który nie miał pełnego wsparcia dla Windows na ARM. To tworzyło sytuację patową.
Deweloperzy musieli stosować skomplikowane obejścia. Najpopularniejszym była ręczna instalacja pakietu opencode-windows-x64 z flagą --force, wymuszająca pobranie binarki pod x64, a następnie ustawienie zmiennej środowiskowej OPENCODE_BIN_PATH, by nakierować wrapper Node.js na emulowany plik wykonywalny. Działało to, ale było dalekie od ideału – niektórzy zgłaszali nawet sporadyczne błędy segfault (kod wyjścia 139) podczas uruchamiania TUI.
Dzięki aktualizacji do Bun w wersji 1.3.10, który w końcu dostarczył stabilną wersję pod ARM64, zespół OpenCode mógł zbudować i wydać natywne pakiety. To nie tylko upraszcza instalację, ale też powinno znacząco poprawić stabilność i wydajność działania na nowych laptopach z procesorami Snapdragon.
Szersze horyzonty: wsparcie dla modeli Azure poza OpenAI
Druga istotna zmiana dotyczy warstwy AI. Dotychczas integracja z Azure OpenAI Service była oczywiście możliwa, ale framework był w dużej mierze zoptymalizowany pod endpointy OpenAI. Aktualizacja wprowadza pełnoprawne wsparcie dla modeli innych niż OpenAI dostępnych przez Azure AI, które korzystają z endpointów typu completions.
Co to oznacza w praktyce? Deweloperzy i firmy korzystające z usług innych dostawców modeli językowych hostowanych na Azure – na przykład GLM-4 od firmy Z.AI – mogą teraz bezproblemowo podłączyć je do OpenCode. Integracja odbywa się przez znane polecenie /models w CLI. To poszerza pole manewru, pozwalając na wykorzystanie bardziej niszowych lub zlokalizowanych modeli, które mogą lepiej radzić sobie z określonymi zadaniami czy językami.
Solidniejszy fundament: bezpieczeństwo typów i naprawa błędów
W tle tej dużej aktualizacji znalazło się mnóstwo pracy nad stabilnością i architekturą kodu. Kluczowym obszarem było wzmocnienie bezpieczeństwa typów (type safety). Zespół przeprojektował sposób zarządzania kluczowymi identyfikatorami w systemie, takimi jak PartID, WorkspaceID, SessionID czy ProjectID.
Zamiast zwykłych stringów czy liczb, identyfikatory te są teraz "brandowane" za pomocą schematów Drizzle i Zod. To technika, która na poziomie systemu typów TypeScript uniemożliwia przypadkowe pomylenie identyfikatora sesji z identyfikatorem obszaru roboczego (workspace), nawet jeśli oba są stringami. Kompilator wyłapie taki błąd, zanim kod trafi do produkcji, co zmniejsza ryzyko subtelnych, trudnych do wykrycia błędów w logice aplikacji.
Naprawiono też kilka dokuczliwych błędów. Jednym z nich był timeout przy przetwarzaniu długich strumieni odpowiedzi od modeli językowych (LLM stream chunk timeout) – domyślny limit wydłużono z 2 do 5 minut. Poprawiono również pobieranie danych organizacji, zarządzanie konsolami w tle na Windows oraz problemy z pamięcią w dużych monorepozytoriach Javy. Dla użytkowników Electrona (wersji desktopowej) istotna jest poprawka ukrywająca niechciane okna konsoli w tle.
Więcej uniwersalności i drobne usprawnienia
Aby zwiększyć przenośność kodu i zmniejszyć zależność od specyficznych API Buna, zespół zastąpił je standardowymi API Node.js. Na przykład Bun.connect zamieniono na net.createConnection, a Bun.hash na bibliotekę xxhash3-xxh64. To krok w kierunku większej niezależności od środowiska wykonawczego.
Dodano też GPT-5.4 do listy dozwolonych modeli dla Codex, co otwiera drogę do korzystania z najnowszych osiągnięć OpenAI. W warstwie agentowej AI wprowadzono zmiany w sposobie prezentacji "umiejętności" (skills) – mają one teraz być lepiej opisane dla modelu, co optymalizuje użycie tokenów i zwiększa szansę, że agent poprawnie wywoła potrzebne narzędzie.
Jak zainstalować teraz OpenCode?
Proces stał się prostszy, szczególnie dla użytkowników ARM64. Standardowe metody działają bez obejść:
Bezpośrednie pobranie: Na stronie projektu dostępne są teraz paczki .exe zarówno dla Windows x64, jak i ARM64, a także dla macOS (Apple Silicon/Intel) i Linuxa (.deb/.rpm).
Integracja z edytorami, takimi jak VS Code czy Cursor, pozostaje bez zmian – często wystarczy wcisnąć Ctrl+Esc w terminalu, aby uruchomić OpenCode, a wtyczka zadba o resztę.
Podsumowanie
Aktualizacja OpenCode do wersji 1.2.27 i wcześniejszych to coś więcej niż zwykły zestaw poprawek. To strategiczny ruch w dwóch kierunkach. Z jednej strony – ku szerszej kompatybilności sprzętowej, która otwiera projekt na prężnie rozwijający się rynek laptopów z procesorami ARM. Z drugiej – ku większej elastyczności w wyborze backendu AI, dzięki wsparciu dla szerszej gamy modeli w chmurze Azure.
Dodatkowo setki mniejszych poprawek i refaktoryzacji, szczególnie w obszarze type safety, pokazują, że projekt dojrzewa. Skupia się nie tylko na dodawaniu nowych funkcji, ale też na budowaniu solidnego, przewidywalnego i łatwiejszego w utrzymaniu fundamentu dla asystenta kodowania, który ma ambicje być poważnym narzędziem w warsztacie każdego dewelopera.
Najnowsza wersja OpenCode, oznaczona numerem 1.2.21 i wydana 7 marca 2026 roku, przynosi szereg istotnych ulepszeń, które umacniają pozycję tego otwartoźródłowego asystenta kodowania jako wszechstronnego narzędzia. Aktualizacja koncentruje się na poprawie kompatybilności z systemem Windows, rozszerza listę dostępnych modeli AI o najnowsze rozwiązania i wprowadza liczne usprawnienia interfejsu, które znacząco podnoszą komfort codziennej pracy.
Dla społeczności liczącej już miliony programistów zmiany te oznaczają bardziej stabilne i przyjazne środowisko do współpracy z agentami AI, niezależnie od wybranej platformy czy dostawcy modeli.
Solidny fundament: Windows, ścieżki i kompatybilność
Jednym z kluczowych obszarów tej aktualizacji jest poprawa działania w środowisku Windows. Zespół OpenCode kontynuuje prace nad stabilnością i wydajnością na tej platformie, wprowadzając ogólne ulepszenia systemowe.
Zoptymalizowano uruchamianie aplikacji desktopowej, która w systemie Windows domyślnie korzysta teraz z PowerShella zamiast tradycyjnego wiersza poleceń (Command Prompt), co zapewnia lepsze wsparcie dla skryptów i narzędzi deweloperskich. Poprawki sięgają też głębiej – zaimplementowano lepszą obsługę sygnałów w celu bezpiecznego zamykania procesów oraz wprowadzono optymalizacje związane z monitorowaniem systemu plików. Te zmiany, choć mniej widoczne na pierwszy rzut oka, są kluczowe dla długoterminowej stabilności i wydajności narzędzia.
Nowa moc AI: Claude Opus 4.6 i rozszerzona lista dostawców
OpenCode słynie z agnostycznego podejścia do modeli językowych, obsługując ponad 75 dostawców – od gigantów takich jak Anthropic, OpenAI czy Google, po lokalne rozwiązania typu Ollama. Wersja 1.2.21 poszerza ten ekosystem o najnowsze i najbardziej wydajne modele.
Użytkownicy mogą teraz wykorzystywać możliwości Claude Opus 4.6. Dodano również wsparcie dla modeli GPT-5.2-codex w różnych wariantach, wraz z odpowiednią dokumentacją i uwierzytelnianiem dla usługi Codex. Dla użytkowników SAP AI dodano wsparcie dla wariantów „thinking”, a dla Google Vertex AI wprowadzono zmienną środowiskową GOOGLE_VERTEX_LOCATION, pozwalającą precyzyjnie wybrać region.
Co istotne, wybór modelu jest teraz trwale zapisywany dla każdej sesji. Oznacza to, że jeśli w konkretnym zadaniu przełączysz się na przykład na Claude’a, to przy ponownym otwarciu sesji agent będzie nadal korzystał z tego modelu. To drobne, ale niezwykle praktyczne usprawnienie, które pozwala zaoszczędzić czas i eliminuje potrzebę pamiętania o ręcznej zmianie ustawień.
Dopracowany interfejs: kompaktowy widok, płynność i intuicyjność
Najbardziej odczuwalne zmiany zaszły w warstwie interfejsu użytkownika (UI), zarówno w aplikacji desktopowej, jak i w interfejsie terminalowym (TUI). Celem było uproszczenie obsługi, przyspieszenie działania i poprawa ergonomii.
W aplikacji desktopowej wprowadzono opcjonalny kompaktowy widok interfejsu, który redukuje zbędne odstępy i pozwala wyświetlić więcej treści na ekranie. Cały system animacji został przeprojektowany – od płynnego chowania i pokazywania panelu bocznego, przez animacje przycisków w pasku tytułowym, po lepsze przejścia spinnerów na liście sesji. Dzięki temu aplikacja nie tylko działa sprawniej, ale i sprawia wrażenie nowocześniejszej.
Naprawiono również irytujące błędy, takie jak przewijanie, które „uciekało” pod pole wprowadzania promptu, czy nieprawidłowe kolory tła elementów listy. Ulepszono obsługę wielu okien w Electronie, dodano ikonę „Home” dla łatwiejszej nawigacji oraz podgląd plików SVG bezpośrednio w przeglądarce sesji. W TUI poprawiono wyświetlanie statusu narzędzi – zamiast ogólnego „Running…” użytkownik widzi teraz liczbę oczekujących wywołań lub strzałkę wskazującą aktywność.
Ulepszenia pod maską: sesje, pluginy i workflow
Oprócz nowych funkcji wersja 1.2.21 wprowadza wiele usprawnień w podstawowej mechanice działania OpenCode.
Zaimplementowano paginację historii sesji po stronie serwera, co znacząco poprawia wydajność przy pracy z dużą liczbą zapisanych rozmów. W celu zwiększenia niezawodności przepisano kluczowe usługi (ProviderAuthService, AuthService) przy użyciu biblioteki Effect. W CLI dodano podkomendy do zarządzania kontami oraz mechanizm „fail-fast” przy instalacji zależności konfiguracyjnych w testach.
W obszarze agenta AI wprowadzono istotne zmiany w strukturze: pole tools jest teraz oznaczone jako przestarzałe (zastąpione przez permission), podobnie jak maxSteps (obecnie używa się steps). Dodano interaktywne narzędzie do zadawania pytań o preferencje użytkownika oraz opcję wyłączenia automatycznego ładowania promptów i umiejętności z pliku .claude. Daje to programistom większą i bardziej precyzyjną kontrolę nad zachowaniem agenta.
Podsumowanie: dojrzałość i skupienie na detalach
Wydanie OpenCode 1.2.21 nie jest rewolucją, lecz świadectwem dojrzałości projektu. Zamiast wprowadzać niedopracowane nowości, zespół skupił się na systematycznym wzmacnianiu fundamentów, usuwaniu błędów i dopracowaniu User Experience na wszystkich frontach.
Ulepszenia dla Windowsa wzmacniają pozycję projektu na tej platformie. Nowe modele AI dają dostęp do najnowocześniejszych możliwości językowych. Z kolei setki drobnych poprawek w interfejsie składają się na wrażenie płynności i solidności, które jest kluczowe w narzędziu używanym codziennie przez wiele godzin. To właśnie takie aktualizacje, budujące zaufanie poprzez niezawodność i dbałość o szczegóły, cementują pozycję OpenCode jako jednego z wiodących otwartoźródłowych agentów kodowania.
Najnowsza wersja OpenCode, v1.2.21, przynosi konkretne ulepszenia, które sprawiają, że platforma jest bardziej stabilna, uniwersalna i wydajna. To nie tylko kosmetyczna aktualizacja – to solidna praca nad fundamentami, szczególnie ważna dla użytkowników Windows oraz osób potrzebujących niezawodności w codziennej pracy z AI.
Solidniejsze podwaliny: od Bun do Node.js
Jedną z najważniejszych, choć mniej widowiskowych zmian, jest migracja kluczowych funkcjonalności z API Bun na ich odpowiedniki w Node.js. Bun, jako środowisko wykonawcze, jest szybki, ale w niektórych scenariuszach mógł powodować problemy z kompatybilnością. Teraz OpenCode zastępuje: `Bun.semver` – pakietem `npm semver`.Bun shell – bezpośrednimi wywołaniami spawn.
pathToFileURL z Bun – modułem url z Node.js.
To przejście znacząco poprawia stabilność i kompatybilność międzyplatformową, co ma kluczowe znaczenie w dużych projektach.
Windows nie zostaje w tyle: ARM64 i zalecenia
Dla użytkowników Windows ta aktualizacja jest szczególnie istotna. OpenCode wprowadza targety wydania ARM64 dla CLI i aplikacji desktopowej na tę platformę. Dodano też rozwiązanie dla dowiązań symbolicznych (symlinks) w cache instancji, aby uniknąć duplikowania kontekstu.
Aplikacja desktopowa oparta na Electronie ukrywa teraz tło konsoli Windows, co poprawia estetykę. Dla zapewnienia najlepszej obsługi i kompatybilności zaleca się korzystanie z Windows Subsystem for Linux (WSL).
Nowe modele AI i bezpieczniejsze typowanie
Changelog rozszerza możliwości integracji z modelami AI. System dodaje wsparcie dla zmiennej środowiskowej GOOGLE_VERTEX_LOCATION w Vertex AI oraz warianty thinking dla providera SAP AI.
Aby zwiększyć bezpieczeństwo typów, wprowadzono brandowane typy ID (takie jak PartID, WorkspaceID, SessionID). Typy te są walidowane przez schematy Drizzle i Zod, co w praktyce oznacza, że system ma większą kontrolę nad poprawnością danych i pozostawia mniej miejsca na błędy.
Ulepszenia TUI i aplikacji desktopowej: od wydajności po UX
W interfejsie tekstowym (TUI) poprawiono prezentację umiejętności (skills) agentów, aby zwiększyć szansę na ich poprawne wykorzystanie. Naprawiono również obsługę błędów podczas tworzenia sesji.
W aplikacji desktopowej skupiono się na wyeliminowaniu zjawiska „jank” – czyli nieprzyjemnych przycięć interfejsu. Poprawiono animacje terminala, problemy z focusem oraz zarządzanie stanem pasków bocznych (sidebars). Dodano także okno debugowania dla deweloperów oraz statystyki rozwoju wewnątrz aplikacji.
Wiele innych optymalizacji dotyczy wydajności*: naprawiono wycieki pamięci przy wielu instancjach jdtls LSP w monorepo Java, usprawniono przetwarzanie symlinków oraz zarządzanie cache. Wprowadzono flagę OPENCODE_EXPERIMENTAL_WORKSPACES dla nowej funkcji workspace-serve.
Dlaczego to ważne?
OpenCode nie jest tylko kolejnym klientem ChatGPT. To agnostyczna platforma dla wielu dostawców AI (Claude, GPT, Gemini, Ollama), która działa w terminalu, jako aplikacja desktopowa oraz w IDE (VS Code, Cursor). Oferuje dwa główne tryby: „Plan” (analiza read-only) oraz „Build” (wprowadzanie zmian, pisanie kodu, wykonywanie zadań). Integruje się z GitHubem, automatyzuje obsługę issue i pull requestów na podstawie komentarzy oraz współpracuje z wtyczkami i serwerami MCP.
Najnowsza wersja pokazuje, że rozwój idzie w kierunku solidności i uniwersalności. Zamiast dodawać kolejne efektowne, lecz niestabilne funkcje, zespół dopracował podstawy: kompatybilność międzyplatformową, migrację na stabilniejsze API, obsługę Windows oraz bezpieczeństwo typów.
To podejście jest kluczowe, gdy platforma aspiruje do miana profesjonalnego narzędzia używanego codziennie w realnych projektach – tam, gdzie losowe błędy czy problemy ze ścieżkami plików mogą zmarnować godzinę pracy.
Co dalej?
Trend w rozwoju programowania wspomaganego przez AI ewoluuje od prostych chatbotów w stronę złożonych systemów agentowych, które potrafią orkiestrować wiele narzędzi jednocześnie. OpenCode, wprowadzając funkcje takie jak workspace-serve (obecnie eksperymentalna), podąża właśnie w tym kierunku.
Aktualizacja v1.2.21 stabilizuje fundamenty potrzebne do tej bardziej złożonej, autonomicznej pracy. Lepsza obsługa Windows otwiera platformę dla większej grupy programistów, a migracja kluczowych modułów do Node.js zapewnia większą przewidywalność systemu. Poprawki wydajności i UX sprawiają natomiast, że codzienna praca staje się płynniejsza i bardziej efektywna.