Kategoria: Aktualizacje Oprogramowania

  • OpenCode v1.4.0: telemetria OTLP, wsparcie proxy i ulepszenia dla programistów

    OpenCode v1.4.0: telemetria OTLP, wsparcie proxy i ulepszenia dla programistów

    OpenCode w wersji 1.4.0 wprowadza zmiany ułatwiające pracę zespołom programistycznym. Aktualizacja skupia się na monitorowaniu pracy systemu (observability), integracji z infrastrukturą firmową oraz poprawkach w codziennym użytkowaniu. Są to funkcje przydatne dla osób, które włączają narzędzia AI do swoich procesów wytwórczych.

    OTLP i monitorowanie w firmach

    Główną nowością jest obsługa protokołu OpenTelemetry (OTLP). Pozwala on na przesyłanie logów i zdarzeń (a opcjonalnie metryk i trace'ów) do systemów takich jak Grafana, New Relic czy Honeycomb. Dzięki temu firmy mogą monitorować działanie OpenCode v1.4.0 w ramach swoich standardowych narzędzi.

    Zespoły DevOps mogą teraz tworzyć wspólne dashboardy, które łączą dane z aplikacji z informacjami o wykorzystaniu AI w procesie programowania. Konfiguracja eksportera OTEL jest automatycznie kopiowana do zarządzanych workspace’ów. Naprawiono też błąd w parsowaniu nagłówków, który występował przy wartościach ze znakiem „=”.

    Obsługa HTTP proxy i stabilność sieci

    W wersji 1.4.0 dodano pełne wsparcie dla HTTP proxy. Jest to rozwiązanie dla programistów pracujących w sieciach z restrykcyjnymi firewallami, co często zdarza się w dużych organizacjach. Poprawka ta umożliwia korzystanie z narzędzia tam, gdzie wcześniej blokowały to polityki sieciowe.

    Zwiększono również stabilność połączeń. Wyeliminowano problem z wiszącymi timeoutami, które pojawiały się po nieudanych próbach pobierania danych. Dodatkowo komunikaty o błędach podczas logowania (opencode login) są teraz bardziej precyzyjne, co przyspiesza diagnozowanie problemów z siecią.

    Zmiany w TUI i wersji desktopowej

    Interfejs tekstowy (TUI) otrzymał nowe skróty klawiaturowe, które pozwalają na szybsze przełączanie się między wariantami modeli.

    W aplikacji desktopowej zmieniono sposób prezentacji subagentów. Sesje mają teraz czytelne tytuły i jaśniejsze statusy postępu prac. Ustawienie automatycznego akceptowania uprawnień trafiło do głównego panelu ustawień, co uprościło wygląd głównego okna.

    Poprawki techniczne i optymalizacja

    W silniku aplikacji wprowadzono zmiany w obsłudze błędów u poszczególnych dostawców:

    • W przypadku providera Alibaba błędy dotyczące limitów zapytań (rate limiting) powodują teraz ponowienie próby zamiast błędu.
      Naprawiono błędy w integracji z OpenRouter.
    • Ujednolicono poziomy rozumowania (reasoning) dla GitHub Copilot przy korzystaniu z modeli Anthropic.
      Warianty modeli są teraz na stałe przypisane do konkretnych wersji, co eliminuje błędy przy ich zmianie.

    Status prac nad OpenCode v1.4.0

    Wersja 1.4.0 dostosowuje narzędzie do wymogów pracy w dużych zespołach. Wprowadzenie OTLP i obsługi proxy odpowiada na potrzeby administratorów IT i działów bezpieczeństwa. Jednocześnie poprawki w interfejsie i stabilności działania wpływają na komfort pracy programistów korzystających z OpenCode na co dzień.


    Źródła

  • Google Antigravity 1.22.2: Wprowadza Nowy System Uprawnień Agentów

    Google Antigravity 1.22.2: Wprowadza Nowy System Uprawnień Agentów

    Google opublikowało aktualizację 1.22.2 dla środowiska programistycznego Antigravity. Główną zmianą jest wprowadzenie systemu uprawnień dla agentów AI, który zastępuje dotychczasowe rozwiązania w zakresie bezpieczeństwa i kontroli nad automatyzacją kodu. Aktualizacja trafia do użytkowników etapami.

    Nowy mechanizm pozwala precyzyjnie określić, jakie działania agent może podejmować w imieniu programisty. Każda operacja – od wpisywania komend w terminalu po interakcje z przeglądarką i generowanie plików – jest teraz traktowana jako osobny zasób uprawnień. Dzięki temu użytkownicy mają większy wpływ na to, co dzieje się w ich lokalnym środowisku.

    Kontrola nad zadaniami agenta

    Agent w wersji 1.22.2 to system wnioskowania korzystający z modeli językowych klasy frontier. Narzędzie tworzy listy zadań, plany wdrożeń oraz nagrania z sesji w przeglądarce. Wcześniej zarządzanie tymi procesami było mało dokładne, co zmienia obecna aktualizacja.

    W panelu Agent Manager oraz w ustawieniach systemowych pojawiły się trzy główne zasady kontroli. Pierwsza z nich, polityka przeglądu artefaktów (Artifact Review Policy), określa sytuacje, w których agent musi zatrzymać pracę i poczekać na akceptację człowieka. Użytkownik może wybrać tryb „Always Proceed”, aby przyspieszyć proces, co jednak wiąże się z mniejszym nadzorem nad wynikami.

    Druga zasada dotyczy wykonywania poleceń w terminalu. Wykorzystuje ona listy dozwolonych i zabronionych komend (allowlists/blocklists). Pozwala to na automatyczne uruchamianie bezpiecznych operacji, takich jak npm install, przy jednoczesnym blokowaniu ryzykownych skryptów. Trzecia funkcja to polityka JavaScriptu w przeglądarce, która uniemożliwia uruchamianie niezaufanego kodu JS. Ma to chronić przed atakami typu prompt injection podczas testowania aplikacji.

    Naprawione błędy i problemy techniczne

    Wersja 1.22.2 eliminuje błąd, który powodował wyświetlanie zbędnych próśb o dostęp do terminala, nawet jeśli użytkownik zaznaczył opcję „Always run”. Dokumentacja potwierdza naprawę tej usterki, choć monity dotyczące adresów URL w przeglądarce mogą nadal występować.

    Wdrożenie nowych zabezpieczeń wiąże się też z pewnymi trudnościami. Wprowadzony wcześniej sandboxing (w wersji 1.21.6) wywołał u części osób problemy z uprawnieniami Dockera, głównie na systemie macOS. Ponieważ system wymusza aktualizacje do najnowszej wersji, niektórzy specjaliści DevOps nie mogą wrócić do starszego, stabilnego wydania. Odnotowano również przypadki błędów weryfikacji konta u użytkowników z aktywną subskrypcją, co prawdopodobnie wynika z przebudowy systemu autoryzacji.

    Bezpieczeństwo w pracy z AI i DevOps

    Nowy system uprawnień to kolejny etap rozwoju narzędzia w stronę bezpiecznego programowania wspomaganego przez AI. Dla osób pracujących w modelu „vibe coding” lub automatyzujących procesy DevOps, szczegółowe definiowanie uprawnień agenta ogranicza ryzyko przypadkowego usunięcia danych, uruchomienia złośliwego skryptu czy wejścia na niebezpieczną stronę podczas testów.

    Zmiany w wersji 1.22.2 przygotowują grunt pod dalszy rozwój autonomii agentów. Google dąży do modelu, w którym samodzielność sztucznej inteligencji jest ograniczona konkretnymi ramami ustawionymi przez człowieka. Dla zespołów zajmujących się tworzeniem stron internetowych i rozwojem AI oznacza to bardziej przewidywalne warunki pracy przy testowaniu nowych metod budowania aplikacji.


    Źródła

  • Claude Code Wraca na Tropy: Wersja 2.1.96 Naprawia Krytyczny błąd Uwierzytelniania w AWS Bedrock

    Claude Code Wraca na Tropy: Wersja 2.1.96 Naprawia Krytyczny błąd Uwierzytelniania w AWS Bedrock

    Zespół Claude Code wydał aktualizację oprogramowania. Wersja 2.1.96 usuwa błąd uwierzytelniania w AWS Bedrock, który pojawił się w wydaniu 2.1.94. Ta usterka uniemożliwiała wielu osobom połączenie z usługą, co zmusiło programistów do przygotowania poprawki w krótkim czasie.

    Problem objawiał się komunikatami HTTP 403 o treści "Authorization header is missing". Błąd występował u użytkowników konfigurujących dostęp przez zmienne środowiskowe, takie jak AWS_BEARER_TOKEN_BEDROCK lub CLAUDE_CODE_SKIP_BEDROCK_AUTH. W efekcie potoki CI/CD, skrypty automatyzacji oraz osoby korzystające z tych metod autoryzacji straciły dostęp do modeli AI w Bedrock, mimo że wcześniej usługa działała bez zakłóceń.

    Przyczyny problemów w wersji 2.1.94

    Błąd dotyczył konkretnego sposobu logowania. Wersja 2.1.94 wprowadziła zmiany, które powodowały błędne przetwarzanie nagłówków autoryzacji przy aktywnych wspomnianych zmiennych środowiskowych.

    Usterka nie dotyczyła wszystkich metod łączenia się z AWS Bedrock. Osoby korzystające ze standardowych profili AWS CLI lub ról IAM zazwyczaj nie miały problemów. Błąd uderzył w rzadsze scenariusze, takie jak użycie statycznego tokena w zmiennej AWS_BEARER_TOKEN_BEDROCK lub pomijanie autoryzacji przez CLAUDE_CODE_SKIP_BEDROCK_AUTH. Takie ustawienia są często stosowane w zautomatyzowanych środowiskach, na przykład w GitHub Actions, gdzie zarządzanie dynamicznymi poświadczeniami jest trudniejsze.

    Wersja 2.1.96 przywraca właściwą logikę obsługi tych zmiennych. Aby zainstalować poprawkę, należy użyć polecenia npm update @anthropic-ai/claude-code. Warto jednak dodać, że w zgłoszeniach na GitHubie pojawiają się informacje, że niektórzy użytkownicy GitHub Actions nadal widzą błędy 403 po aktualizacji, co może oznaczać, że problem nie został całkowicie rozwiązany w każdym środowisku.

    Znaczenie dla inżynierów AI

    AWS Bedrock jest podstawą dla zespołów budujących przepływy pracy oparte na sztucznej inteligencji w chmurze. Platforma ta pozwala korzystać z modeli Claude bez konieczności zarządzania własnymi serwerami, co ułatwia integrację z usługami AWS.

    W środowiskach DevOps i potokach CI/CD zmienne typu AWS_BEARER_TOKEN_BEDROCK są używane do bezpiecznego przekazywania uprawnień bez zapisywania ich w plikach konfiguracyjnych. Błąd w wersji 2.1.94 mógł więc zatrzymać automatyczne wdrażanie, testy czy procesy generowania kodu.

    Ostatnie wydania przyniosły też inne poprawki dla Bedrock. Rozwiązano problemy z autoryzacją SigV4, które występowały przy ustawianiu nagłówka Authorization przez ANTHROPIC_AUTH_TOKEN lub ANTHROPIC_CUSTOM_HEADERS. Zespół Claude Code regularnie poprawia współpracę z dostawcami chmurowymi, co jest niezbędne w zastosowaniach profesjonalnych.

    Konfiguracja połączenia z Bedrock

    Po przejściu na wersję 2.1.96 ustawienia powinny działać poprawnie. Przykładowa konfiguracja dla środowiska korzystającego z Claude Code i AWS Bedrock wygląda tak:

    export CLAUDE_CODE_USE_BEDROCK=1
    export AWS_REGION=us-east-1
    export AWS_PROFILE=your-profile
    # Jedna z poniższych metod autoryzacji:
    export AWS_BEARER_TOKEN_BEDROCK=your-token
    # Lub:
    export CLAUDE_CODE_SKIP_BEDROCK_AUTH=1

    W przypadku korzystania z własnych bramek lub serwerów proxy można dodatkowo użyć zmiennej ANTHROPIC_BEDROCK_BASE_URL. Taka elastyczność pozwala dopasować narzędzie do zasad bezpieczeństwa wewnątrz firmy.

    Reakcja na błędy

    Wydanie wersji 2.1.96 zaraz po wykryciu błędu pokazuje, że proces rozwoju Claude Code jest sprawny. W branży narzędzi AI, gdzie aktualizacje pojawiają się bardzo często, szybkie usuwanie usterek technicznych jest kluczowe dla zachowania ciągłości pracy użytkowników.

    Dla osób korzystających z Claude Code ta poprawka oznacza możliwość powrotu do pracy z modelami hostowanymi w chmurze. Sytuacja ta przypomina również o tym, jak ważne jest dokładne testowanie systemów uwierzytelniania przy wprowadzaniu zmian w kodzie.


    Źródła

  • Claude Code 2.1.94: Wsparcie dla Amazon Bedrock i Poprawa Stabilności

    Claude Code 2.1.94: Wsparcie dla Amazon Bedrock i Poprawa Stabilności

    Aktualizacja Claude Code do wersji 2.1.94 wprowadza zmiany przydatne dla programistów korzystających z AWS oraz osób pracujących w dużych zespołach. Deweloperzy skupili się na obsłudze zewnętrznych platform, poprawie stabilności i usunięciu błędów utrudniających codzienną pracę.

    Integracja z Amazon Bedrock przez Mantle

    Główną nowością jest obsługa Amazon Bedrock za pomocą systemu Mantle. Jest to wewnętrzne rozwiązanie firmy Anthropic, które przekierowuje zapytania do infrastruktury Bedrock. Funkcja ta jest skierowana do firm, które chcą korzystać z modeli AI bez przesyłania danych poza swoje środowisko AWS.

    Aby aktywować tę funkcję, należy ustawić zmienną środowiskową CLAUDE_CODE_USE_MANTLE=1. Pozwala to na komunikację z modelami przez zarządzaną infrastrukturę AWS, co ułatwia zachowanie zgodności z wewnętrznymi zasadami bezpieczeństwa i wykorzystanie posiadanych kredytów AWS. Claude Code wciąż korzysta z formatu API Anthropica, a Mantle służy jako łącznik między tym standardem a interfejsem Bedrock.

    Wyższy domyślny poziom Effort

    W tej wersji zmieniono domyślne ustawienie intensywności pracy narzędzia. Dla użytkowników korzystających z kluczy API oraz platform Bedrock, Vertex, Foundry, a także planów Team i Enterprise, poziom effort został podniesiony z medium na high.

    W praktyce oznacza to, że model poświęca więcej zasobów na analizę i generowanie odpowiedzi. Ma to poprawić jakość kodu, choć może wiązać się z nieco dłuższym czasem oczekiwania i większym zużyciem tokenów. Użytkownicy, którzy wolą poprzednie ustawienie, mogą je przywrócić poleceniem /effort.

    Ulepszenia pluginów i integracji

    Wersja 2.1.94 wprowadza zmiany w sposobie działania dodatków. Nazwy umiejętności (skills) w pluginach są teraz pobierane z pola name w sekcji frontmatter, co ułatwia ich poprawne wywoływanie.

    Poprawiono również współpracę ze Slackiem. Gdy Claude wysyła wiadomość przez protokół MCP (Model Context Protocol), w konsoli pojawia się nagłówek Slacked #channel. Zawiera on bezpośredni link do kanału, co przyspiesza przełączanie się między terminalem a komunikatorem.

    Poprawki błędów

    Większość zmian w tej wersji to usunięcie usterek zgłaszanych przez użytkowników:

    • Limity zapytań (rate limits): Program informuje o przekroczeniu limitów od razu. Wcześniej aplikacja mogła przestać odpowiadać bez podania przyczyny.
    • Logowanie w macOS: Naprawiono błędy podczas logowania w konsoli. Teraz problemy można zdiagnozować za pomocą komendy claude doctor.
    • Kodowanie znaków: Rozwiązano problem z błędnym wyświetlaniem polskich liter i innych znaków specjalnych podczas przesyłania danych w formacie JSON.
    • Autoryzacja w Bedrock: Usunięto błąd 403 "Authorization header is missing", który pojawiał się przy specyficznych konfiguracjach zmiennych środowiskowych.

    Dodatkowo poprawiono renderowanie interfejsu w terminalu oraz zarządzanie aktywnymi sesjami.

    Podsumowanie

    Claude Code 2.1.94 to aktualizacja techniczna, która poprawia działanie narzędzia w środowiskach korporacyjnych. Wsparcie dla Amazon Bedrock ułatwia wdrożenie narzędzia w firmach opartych na AWS, a wyższy poziom „effort” ma zapewniać lepsze wyniki pracy modelu. Najważniejszą zmianą dla większości użytkowników będzie jednak wyeliminowanie błędów związanych z logowaniem i limitami zapytań, co przekłada się na stabilniejsze działanie programu.


    Źródła

  • Poprawki AI Cloudflare i Obsługa Klawiatury w Najnowszym OpenCode v1.3.17

    Poprawki AI Cloudflare i Obsługa Klawiatury w Najnowszym OpenCode v1.3.17

    Aktualizacja OpenCode do wersji v1.3.17 wprowadza zmiany w dwóch obszarach: integracji z usługami AI Cloudflare oraz stabilności interfejsu terminalowego (TUI) w systemie Windows. Poprawki te bezpośrednio wpływają na wygodę pracy z tym asystentem kodowania.

    Lepsza obsługa błędów dla Cloudflare AI

    Główną zmianą w tej wersji jest usprawnienie współpracy z Cloudflare Workers AI oraz Cloudflare AI Gateway. W poprzednich wydaniach brak zmiennych środowiskowych Cloudflare mógł powodować błędy, które nie informowały jasno o przyczynie problemu. Dzięki poprawce od użytkownika @mchenco, OpenCode v1.3.17 lepiej radzi sobie z takimi sytuacjami.

    Jeśli aplikacja nie wykryje danych konta, takich jak CF_API_TOKEN czy CF_ACCOUNT_ID, wyświetli instrukcje konfiguracji. Program wskazuje teraz, których zmiennych brakuje i jak je uzupełnić. Ułatwia to uruchomienie funkcji AI osobom, które dopiero zaczynają korzystać z infrastruktury Cloudflare.

    Zmiana ta jest istotna w kontekście wykorzystania modeli dostępnych na platformie Workers AI oraz narzędzi takich jak Sandbox SDK czy Responses API. Deweloperzy tworzący agenty AI lub korzystający z Browser Renderingu na infrastrukturze Cloudflare mogą teraz łatwiej połączyć te usługi z OpenCode.

    Przywrócenie obsługi klawiatury Kitty w terminalu

    W wersji v1.3.17 przywrócono domyślną obsługę klawiatury Kitty dla użytkowników systemu Windows. Wcześniej usunięcie jednego z obejść technicznych spowodowało problemy z wprowadzaniem danych w interfejsie terminalowym (TUI).

    Kitty to protokół terminalowy wykorzystywany do obsługi zaawansowanych funkcji tekstowych i graficznych. Błędy w jego obsłudze prowadziły do gubienia znaków lub opóźnień podczas pisania. Naprawa tego błędu sprawia, że interakcja z TUI jest stabilna. Jest to ważne dla osób, które wolą zarządzać sesjami, narzędziami bashowymi i wtyczkami bezpośrednio z wiersza poleceń, zamiast korzystać z aplikacji okienkowej.

    Zmiany w module Core

    Wersja v1.3.17 korzysta również z szerszych aktualizacji silnika OpenCode Core. Cloudflare AI Gateway automatycznie pomija teraz parametr max_tokens dla modeli OpenAI z serii o-series oraz GPT-5, co zapobiega odrzucaniu żądań przez API.

    Wprowadzono także dziedziczenie kontekstu autoryzacji przez obszary robocze (workspaces). Po zalogowaniu się do dostawcy AI w jednym oknie, autoryzacja jest aktywna także w innych sesjach w ramach tego samego obszaru roboczego. Dzięki temu użytkownik nie musi logować się wielokrotnie.

    Dodatkowo system automatycznie ponawia próby połączenia w przypadku wystąpienia błędów 5xx po stronie dostawcy. Dzieje się to nawet wtedy, gdy oficjalne biblioteki SDK nie wymuszają takiego zachowania, co zwiększa odporność narzędzia na chwilowe przerwy w działaniu usług zewnętrznych.

    Praktyczne znaczenie aktualizacji

    OpenCode v1.3.17 skupia się na eliminowaniu konkretnych problemów technicznych zgłaszanych przez użytkowników.

    1. Łatwiejsza konfiguracja: Jasne komunikaty o błędach pozwalają szybciej przygotować środowisko do pracy.
    2. Stabilność pracy: Naprawa obsługi klawiatury w terminalu pozwala na płynne pisanie kodu bez przerw technicznych.

    Udział użytkownika @mchenco w pracach nad tą wersją pokazuje, że społeczność ma realny wpływ na rozwój projektu. Nawet poprawki dotyczące komunikatów o błędach są istotne dla autorów OpenCode i trafiają do oficjalnych wydań.

    Stabilność i przewidywalność

    Wydanie v1.3.17 stawia na niezawodność. Dla programistów korzystających z AI Cloudflare poprawa obsługi błędów oznacza mniej czasu spędzonego na debugowaniu ustawień. Z kolei naprawa protokołu Kitty przywraca komfort pracy w terminalu.

    W połączeniu z funkcjami takimi jak inteligentne ponawianie prób połączenia i współdzielenie autoryzacji, OpenCode staje się bardziej przewidywalnym narzędziem. Zamiast dodawania wielu nowych opcji, twórcy skupili się na tym, aby obecne funkcje działały bez zakłóceń w codziennej pracy deweloperskiej.


    Źródła

  • Zed 0.230.1 Daje Kontrolę Nad Zadaniami i Interfejsem

    Zed 0.230.1 Daje Kontrolę Nad Zadaniami i Interfejsem

    Nowa aktualizacja wydajnego edytora kodu Zed, oznaczona numerem 0.230.1, przynosi istotne udoskonalenia dla deweloperów, którzy cenią sobie precyzyjną kontrolę nad workflow. W centrum uwagi znalazły się dwa kluczowe obszary: konfiguracja zadań systemowych oraz personalizacja interfejsu użytkownika. Te zmiany, choć mają charakter szlifów technicznych, znacząco wpływają na codzienną wygodę programowania.

    Wersja 0.230.1 wprowadza bardziej przemyślaną logikę wykonywania zdefiniowanych zadań oraz daje użytkownikom nowe możliwości w układaniu przestrzeni roboczej, szczególnie w kontekście paneli Terminala i Agenta AI.

    Konfiguracja zadań: precyzyjne sterowanie zapisem

    Jedną z najbardziej wyczekiwanych poprawek w tym wydaniu jest udoskonalenie zachowania zadań wobec niezapisanych zmian w edytorze. W poprzedniej wersji (0.230.1) Zed przestał domyślnie zapisywać edytowane bufory przed uruchomieniem zadania. Chociaż dla wielu jest to preferowane zachowanie, niektórzy deweloperzy potrzebowali bardziej elastycznej kontroli.

    Aktualizacja 0.230.1 rozwiązuje ten problem, wprowadzając nowe pole "save" w plikach konfiguracyjnych tasks.json. Dzięki temu użytkownik może dla każdego zadania z osobna określić, czy Zed ma automatycznie zapisać wszystkie zmiany przed jego wykonaniem. To odwrócenie domyślnego zachowania z wersji 0.230.1 odbywa się teraz w sposób świadomy i konfigurowalny.

    Zadania w Zed można definiować na dwa sposoby. Plik globalny ~/.config/zed/tasks.json przechowuje komendy dostępne we wszystkich projektach. Z kolei plik lokalny .zed/tasks.json w katalogu głównym projektu pozwala na zdefiniowanie specyficznych dla niego skryptów, np. do budowania, testowania czy uruchamiania serwera deweloperskiego. Dostęp do edycji tych plików można uzyskać przez polecenia zed: open tasks (globalne) i zed: open project tasks (lokalne).

    Co ważne, zadania wspierają zmienne środowiskowe, takie jak $ZED_WORKTREE_ROOT (ścieżka do katalogu projektu), co pozwala tworzyć przenośne skrypty. Przykładowe zadanie do uruchomienia narzędzia lazygit mogłoby wyglądać następująco: {"label": "Otwórz lazygit", "command": "lazygit -p $ZED_WORKTREE_ROOT"}. Dzięki temu deweloperzy zajmujący się web developmentem czy DevOps mogą tworzyć powtarzalne, projektowe zestawy poleceń, które przyspieszają codzienną pracę.

    Elastyczny interfejs: panele na Twoich zasadach

    Drugi filar aktualizacji to dalsze usprawnienia personalizacji interfejsu użytkownika. Wersja 0.230.1 rozszerza możliwości wprowadzone w 0.230.1, dodając pełną kontrolę nad szerokością paneli Terminala i Agenta AI.

    Od teraz użytkownik może przełączać te panele między trybem stałej i elastycznej szerokości. Tryb elastyczny, znany już z centralnych paneli edycyjnych, pozwala panelowi na dynamiczne dopasowanie rozmiaru do dostępnej przestrzeni, co jest niezwykle użyteczne podczas pracy na mniejszych ekranach lub w złożonych układach okien.

    Ustawienie to można zmienić na dwa sposoby: bezpośrednio w oknie ustawień Zed lub szybciej – przez menu kontekstowe, wywoływane prawym przyciskiem myszy na przycisku danego panelu w pasku stanu. To małe, ale niezwykle praktyczne udogodnienie, które oddaje użytkownikowi pełnię kontroli nad organizacją przestrzeni roboczej, pozwalając dopasować ją do aktualnych potrzeb – czy to podczas pisania kodu z pomocą AI, czy zarządzania procesami w terminalu.

    Znaczenie w szerszym kontekście rozwoju Zed

    Wydanie 0.230.1 jest częścią cotygodniowego cyklu stabilnych aktualizacji Zed, który konsekwentnie wprowadza ulepszenia mające na celu usprawnienie pracy programistów. W ostatnim czasie zespół skupiał się na integracji funkcji AI, współpracy w czasie rzeczywistym, wsparciu dla Dev Containers oraz – jak widać – na dopracowywaniu podstawowych narzędzi, takich jak system zadań.

    Dopracowanie konfiguracji zadań wzmacnia pozycję Zed jako edytora, który nie tylko świetnie radzi sobie z edycją tekstu, ale także aspiruje do bycia centrum dowodzenia dla całego procesu rozwoju oprogramowania. Możliwość precyzyjnego zarządzania skryptami budowania, testowania i wdrażania bez opuszczania edytora to ważny krok w tym kierunku.

    Warto pamiętać, że system nie jest pozbawiony pewnych ograniczeń. Jak wskazują niektóre źródła, zadania mogą mieć problem z precyzyjnym dostępem do zmiennych stanu edytora, takich jak $ZED_FILE, co jest znanym błędem. Mimo to kierunek rozwoju jest wyraźny: Zed stara się scalać różne aspekty pracy dewelopera w spójnym, szybkim i konfigurowalnym środowisku. Aktualizacja 0.230.1, choć przyrostowa, solidnie przyczynia się do realizacji tego celu.


    Źródła

  • Kimi Code CLI 1.30.0: Lepsza Obsługa Sesji, Bezpieczeństwo i Narzędzia Pracy

    Kimi Code CLI 1.30.0: Lepsza Obsługa Sesji, Bezpieczeństwo i Narzędzia Pracy

    Wydanie Kimi Code CLI 1.30.0 to kolejny solidny krok w rozwoju tego narzędzia dla programistów. Agent CLI od MoonshotAI otrzymał zestaw funkcjonalności skupiających się na płynniejszym zarządzaniu sesjami, wzmocnieniu bezpieczeństwa oraz wygodniejszych narzędziach wspierających codzienną pracę z kodem. To aktualizacja, która w dużej mierze dotyka fundamentalnych aspektów użytkowania – stabilności, ochrony danych i kontroli nad przebiegiem pracy.

    Wygodniejsze zarządzanie sesjami i nowe komendy

    Jednym z kluczowych obszarów poprawy jest obsługa sesji. Wprowadzone zostały flagi --session oraz --resume (z krótkim aliasem -r), które pozwalają łatwo wrócić do poprzedniej sesji. Bez argumentu otwierają one interaktywny selektor sesji w terminalu, a z podanym ID sesji – wznawiają konkretną konwersację. CLI wyświetla nawet przypomnienie (kimi -r <session-id>) przy zakończeniu sesji, aby użytkownik zawsze wiedział, jak może ją kontynuować.

    Co ciekawe, dodano też komendy /undo oraz /fork do tworzenia forków sesji. /undo pozwala wybrać poprzednią turę i utworzyć nową sesję z wybraną wiadomością przygotowaną do ponownej edycji. /fork duplikuje całą historię konwersacji do nowej sesji. Warto podkreślić, że oryginalna sesja zawsze zostaje zachowana – to bezpieczny sposób na eksperymentowanie bez ryzyka utraty kontekstu.

    Dodano też ujednolicony tryb --plan oraz opcję konfiguracyjną default_plan_mode. Rozpoczęcie nowej sesji z flagą --plan lub poprzez ustawienie default_plan_mode = true w ~/.kimi/config.toml pozwala zacząć pracę w trybie planowania. Sesje wznowione zachowują swój dotychczasowy stan tego trybu.

    Zaawansowane filtry bezpieczeństwa dla plików

    Bezpieczeństwo otrzymało znaczący impuls. Narzędzia Grep oraz Read zostały wzmocnione ochroną plików wrażliwych. Automatycznie filtrują lub blokują one dostęp do takich plików jak .env, prywatne klucze SSH (id_rsa, id_ed25519, id_ecdsa) oraz pliki z danymi uwierzytelniającymi do chmury (.aws/credentials, .gcp/credentials). Co ważne, pliki typu .env.example, .env.sample czy .env.template są wyłączone z tej ochrony – rozróżnienie między rzeczywistymi danymi a przykładami jest kluczowe.

    Narzędzie Grep zyskało również nowy parametr include_ignored. Kiedy jest on ustawiony na true, włącza flagę ripgrep --no-ignore, pozwalając na przeszukiwanie plików wykluczonych przez .gitignore, takich jak artefakty budowania czy node_modules. Pliki wrażliwe pozostają jednak filtrowane przez dodatkową warstwę ochrony. Domyślnie wartość ta wynosi false, co zachowuje dotychczasowe zachowanie programu.

    Ulepszenia kompatybilności i stabilności

    Wydanie 1.30.0 naprawia też kilka problemów związanych z kompatybilnością i stabilnością. Rozwiązano błąd, przez który custom_headers nie były przekazywane do dostawców innych niż Kimi (OpenAI, Anthropic, Google GenAI, Vertex AI). Teraz są one poprawnie przesyłane dalej.

    Poprawiono wykrywanie skilli w katalogach marki (np. ~/.kimi/skills/). Wcześniej, jeśli istniejący katalog ogólny (~/.config/agents/skills/) był pusty, skille z katalogu marki mogły "zniknąć". Teraz mechanizm discovery niezależnie przeszukuje obie grupy katalogów i łączy wyniki. Dodano też opcję konfiguracyjną merge_all_available_skills. Gdy jest ona włączona, skille ze wszystkich istniejących katalogów marek (~/.kimi/skills/, ~/.claude/skills/, ~/.codex/skills/) are ładowane i scalane, zamiast używania tylko pierwszego znalezionego. Skille o tej samej nazwie mają priorytet według kolejności: kimi > claude > codex.

    Dopracowanie interfejsu i zachowania shella

    Shell otrzymał szereg subtelnych, ale ważnych poprawek. Udoskonalono automatyczne wyzwalanie autouzupełniania w tle (idle background completion) – wznowione sesje shella nie uruchamiają automatycznie tury na pierwszym planie z zaległymi powiadomieniami z tła przed wysłaniem wiadomości przez użytkownika. Nowe uzupełnienia w tle czekają też chwilę, gdy użytkownik aktywnie pisze, aby nie "ukraść" promptu ani nie zaburzyć wprowadzania znaków w systemach CJK IME.

    Poprawiono również UX komendy kimi export. Narzędzie pokazuje teraz podgląd poprzedniej sesji dla aktualnego katalogu roboczego i prosi o potwierdzenie, wyświetlając ID sesji, tytuł oraz czas ostatniej wiadomości użytkownika. Dodano flagę --yes, aby pominąć potwierdzenie. Naprawiono też parsowanie przy wywołaniach z jawnym ID sesji.

    Cel wydania i dalszy rozwój

    Wydanie Kimi Code CLI 1.30.0 jasno pokazuje kierunek rozwoju tego narzędzia: praktyczne, codzienne ulepszenia dla programistów zajmujących się web developmentem, DevOps czy "vibe codingiem". Skupienie na bezpieczeństwie, niezawodnym zarządzaniu sesjami oraz precyzji narzędzi czyni pracę z agentem CLI napędzanym przez AI bardziej produktywną i kontrolowaną.

    Kimi CLI jest dostępne przez PyPI (kimi-cli), a jego szybkie tempo wydawnicze świadczy o aktywnym rozwoju. Dla osób korzystających z terminala jako głównego środowiska pracy takie aktualizacje są często niedocenianym, ale kluczowym elementem sprawnego workflow.


    Źródła

  • Codex 0.118.0: Wzmocnione Zabezpieczenia Sieciowe, Nowy Flow Logowania i Poprawki Interfejsu

    Codex 0.118.0: Wzmocnione Zabezpieczenia Sieciowe, Nowy Flow Logowania i Poprawki Interfejsu

    OpenAI wydało kolejną aktualizację swojego narzędzia CLI dla deweloperów. Codex 0.118.0 przynosi ulepszenia w obszarach bezpieczeństwa, autoryzacji i interfejsu użytkownika, skupiając się na stabilizacji i usprawnieniu codziennych workflowów programistów. Ta wersja jest dostępna na platformie Chocolatey i kontynuuje trend wzmacniania sandboxów oraz integracji z zewnętrznymi dostawcami modeli AI.

    Aktualizacja skupia się na naprawie błędów i dostarczeniu funkcji, które bezpośrednio przekładają się na komfort pracy. To nie są rewolucyjne zmiany, lecz konkretne usprawnienia, które eliminują irytujące problemy i otwierają nowe możliwości, szczególnie dla zespołów korzystających z własnej infrastruktury AI.

    Główne ulepszenia w sieci i sandboxach

    Kluczową zmianą w tej wersji są prace nad poprawą niezawodności sandboxów. Zmiany te wpisują się w szerszą strategię Codexa: oferowanie potężnych, a zarazem bezpiecznych środowisk izolowanych, które pozwalają AI na wykonywanie poleceń systemowych, instalację zależności czy operacje na plikach bez ryzyka dla głównego systemu.

    Nowe możliwości autoryzacji i logowania

    Codex 0.118.0 wprowadza ulepszenia w sposobie uwierzytelniania. To ważne ułatwienie dla firm, które integrują Codexa z własnymi lub zewnętrznymi modelami językowymi, gdzie konieczne jest sprawne zarządzanie kluczami API.

    Praktyczne usprawnienia CLI i interfejsu TUI

    W codziennej pracy w terminalu ta wersja wprowadza istotne poprawki. Interfejs tekstowy użytkownika (TUI) również otrzymał zestaw poprawek. Usunięto także przestarzałe elementy, oczyszczając kod i interfejs.

    Dlaczego to ważne dla deweloperów webowych i DevOps?

    Codex ewoluuje w kierunku kompleksowego narzędzia do vibe codingu i rozwoju oprogramowania wspomaganego przez AI. Możliwość bezpiecznego uruchamiania poleceń shell, operacji git czy instalacji zależności w sandboxie, sterowana językiem naturalnym, idealnie wpisuje się w workflow nowoczesnego dewelopera. Dla zespołów DevOps łatwa integracja z niestandardowymi modelami to klucz do włączenia wewnętrznych narzędzi AI do procesu.

    Aktualizacja 0.118.0 ma przede wszystkim charakter stabilizacyjny. To solidny krok, który przygotowuje grunt pod przyszłe, bardziej eksperymentalne funkcje.

    Podsumowanie i wnioski

    Codex 0.118.0 może nie jest najbardziej spektakularną aktualizacją, ale z pewnością należy do tych najbardziej praktycznych. Koncentruje się na tym, co istotne w zastosowaniach produkcyjnych: bezpieczeństwie sieci, niezawodnym logowaniu, wygodzie pracy w terminalu i stabilności. Naprawa bugów w TUI to zmiana, która realnie przyspiesza codzienną pracę.

    Ogólny kierunek jest jasny: Codex staje się coraz dojrzalszym, bardziej konfigurowalnym i bezpiecznym środowiskiem do programowania wspomaganego sztuczną inteligencją. Każdemu, kto już korzysta z tego narzędzia, zaleca się aktualizację do wersji 0.118.0, choć – jak zawsze – warto najpierw przetestować ją w środowisku testowym.


    Źródła

  • OpenCode Zwiększa Wydajność i Stabilność – Caching Promptów i Naprawa Azure w Wersji 1.3.12

    OpenCode Zwiększa Wydajność i Stabilność – Caching Promptów i Naprawa Azure w Wersji 1.3.12

    Nowa wersja open-source'owego asystenta programistycznego OpenCode, oznaczona numerem v1.3.12, przynosi istotne ulepszenia dla osób korzystających z zaawansowanych modeli AI. To wydanie skupia się na poprawie wydajności i stabilności, wprowadzając mechanizmy cache'owania oraz naprawiając błędy.

    Ogólne usprawnienia cache'owania

    Wydanie OpenCode v1.3.12 wprowadza ulepszenia w zakresie cache’owania sesji. To optymalizacja, która może znacząco przyspieszyć pracę i obniżyć koszty.

    W praktyce oznacza to, że gdy OpenCode wielokrotnie używa podobnych lub identycznych fragmentów promptów w sesji, może teraz efektywniej zarządzać danymi, zamiast za każdym razem wysyłać je od nowa do API. Jest to szczególnie cenne podczas długich, iteracyjnych sesji programistycznych, w których agent często odwołuje się do tych samych fragmentów kodu, specyfikacji czy logiki.

    Stabilizacja i nowe funkcje

    Aktualizacja przynosi szereg poprawek i nowych funkcjonalności, w tym wsparcie dla OAuth OpenAI oraz usprawnienia w obsłudze poleceń Bash i proxy. To kluczowe poprawki dla zespołów wykorzystujących różne modele AI, które są popularnym wyborem w środowiskach korporacyjnych ze względu na zgodność (compliance) i integrację.

    Stabilizacja interfejsu terminalowego (TUI)

    Wydanie przynosi także ważne poprawki dla samego Terminal User Interface (TUI). Prace skupiają się na zapewnieniu płynnego i bardziej przewidywalnego działania interfejsu, co jest kluczowe dla zachowania "flow" programisty podczas pracy w terminalu. OpenCode stawia mocno na User Experience w TUI, oferując różne tryby pracy, które można szybko przełączać za pomocą poleceń takich jak /init czy /undo.

    Szerszy kontekst rozwoju OpenCode

    Wersja v1.3.12 wpisuje się w intensywny rozwój OpenCode jako otwartej alternatywy dla komercyjnych asystentów. Projekt wspiera już ponad 75 modeli językowych dzięki integracji z platformami takimi jak Models.dev, a także specyficzne narzędzia, jak GitHub Copilot.

    W ostatnich wydaniach dodano wsparcie dla nowych providerów, przywrócono tryby review oparte na Git, dodano pełne wsparcie dla proxy HTTP i zmodernizowano komponenty wewnętrzne, w tym zaktualizowano Effect library (wersja beta.37) w usługach konfiguracyjnych. Wszystko to służy jednemu celowi: stworzeniu wydajnego, wielofunkcyjnego agenta AI, który działa tam, gdzie programista pracuje na co dzień – w terminalu lub ulubionym IDE.

    Dla kogo są te ulepszenia?

    Aktualizacja OpenCode v1.3.12 to przede wszystkim dobra wiadomość dla programistów i zespołów DevOps korzystających z:

    • Zaawansowanych modeli AI – odczują korzyści w postaci stabilniejszych integracji i nowych funkcji, takich jak OAuth.
    • Pracy w terminalu – interfejs stanie się bardziej responsywny i przewidywalny.
    • Różnorodnych dostawców modeli – platforma stale poszerza zakres wsparcia.

    To wydanie pokazuje dbałość o niezawodność i wydajność fundamentów platformy, które są niezbędne dla vibe codingu – płynnego, skupionego stanu przepływu podczas programowania z asystentem AI.


    Źródła

  • Codex 0.118.0: Lepsze Sieciowanie w Windows, Autoryzacja Kodem Urządzenia i Ulepszenia CLI

    Codex 0.118.0: Lepsze Sieciowanie w Windows, Autoryzacja Kodem Urządzenia i Ulepszenia CLI

    Wydanie Codex 0.118.0 z kwietnia 2026 roku przyniosło serię kluczowych ulepszeń skupionych na stabilności, bezpieczeństwie i elastyczności dla programistów oraz inżynierów AI. OpenAI skoncentrowało się na trudnych aspektach pracy z sandboxami sieciowymi, wprowadziło przydatne flow autoryzacyjne oraz znacznie poprawiło narzędzia wiersza poleceń, co wspiera efektywniejsze kodowanie wspomagane przez AI (AI-driven coding) oraz agentic workflows.

    Sieciowanie w Windows na poziomie systemu operacyjnego

    Największą zmianą w tej wersji jest gruntowna przebudowa obsługi sieci dla sandboxów w systemie Windows. Do tej pory proxy konfigurowano głównie za pomocą zmiennych środowiskowych, co bywało niewystarczające w skomplikowanych środowiskach korporacyjnych. Wersja 0.118.0 wprowadza proxy-only networking z wykorzystaniem reguł egress na poziomie samego systemu operacyjnego.

    Oznacza to, że sandbox Codex może teraz ściśle egzekwować polityki dostępu do sieci. Administratorzy i użytkownicy mają do dyspozycji precyzyjne mechanizmy kontroli: mogą ograniczyć dostęp wyłącznie do menedżerów pakietów, takich jak npm czy PyPI, zezwolić na pełny dostęp do internetu dla testów, otworzyć jedynie konkretne domeny lub całkowicie zablokować ruch sieciowy. Dodano też pełne wsparcie dla protokołów proxy, w tym SOCKS5, oraz dedykowanych zmiennych WS_PROXY/WSS_PROXY dla ruchu WebSocket, co wprowadzono już we wcześniejszej wersji 0.104.0. To rozwiązanie długo oczekiwanych problemów z łącznością w środowiskach korporacyjnych.

    Nowa autoryzacja kodem urządzenia dla ChatGPT oraz dynamiczne tokeny

    Kolejnym ważnym ulepszeniem jest dodanie device code sign-in flow dla ChatGPT w ramach serwera aplikacji Codex. Ten mechanizm autoryzacji pozwala użytkownikowi zalogować się bezpiecznie na urządzeniu z ograniczonymi możliwościami wprowadzania danych (np. w sandboxie), używając kodu z innego urządzenia. Zwiększa to bezpieczeństwo i wygodę, szczególnie w zdalnych i zarządzanych konfiguracjach.

    Dla twórców integracji z własnymi modelami (custom model providers) wprowadzono dynamiczne odświeżanie tokenów bearer. To automatyczne, bezproblemowe odświeżanie tokenów uwierzytelniających zapobiega przerwom w działaniu usług spowodowanym wygasaniem sesji, zapewniając płynność w długotrwałych zadaniach AI.

    Elastyczność CLI i wzrost stabilności sandboxów

    Interfejs wiersza poleceń (CLI) Codex zyskał nowe możliwości. Polecenie codex exec obsługuje teraz workflow prompt-plus-stdin, który pozwala na bardziej elastyczne łączenie promptów z danymi ze standardowego wejścia. Ułatwia to skryptowanie i automatyzację zadań. CLI lepiej zachowuje teraz ustawienia przypisane do profilów, a w systemie pojawiła się eksperymentalna podkomenda exec-server.

    Jeśli chodzi o stabilność, wersja 0.118.0 przynosi istotne poprawki dla sandboxów na Linuxie i Windowsie. Naprawiono m.in. obsługę podzielonych systemów plików, błędy związane z operacjami apply_patch na systemach tylko do odczytu oraz problemy z zaporą sieciową w Windows. Na macOS rozwiązano błąd typu panic w kliencie HTTP wewnątrz sandboxa. Wszystko to sprawia, że środowisko izolowane działa znacznie bardziej niezawodnie.

    Przywrócenie kluczowych przepływów pracy w TUI i ulepszenia MCP

    Interfejs tekstowy (TUI) odzyskał kilka utraconych funkcji, stając się znów w pełni funkcjonalnym narzędziem. Ogólnie TUI działa teraz płynniej i szybciej. Usunięto zbędne odpytywanie o autoryzacją (polling) dla wyłączonych serwerów, a MCP (Model Control Plane) lepiej obsługuje znormalizowane narzędzia i zachowuje kolejność wyników wyszukiwania, zamiast sortować je alfabetycznie.

    Środowisko zdalne i app-server również zyskał na aktualizacji, otrzymując m.in. transport egress dla WebSocketów, przekazywanie katalogu roboczego (--cd) oraz nowe API systemu plików zintegrowane z sandboxem. Te zmiany spajają ekosystem Codex, obejmujący już CLI, aplikację desktopową, IDE i chmurę, działający w oparciu o modele GPT-5.x-Codex.

    Co oznaczają te zmiany dla deweloperów i inżynierów AI?

    Wydanie Codex 0.118.0 to przede wszystkim aktualizacja skupiona na pracy inżynieryjnej „pod maską”. Nie ma tu spektakularnych, widocznych na pierwszy rzut oka funkcji, ale wprowadzono fundamentalne ulepszenia, które usuwają chroniczne przeszkody. Lepsza kontrola sieci w sandboxach otwiera drzwi do bezpieczniejszego stosowania Codex w firmach z restrykcyjnymi politykami IT. Wygodniejsza autoryzacja i stabilniejsze CLI poprawiają codzienne doświadczenie dewelopera.

    Poprawki stabilizacyjne dla Linuxa, Windowsa i macOS oznaczają mniej frustracji podczas pracy z agentami AI, które często intensywnie korzystają z izolowanych środowisk. W połączeniu z szerszym kontekstem – jak wsparcie ogromnych okien kontekstowych (1M) przez GPT-5.4 – Codex 0.118.0 solidnie wzmacnia fundamenty pod zaawansowane zdolności agentowe (agentic workflows) w web devie i DevOps, czyniąc je bardziej przewidywalnymi i niezawodnymi. To krok w stronę dojrzałości platformy, dzięki której inżynierowie mogą skupić się na tworzeniu, a nie na walce z narzędziami.


    Źródła