Tag: oprogramowanie open source

  • OpenCode v1.3.14 Wzmacnia Integrację z Gitem i Rozszerza Listę Dostawców AI

    OpenCode v1.3.14 Wzmacnia Integrację z Gitem i Rozszerza Listę Dostawców AI

    OpenCode, otwartoźródłowy agent AI dla programistów, został zaktualizowany do wersji 1.3.14. Wydanie to skupia się na poprawie stabilności pracy z kodem oraz systemem kontroli wersji. Zmiany obejmują głównie mechanizmy zarządzania historią zmian oraz rozszerzenie listy dostępnych modeli językowych.

    Usprawnienia w pracy z kodem i historią

    Zmiany w wersji 1.3.14 poprawiają precyzję narzędzi do przeglądania różnic w kodzie (diff). Użytkownicy mogą teraz dokładniej analizować modyfikacje w niezapisanych plikach oraz porównywać stan kodu między różnymi gałęziami (branchami). Jest to pomocne przy weryfikacji zmian przed ich zatwierdzeniem w systemie Git.

    Poprawiono również zarządzanie historią sesji. Mechanizm przywracania stanu projektu działa teraz stabilniej, co ułatwia powrót do wcześniejszych etapów rozmowy z asystentem przy zachowaniu właściwego kontekstu kodu.

    Nowi dostawcy AI i zarządzanie systemowe

    Wersja 1.3.14 dodaje obsługę nowych platform z modelami AI. Dzięki integracji z AI SDK oraz Models.dev, OpenCode współpracuje z ponad 75 dostawcami modeli. Daje to użytkownikom większą swobodę w wyborze silnika napędzającego asystenta.

    Dla administratorów systemów macOS wprowadzono lepsze wsparcie dla narzędzi MDM (Mobile Device Management). Umożliwia to centralną konfigurację OpenCode na wielu komputerach jednocześnie, co ułatwia wdrożenie programu w dużych organizacjach i dbanie o zgodność z wewnętrznymi procedurami.

    Zmiany w interfejsie użytkownika

    Aktualizacja wprowadza kilka poprawek w obsłudze aplikacji. W wersji desktopowej usprawniono zarządzanie fokusem – kursor wraca do pola wpisywania poleceń automatycznie po zamknięciu okien dialogowych.

    Wprowadzono także:

    • Nowe skróty klawiaturowe do obsługi panelu zadań.
      Poprawioną nawigację wewnątrz "question dock" bez użycia myszy.
    • Uproszczony wygląd interfejsu w trybie terminalowym (shell).

    Kierunki rozwoju projektu

    Wydanie 1.3.14 jest częścią szerszego procesu rozwoju OpenCode. W kolejnych iteracjach twórcy dodali między innymi eksperymentalne API, eksport danych telemetrycznych OTLP oraz wsparcie dla serwerów MCP z adresami URI dla autoryzacji OAuth. Pojawił się również dedykowany prompt systemowy dla modeli Kimi.

    OpenCode rozwija się jako narzędzie łączące funkcje programistyczne, takie jak obsługa Git czy LSP, z dostępem do wielu zewnętrznych usług AI. Wersja 1.3.14 przygotowuje grunt pod te bardziej zaawansowane funkcje, stawiając na stabilność sesji i podstawową integrację z ekosystemem deweloperskim.


    Źródła

  • Cursor 3 definiuje nową erę rozwoju: od IDE do fabryki oprogramowania sterowanej agentami

    Cursor 3 definiuje nową erę rozwoju: od IDE do fabryki oprogramowania sterowanej agentami

    Środowisko programistyczne Cursor przechodzi właśnie głęboką transformację. Wersja 3 to nie kolejna aktualizacja, ale fundamentalna zmiana paradygmatu – przejście od klasycznego IDE do zunifikowanej przestrzeni roboczej zaprojektowanej od podstaw do pracy z „flotą” agentów AI. To odpowiedź na rodzącą się trzecią erę rozwoju oprogramowania, w której autonomiczne agenty piszą niemal cały kod, a rolą programisty staje się zarządzanie procesem i review.

    Okno agentów: centralne stanowisko dowodzenia

    Sercem Cursor 3 jest nowe Okno Agentów (Agents Window), dostępne przez Cmd+Shift+P. To dedykowany panel boczny, który konsoliduje wszystkie agenty – lokalne, chmurowe, zdalne przez SSH czy te działające w worktrees – w jednym, przejrzystym interfejsie. Kluczową innowacją jest możliwość równoległego uruchamiania wielu agentów. Można np. uruchomić jednego agenta do eksploracji nowej architektury, drugiego do implementacji backendu, a trzeciego do pisania testów – wszystko jednocześnie, nawet w różnych repozytoriach.

    Interfejs jest z natury wielorepozytoryjny, co ułatwia współpracę człowieka i agentów w rozproszonych projektach. Co ważne, Cursor pozwala na płynne „przekazywanie” sesji agenta między środowiskami. Długotrwałe zadanie można przenieść z lokalnego komputera do chmury, aby działało, gdy laptop jest zamknięty. Gdy zaś potrzebne są szybkie iteracje i testy na własnej maszynie, sesję chmurową można pobrać lokalnie, korzystając z wydajnego modelu Composer 2.

    Tryb projektowania i kafelki: precyzja i wielozadaniowość

    Dwa inne flagowe elementy to Tryb Projektowania (Design Mode) i Karty Agentów (Agent Tabs). Tryb Projektowania, aktywowany skrótem Cmd+Shift+D, pozwala na bezpośrednią interakcję z UI w przeglądarce. Można zaznaczać obszary, dodawać elementy do chatu i dawać agentom precyzyjne wskazówki wizualne, co znacząco przyspiesza iteracje nad frontendem.

    Karty Agentów w edytorze umożliwiają natomiast przeglądanie wielu konwersacji jednocześnie – obok siebie lub w siatce. Uwalnia to programistę od uciążliwego przełączania się między zakładkami i pozwala śledzić postępy w różnych wątkach pracy. W najnowszej aktualizacji 3 wprowadzono też układ kafelkowy (tiled layout) w samym Oknie Agentów, co dodatkowo ułatwia multitasking i porównywanie wyników pracy różnych agentów.

    Samodzielne uczenie się i bezpieczeństwo w centrum

    Samodzielne uczenie się i bezpieczeństwo w centrum

    Cursor 3 to nie tylko interfejs. W parze z nim idą potężne funkcje automatyzacji. Bugbot, narzędzie do code review, zyskało zdolność do samodzielnego uczenia się (Learned Rules). Analizuje reakcje i komentarze recenzentów w pull requestach, tworząc na tej podstawie reguły, które stopniowo usprawniają przyszłe przeglądy. Te, które się sprawdzają, są automatycznie promowane, a nieskuteczne – wyłączane.

    Dla zespołów priorytetyzujących bezpieczeństwo i kontrolę, Cursor wprowadza samohostowane agenty chmurowe. Działają one wewnątrz własnej infrastruktury użytkownika, zapewniając, że codebase, dane wyjściowe buildów i wrażliwe informacje nigdy nie opuszczają sieci wewnętrznej, podczas gdy agent wykonuje polecenia lokalnie.

    Statystyki wewnętrzne: wizja przyszłości w działaniu

    Statystyki wewnętrzne: wizja przyszłości w działaniu

    Najbardziej wymowna jest wewnętrzna statystyka firmy Cursor. Według niej 35% wewnętrznych pull requestów jest już tworzonych przez autonomiczne agenty chmurowe działające na maszynach wirtualnych. Co więcej, agenty piszą niemal 100% kodu w tych procesach, a deweloperzy skupiają się na dekompozycji problemów, recenzji i udzielaniu feedbacku.

    W marcu 2025 roku użytkowników funkcji autouzupełniania (Tab) było 2,5 raza więcej niż użytkowników agentów. Dziś proporcje się odwróciły – użytkowników agentów jest 2 razy więcej. To pokazuje gwałtowną zmianę w sposobie pracy. Prognozy twórców są śmiałe: większość pracy programistycznej będzie wykonywana przez takie agenty w ciągu najbliższego roku.

    Podsumowanie: od pisania kodu do budowy fabryki

    Cursor 3 nie jest już narzędziem służącym przede wszystkim do pisania kodu. Jak mówią sami twórcy, stał się środowiskiem „pomagającym deweloperom w budowie fabryki, która tworzy ich oprogramowanie”. To przejście od modelu „pokaż i monitoruj” jednego agenta do zarządzania linią produkcyjną, gdzie floty agentów pracują asynchronicznie, a programista włącza się w obieg w odpowiednich momentach – do recenzji, feedbacku i dekompozycji skomplikowanych problemów.

    Dzięki integracji agentów z różnych kanałów (Slack, GitHub, Linear, web, mobile) w jeden spójny interfejs, Cursor 3 redukuje konieczność przełączania kontekstu i oferuje prawdziwie zunifikowane stanowisko pracy. To krok w stronę przyszłości, w której środowisko programistyczne nie tyle asystuje w kodowaniu, co zarządza autonomicznymi procesami wytwórczymi, stając się centrum dowodzenia dla nowej generacji inżynierii oprogramowania.


    Źródła

  • Zed 0.230.1 Daje Kontrolę Nad Zadaniami i Interfejsem

    Zed 0.230.1 Daje Kontrolę Nad Zadaniami i Interfejsem

    Nowa aktualizacja wydajnego edytora kodu Zed, oznaczona numerem 0.230.1, przynosi istotne udoskonalenia dla deweloperów, którzy cenią sobie precyzyjną kontrolę nad workflow. W centrum uwagi znalazły się dwa kluczowe obszary: konfiguracja zadań systemowych oraz personalizacja interfejsu użytkownika. Te zmiany, choć mają charakter szlifów technicznych, znacząco wpływają na codzienną wygodę programowania.

    Wersja 0.230.1 wprowadza bardziej przemyślaną logikę wykonywania zdefiniowanych zadań oraz daje użytkownikom nowe możliwości w układaniu przestrzeni roboczej, szczególnie w kontekście paneli Terminala i Agenta AI.

    Konfiguracja zadań: precyzyjne sterowanie zapisem

    Jedną z najbardziej wyczekiwanych poprawek w tym wydaniu jest udoskonalenie zachowania zadań wobec niezapisanych zmian w edytorze. W poprzedniej wersji (0.230.1) Zed przestał domyślnie zapisywać edytowane bufory przed uruchomieniem zadania. Chociaż dla wielu jest to preferowane zachowanie, niektórzy deweloperzy potrzebowali bardziej elastycznej kontroli.

    Aktualizacja 0.230.1 rozwiązuje ten problem, wprowadzając nowe pole "save" w plikach konfiguracyjnych tasks.json. Dzięki temu użytkownik może dla każdego zadania z osobna określić, czy Zed ma automatycznie zapisać wszystkie zmiany przed jego wykonaniem. To odwrócenie domyślnego zachowania z wersji 0.230.1 odbywa się teraz w sposób świadomy i konfigurowalny.

    Zadania w Zed można definiować na dwa sposoby. Plik globalny ~/.config/zed/tasks.json przechowuje komendy dostępne we wszystkich projektach. Z kolei plik lokalny .zed/tasks.json w katalogu głównym projektu pozwala na zdefiniowanie specyficznych dla niego skryptów, np. do budowania, testowania czy uruchamiania serwera deweloperskiego. Dostęp do edycji tych plików można uzyskać przez polecenia zed: open tasks (globalne) i zed: open project tasks (lokalne).

    Co ważne, zadania wspierają zmienne środowiskowe, takie jak $ZED_WORKTREE_ROOT (ścieżka do katalogu projektu), co pozwala tworzyć przenośne skrypty. Przykładowe zadanie do uruchomienia narzędzia lazygit mogłoby wyglądać następująco: {"label": "Otwórz lazygit", "command": "lazygit -p $ZED_WORKTREE_ROOT"}. Dzięki temu deweloperzy zajmujący się web developmentem czy DevOps mogą tworzyć powtarzalne, projektowe zestawy poleceń, które przyspieszają codzienną pracę.

    Elastyczny interfejs: panele na Twoich zasadach

    Drugi filar aktualizacji to dalsze usprawnienia personalizacji interfejsu użytkownika. Wersja 0.230.1 rozszerza możliwości wprowadzone w 0.230.1, dodając pełną kontrolę nad szerokością paneli Terminala i Agenta AI.

    Od teraz użytkownik może przełączać te panele między trybem stałej i elastycznej szerokości. Tryb elastyczny, znany już z centralnych paneli edycyjnych, pozwala panelowi na dynamiczne dopasowanie rozmiaru do dostępnej przestrzeni, co jest niezwykle użyteczne podczas pracy na mniejszych ekranach lub w złożonych układach okien.

    Ustawienie to można zmienić na dwa sposoby: bezpośrednio w oknie ustawień Zed lub szybciej – przez menu kontekstowe, wywoływane prawym przyciskiem myszy na przycisku danego panelu w pasku stanu. To małe, ale niezwykle praktyczne udogodnienie, które oddaje użytkownikowi pełnię kontroli nad organizacją przestrzeni roboczej, pozwalając dopasować ją do aktualnych potrzeb – czy to podczas pisania kodu z pomocą AI, czy zarządzania procesami w terminalu.

    Znaczenie w szerszym kontekście rozwoju Zed

    Wydanie 0.230.1 jest częścią cotygodniowego cyklu stabilnych aktualizacji Zed, który konsekwentnie wprowadza ulepszenia mające na celu usprawnienie pracy programistów. W ostatnim czasie zespół skupiał się na integracji funkcji AI, współpracy w czasie rzeczywistym, wsparciu dla Dev Containers oraz – jak widać – na dopracowywaniu podstawowych narzędzi, takich jak system zadań.

    Dopracowanie konfiguracji zadań wzmacnia pozycję Zed jako edytora, który nie tylko świetnie radzi sobie z edycją tekstu, ale także aspiruje do bycia centrum dowodzenia dla całego procesu rozwoju oprogramowania. Możliwość precyzyjnego zarządzania skryptami budowania, testowania i wdrażania bez opuszczania edytora to ważny krok w tym kierunku.

    Warto pamiętać, że system nie jest pozbawiony pewnych ograniczeń. Jak wskazują niektóre źródła, zadania mogą mieć problem z precyzyjnym dostępem do zmiennych stanu edytora, takich jak $ZED_FILE, co jest znanym błędem. Mimo to kierunek rozwoju jest wyraźny: Zed stara się scalać różne aspekty pracy dewelopera w spójnym, szybkim i konfigurowalnym środowisku. Aktualizacja 0.230.1, choć przyrostowa, solidnie przyczynia się do realizacji tego celu.


    Źródła

  • Kimi Code CLI 1.30.0: Lepsza Obsługa Sesji, Bezpieczeństwo i Narzędzia Pracy

    Kimi Code CLI 1.30.0: Lepsza Obsługa Sesji, Bezpieczeństwo i Narzędzia Pracy

    Wydanie Kimi Code CLI 1.30.0 to kolejny solidny krok w rozwoju tego narzędzia dla programistów. Agent CLI od MoonshotAI otrzymał zestaw funkcjonalności skupiających się na płynniejszym zarządzaniu sesjami, wzmocnieniu bezpieczeństwa oraz wygodniejszych narzędziach wspierających codzienną pracę z kodem. To aktualizacja, która w dużej mierze dotyka fundamentalnych aspektów użytkowania – stabilności, ochrony danych i kontroli nad przebiegiem pracy.

    Wygodniejsze zarządzanie sesjami i nowe komendy

    Jednym z kluczowych obszarów poprawy jest obsługa sesji. Wprowadzone zostały flagi --session oraz --resume (z krótkim aliasem -r), które pozwalają łatwo wrócić do poprzedniej sesji. Bez argumentu otwierają one interaktywny selektor sesji w terminalu, a z podanym ID sesji – wznawiają konkretną konwersację. CLI wyświetla nawet przypomnienie (kimi -r <session-id>) przy zakończeniu sesji, aby użytkownik zawsze wiedział, jak może ją kontynuować.

    Co ciekawe, dodano też komendy /undo oraz /fork do tworzenia forków sesji. /undo pozwala wybrać poprzednią turę i utworzyć nową sesję z wybraną wiadomością przygotowaną do ponownej edycji. /fork duplikuje całą historię konwersacji do nowej sesji. Warto podkreślić, że oryginalna sesja zawsze zostaje zachowana – to bezpieczny sposób na eksperymentowanie bez ryzyka utraty kontekstu.

    Dodano też ujednolicony tryb --plan oraz opcję konfiguracyjną default_plan_mode. Rozpoczęcie nowej sesji z flagą --plan lub poprzez ustawienie default_plan_mode = true w ~/.kimi/config.toml pozwala zacząć pracę w trybie planowania. Sesje wznowione zachowują swój dotychczasowy stan tego trybu.

    Zaawansowane filtry bezpieczeństwa dla plików

    Bezpieczeństwo otrzymało znaczący impuls. Narzędzia Grep oraz Read zostały wzmocnione ochroną plików wrażliwych. Automatycznie filtrują lub blokują one dostęp do takich plików jak .env, prywatne klucze SSH (id_rsa, id_ed25519, id_ecdsa) oraz pliki z danymi uwierzytelniającymi do chmury (.aws/credentials, .gcp/credentials). Co ważne, pliki typu .env.example, .env.sample czy .env.template są wyłączone z tej ochrony – rozróżnienie między rzeczywistymi danymi a przykładami jest kluczowe.

    Narzędzie Grep zyskało również nowy parametr include_ignored. Kiedy jest on ustawiony na true, włącza flagę ripgrep --no-ignore, pozwalając na przeszukiwanie plików wykluczonych przez .gitignore, takich jak artefakty budowania czy node_modules. Pliki wrażliwe pozostają jednak filtrowane przez dodatkową warstwę ochrony. Domyślnie wartość ta wynosi false, co zachowuje dotychczasowe zachowanie programu.

    Ulepszenia kompatybilności i stabilności

    Wydanie 1.30.0 naprawia też kilka problemów związanych z kompatybilnością i stabilnością. Rozwiązano błąd, przez który custom_headers nie były przekazywane do dostawców innych niż Kimi (OpenAI, Anthropic, Google GenAI, Vertex AI). Teraz są one poprawnie przesyłane dalej.

    Poprawiono wykrywanie skilli w katalogach marki (np. ~/.kimi/skills/). Wcześniej, jeśli istniejący katalog ogólny (~/.config/agents/skills/) był pusty, skille z katalogu marki mogły "zniknąć". Teraz mechanizm discovery niezależnie przeszukuje obie grupy katalogów i łączy wyniki. Dodano też opcję konfiguracyjną merge_all_available_skills. Gdy jest ona włączona, skille ze wszystkich istniejących katalogów marek (~/.kimi/skills/, ~/.claude/skills/, ~/.codex/skills/) are ładowane i scalane, zamiast używania tylko pierwszego znalezionego. Skille o tej samej nazwie mają priorytet według kolejności: kimi > claude > codex.

    Dopracowanie interfejsu i zachowania shella

    Shell otrzymał szereg subtelnych, ale ważnych poprawek. Udoskonalono automatyczne wyzwalanie autouzupełniania w tle (idle background completion) – wznowione sesje shella nie uruchamiają automatycznie tury na pierwszym planie z zaległymi powiadomieniami z tła przed wysłaniem wiadomości przez użytkownika. Nowe uzupełnienia w tle czekają też chwilę, gdy użytkownik aktywnie pisze, aby nie "ukraść" promptu ani nie zaburzyć wprowadzania znaków w systemach CJK IME.

    Poprawiono również UX komendy kimi export. Narzędzie pokazuje teraz podgląd poprzedniej sesji dla aktualnego katalogu roboczego i prosi o potwierdzenie, wyświetlając ID sesji, tytuł oraz czas ostatniej wiadomości użytkownika. Dodano flagę --yes, aby pominąć potwierdzenie. Naprawiono też parsowanie przy wywołaniach z jawnym ID sesji.

    Cel wydania i dalszy rozwój

    Wydanie Kimi Code CLI 1.30.0 jasno pokazuje kierunek rozwoju tego narzędzia: praktyczne, codzienne ulepszenia dla programistów zajmujących się web developmentem, DevOps czy "vibe codingiem". Skupienie na bezpieczeństwie, niezawodnym zarządzaniu sesjami oraz precyzji narzędzi czyni pracę z agentem CLI napędzanym przez AI bardziej produktywną i kontrolowaną.

    Kimi CLI jest dostępne przez PyPI (kimi-cli), a jego szybkie tempo wydawnicze świadczy o aktywnym rozwoju. Dla osób korzystających z terminala jako głównego środowiska pracy takie aktualizacje są często niedocenianym, ale kluczowym elementem sprawnego workflow.


    Źródła

  • OpenCode Zwiększa Wydajność i Stabilność – Caching Promptów i Naprawa Azure w Wersji 1.3.12

    OpenCode Zwiększa Wydajność i Stabilność – Caching Promptów i Naprawa Azure w Wersji 1.3.12

    Nowa wersja open-source'owego asystenta programistycznego OpenCode, oznaczona numerem v1.3.12, przynosi istotne ulepszenia dla osób korzystających z zaawansowanych modeli AI. To wydanie skupia się na poprawie wydajności i stabilności, wprowadzając mechanizmy cache'owania oraz naprawiając błędy.

    Ogólne usprawnienia cache'owania

    Wydanie OpenCode v1.3.12 wprowadza ulepszenia w zakresie cache’owania sesji. To optymalizacja, która może znacząco przyspieszyć pracę i obniżyć koszty.

    W praktyce oznacza to, że gdy OpenCode wielokrotnie używa podobnych lub identycznych fragmentów promptów w sesji, może teraz efektywniej zarządzać danymi, zamiast za każdym razem wysyłać je od nowa do API. Jest to szczególnie cenne podczas długich, iteracyjnych sesji programistycznych, w których agent często odwołuje się do tych samych fragmentów kodu, specyfikacji czy logiki.

    Stabilizacja i nowe funkcje

    Aktualizacja przynosi szereg poprawek i nowych funkcjonalności, w tym wsparcie dla OAuth OpenAI oraz usprawnienia w obsłudze poleceń Bash i proxy. To kluczowe poprawki dla zespołów wykorzystujących różne modele AI, które są popularnym wyborem w środowiskach korporacyjnych ze względu na zgodność (compliance) i integrację.

    Stabilizacja interfejsu terminalowego (TUI)

    Wydanie przynosi także ważne poprawki dla samego Terminal User Interface (TUI). Prace skupiają się na zapewnieniu płynnego i bardziej przewidywalnego działania interfejsu, co jest kluczowe dla zachowania "flow" programisty podczas pracy w terminalu. OpenCode stawia mocno na User Experience w TUI, oferując różne tryby pracy, które można szybko przełączać za pomocą poleceń takich jak /init czy /undo.

    Szerszy kontekst rozwoju OpenCode

    Wersja v1.3.12 wpisuje się w intensywny rozwój OpenCode jako otwartej alternatywy dla komercyjnych asystentów. Projekt wspiera już ponad 75 modeli językowych dzięki integracji z platformami takimi jak Models.dev, a także specyficzne narzędzia, jak GitHub Copilot.

    W ostatnich wydaniach dodano wsparcie dla nowych providerów, przywrócono tryby review oparte na Git, dodano pełne wsparcie dla proxy HTTP i zmodernizowano komponenty wewnętrzne, w tym zaktualizowano Effect library (wersja beta.37) w usługach konfiguracyjnych. Wszystko to służy jednemu celowi: stworzeniu wydajnego, wielofunkcyjnego agenta AI, który działa tam, gdzie programista pracuje na co dzień – w terminalu lub ulubionym IDE.

    Dla kogo są te ulepszenia?

    Aktualizacja OpenCode v1.3.12 to przede wszystkim dobra wiadomość dla programistów i zespołów DevOps korzystających z:

    • Zaawansowanych modeli AI – odczują korzyści w postaci stabilniejszych integracji i nowych funkcji, takich jak OAuth.
    • Pracy w terminalu – interfejs stanie się bardziej responsywny i przewidywalny.
    • Różnorodnych dostawców modeli – platforma stale poszerza zakres wsparcia.

    To wydanie pokazuje dbałość o niezawodność i wydajność fundamentów platformy, które są niezbędne dla vibe codingu – płynnego, skupionego stanu przepływu podczas programowania z asystentem AI.


    Źródła

  • Nowe Możliwości Współpracy w Zed: Udostępnianie Ekranu Na Wayland w Integracja Gita

    Nowe Możliwości Współpracy w Zed: Udostępnianie Ekranu Na Wayland w Integracja Gita

    Najnowsza stabilna wersja edytora Zed, oznaczona numerem 0.220.2, to odpowiedź na prośby społeczności, szczególnie programistów pracujących na Linuksie. Aktualizacja skupia się na usprawnieniu pracy zespołowej i dopracowaniu codziennych zadań deweloperskich. Dwa flagowe dodatki to ulepszenia w integracji z Gitem oraz poprawki dla środowiska Wayland.

    Ta wersja wychodzi naprzeciw potrzebom nowoczesnego programisty, łącząc wydajność lokalnego edytora z funkcjami ułatwiającymi vibe coding i zdalną współpracę. To nie tylko kilka nowych opcji, ale znaczący krok w stronę dojrzałości narzędzia, szczególnie na platformie Linux.

    Ulepszenia dla Wayland

    Dla użytkowników Linuksa, którzy przeszli na nowoczesny protokół wyświetlania Wayland, praca z Zedem bywała utrudniona. Wersja 0.220.2 wprowadza szereg poprawek mających na celu zwiększenie stabilności i komfortu pracy na tej platformie. Rozwiązano niektóre problemy specyficzne dla Wayland, takie jak błędy przy kopiowaniu tekstu do schowka. Należy jednak zaznaczyć, że pełne, natywne udostępnianie ekranu w sesji Wayland pozostaje wyzwaniem, a niektóre błędy (np. związane z uruchamianiem aplikacji) mogą jeszcze występować.

    Git na pierwszym planie: pogłębiona integracja

    Drugim filarem tej aktualizacji jest ściślejsza integracja z systemem kontroli wersji Git. Funkcje wprowadzone wcześniej (np. Git Panel w wersji 0.177) zostały rozbudowane. Wśród ulepszeń znajdują się bardziej uniwersalne narzędzia do wyboru plików (picker) oraz ulepszone widoki diff.

    Bezpośrednia wizualizacja statusu plików w repozytorium przyspiesza nawigację w projekcie i ułatwia orientację w kontekście zmian, co jest nieocenione w dużych, dynamicznie rozwijanych codebase'ach. To drobna, ale niezwykle praktyczna zmiana, która wpływa na codzienny flow programisty.

    Dopracowanie szczegółów dla wydajnej pracy

    Wersja 0.220.2 to także zestaw ulepszeń i poprawek, które razem składają się na znacznie płynniejszą pracę.

    • Wyszukiwanie i zamiana na nowym poziomie. Wprowadzono możliwość wieloliniowego wyszukiwania i zamiany zarówno w wyszukiwarce bufora (Buffer Search), jak i projektu (Project Search). To potężne narzędzie do refaktoryzacji i pracy z rozbudowanymi wzorcami tekstowymi.

    • Agent Panel staje się bardziej wszechstronny. Panel asystenta AI zyskał możliwość bezpośredniego wklejania plików i folderów, co ułatwia przekazywanie kontekstu modelom językowym. Dodano też wsparcie OAuth dla zdalnych serwerów MCP, zwiększając bezpieczeństwo integracji z zewnętrznymi narzędziami.

    • Powrót do korzeni z modelines. Dla miłośników tradycyjnych edytorów, takich jak Vim czy Emacs, dodano obsługę modelines. Są to specjalne komentarze w plikach (np. # vim: syntax=python), które pozwalają na automatyczne wykrywanie języka lub ustawianie konkretnych opcji edytora (np. włączenie trybu Vim) dla danego pliku.

    • Szereg poprawek stabilizacyjnych. Na długiej liście zmian znalazły się m.in.: poprawki renderowania tekstu i tytułów okien na Linuksie (X11), lepsza obsługa aktualizacji na Linuksie przy braku narzędzia rsync, poprawki działania schowka dla użytkowników pakietu Office na Windowsie oraz usprawnienia w interakcjach z modelami AI podczas sesji kolaboracyjnych.

    Podsumowanie: skupienie na pracy zespołowej i ekosystemie Linux

    Wydanie Zed 0.220.2 jasno pokazuje kierunek rozwoju tego edytora: pogłębiona integracja, współpraca w czasie rzeczywistym i wsparcie dla różnych ekosystemów deweloperskich. Rozwiązanie problemów związanych z protokołem Wayland to sygnał dla społeczności, że jej głos jest brany pod uwagę.

    Ulepszenie integracji z Gitem czy wprowadzenie wieloliniowego wyszukiwania to z kolei odpowiedź na codzienne potrzeby efektywnego kodowania. Te zmiany, choć mogą wydawać się ewolucyjne, w połączeniu z setkami poprawek błędów realnie przekładają się na komfort użytkowania Zeda. To solidna aktualizacja, która utwierdza pozycję Zeda jako poważnego narzędzia w warsztacie nowoczesnego programisty.


    Źródła

  • Claude Code 2.1.88: Bezproblemowy Terminal i Lepsza Kontrola Nad Uprawnieniami

    Claude Code 2.1.88: Bezproblemowy Terminal i Lepsza Kontrola Nad Uprawnieniami

    Najnowsza aktualizacja Claude Code, oznaczona numerem 2.1.88, przynosi istotne usprawnienia skupiające się na komforcie pracy w terminalu i niezawodności narzędzi. Wydanie wprowadza między innymi mechanizm eliminujący migotanie ekranu oraz nowy system hooków do zarządzania odmowami uprawnień, co znacząco wpływa na płynność i bezpieczeństwo codziennej pracy programistów.

    Kluczowe ulepszenia w renderowaniu terminala

    Jedną z najbardziej wyczekiwanych zmian jest wprowadzenie opcjonalnego renderowania w trybie alt-screen. Dzięki zmiennej środowiskowej CLAUDE_CODE_NO_FLICKER=1 użytkownicy mogą teraz aktywować wirtualizację historii przewijania (scrollback). To rozwiązanie problemu migotania, które było szczególnie uciążliwe podczas intensywnej pracy z długimi poleceniami lub przeglądania dużych logów. Optymalizacje sięgają poziomu milisekund, co przekłada się na mniejsze opóźnienia przy starcie i ogólnie płynniejszą interakcję z interfejsem.

    Wydanie naprawia również różne artefakty interfejsu użytkownika terminala oraz błędy renderowania, które występowały w poprzednich wersjach. To kolejny krok w stronę dojrzałości narzędzia, które coraz śmielej konkuruje z tradycyjnymi, natywnymi terminalami.

    Nowy mechanizm kontroli uprawnień: PermissionDenied hook

    Drugim filarem tej aktualizacji jest wzmocnienie systemu bezpieczeństwa poprzez dodanie nowego hooka PermissionDenied. Jest on wywoływany w specyficznym momencie: gdy klasyfikator trybu auto odmówi wykonania akcji z powodu braku uprawnień.

    Co to oznacza w praktyce? Deweloperzy mogą teraz zaimplementować własną logikę reagującą na taką odmowę. Hook może na przykład zwrócić obiekt {retry: true}, co spowoduje ponowienie próby przez model, ale już z odpowiednimi uprawnieniami. Daje to większą elastyczność i kontrolę nad workflow, szczególnie w zautomatyzowanych scenariuszach, gdzie pełna interwencja człowieka nie jest pożądana.

    Aktualizacja poszerza też ogólne wsparcie dla polityk uprawnień i integracji z PowerShell, co jest istotne dla użytkowników pracujących w środowisku Windows.

    Poprawki stabilności i wsparcie dla subagentów

    Wersja 2.1.88 to nie tylko nowe funkcje, ale też solidna porcja poprawek zwiększających stabilność. Zlikwidowano między innymi wycieki pamięci w długotrwałych sesjach, które mogły stopniowo obniżać wydajność. Naprawiono także błędy w obsłudze bardzo dużych plików, co było problematyczne przy pracy z rozbudowanymi bazami kodu czy logami.

    Jeśli chodzi o architekturę agentową, wydanie dodaje nazwanych subagentów do podpowiedzi typu @mention. Ułatwia to koordynację w bardziej złożonych, wieloagentowych procesach. Claude Code wykorzystuje architekturę Coordinator-Workers, w której Coordinator planuje ogólny workflow (badanie → synteza → implementacja → veryka), a wyspecjalizowani Workerzy wykonują konkretne zadania.

    Kontekst techniczny i wyciek kodu źródłowego

    Warto wspomnieć o szerszym kontekście technicznym Claude Code. Kod bazowy narzędzia, liczący ponad pół miliona linii produkcyjnego TypeScriptu, został przypadkowo ujawniony w rejestrze npm dzień po premierze wersji 2.1.88. Doszło do tego z powodu błędu pakowania – brakująca reguła w pliku .npmignore sprawiła, że nie wykluczono pliku źródłowego main.js.map.

    To incydentalne ujawnienie pozwoliło społeczności zajrzeć za kulisy i potwierdzić ogromną skalę projektu, który obejmuje około 40 modułów najwyższego poziomu i ponad 40 wbudowanych narzędzi. Ujawniło też istnienie ponad 108 modułów ukrytych za flagami funkcji (feature flags), co sugeruje bogatą listę przyszłych możliwości, nad którymi pracuje Anthropic.

    Podsumowanie

    Wydanie Claude Code 2.1.88 koncentruje się na jakości podstawowej interakcji z terminalem oraz na warstwie uprawnień dającej większe poczucie kontroli. Drobne, ale odczuwalne optymalizacje renderowania, połączone z potężnym mechanizmem hooków i zestawem poprawek stabilizujących, pokazują, że rozwój tego narzędzia wkracza w fazę szlifowania doświadczenia użytkownika (UX). Mimo incydentu z ujawnieniem kodu, aktualizacja stanowi istotny krok naprzód dla każdego, kto używa Claude Code jako codziennego wsparcia w programowaniu.


    Źródła

  • Kimi Code CLI 1.28.0: Przyspieszenie, Motywy I Ulepszone Wyszukiwanie

    Kimi Code CLI 1.28.0: Przyspieszenie, Motywy I Ulepszone Wyszukiwanie

    Wydanie wersji 1.28.0 narzędzia Kimi Code CLI, otwartoźródłowego terminalowego asystenta AI od Moonshot AI, przynosi solidny zastrzyk wydajności i użyteczności dla deweloperów. To nie są kosmetyczne poprawki, lecz konkretne udogodnienia, które bezpośrednio przekładają się na płynność pracy z dużymi repozytoriami i skomplikowanymi zadaniami. Główne obszary ulepszeń to optymalizacja obliczeń różnic, nowy system motywów, przeprojektowanie narzędzia Grep oraz wzmocnienie systemu uwierzytelniania.

    Wydajność priorytetem: optymalizacja diff i wątki w tle

    Najbardziej odczuwalną zmianą w codziennym użytkowaniu będą poprawki wydajnościowe. Gdy AI modyfikuje pliki, CLI musi obliczyć i wyświetlić różnice (diff). W poprzednich wersjach operacja build_diff_blocks dla dużych plików mogła blokować główną pętlę zdarzeń (event loop), powodując zawieszanie się interfejsu. W wersji 1.28.0 obliczenia te są oddelegowane do osobnego wątku za pomocą asyncio.to_thread. Dzięki temu interfejs pozostaje responsywny, a użytkownik może śledzić postęp prac.

    Co więcej, w przypadku bardzo dużych plików przekraczających 10 tysięcy linii, CLI całkowicie pomija kosztowną algorytmicznie kalkulację diff o złożoności O(n²). Zamiast tego wyświetla blok podsumowujący z informacją o liczbie linii. Niezmienione pliki są również natychmiast pomijane (short-circuit). Te zmiany, wraz z dodaniem pola is_summary do specyfikacji Wire 1.8, sprawiają, że praca z dużymi bazami kodu nie obniża komfortu użytkowania.

    Nowy system motywów i inteligentny Grep

    Wizualna strona CLI również zyskała na znaczeniu. Wprowadzono nowy system motywów z pełnym wsparciem dla trybu jasnego i ciemnego. Może wydawać się to drobiazgiem, ale dla programistów spędzających długie godziny w terminalu, interfejs przyjazny dla wzroku ma realne znaczenie.

    Prawdziwą perełką tego wydania jest jednak głęboka przebudowa narzędzia Grep. To kluczowe narzędzie do przeszukiwania kodu borykało się z dwiema głównymi bolączkami: potrafiło się zawiesić i nie reagowało na skrót Ctrl-C. W wersji 1.28.0 blokujące wywołanie ripgrepy.run() zastąpiono asynchroniczną obsługą podprocesów. Grep natychmiast reaguje teraz na przerwanie i posiada 20-sekundowy timeout, po którym zwraca częściowe wyniki.

    Dodano też szereg optymalizacji pod kątem zużycia tokenów przez model AI:

    • Domyślny head_limit ustawiono na 250 linii z paginacją przez offset.
    • Wyszukiwanie z flagą --hidden automatycznie pomija teraz katalogi systemów kontroli wersji (VCS).
    • Lista files_with_matches jest sortowana według czasu modyfikacji, co pozwala najpierw wyświetlić najistotniejsze pliki.
    • Ścieżki w wynikach są podawane jako relatywne.
    • Domyślnie włączone są numery linii (-n), co pozwala modelowi AI precyzyjnie odnosić się do konkretnych miejsc w kodzie.

    Stabilizacja uwierzytelniania i hooki

    Dla użytkowników logujących się przez OAuth (np. integracja z VS Code) wersja 1.28.0 naprawia uciążliwe problemy z sesjami. Błąd "incorrect API KEY", który mógł pojawiać się po okresie bezczynności lub przy uruchamianiu skilli, został zastąpiony czytelnym komunikatem "please /login". System ACP (Agent Communication Protocol) poprawnie inicjuje teraz procedurę ponownego logowania. Naprawiono też błąd uniemożliwiający generowanie tytułów sesji dla użytkowników OAuth.

    Wydanie wzmacnia również system hooków, pozwalający na automatyzację niestandardowych akcji w kluczowych momentach cyklu życia agenta. To potężne narzędzie dla zaawansowanych użytkowników, którzy chcą zintegrować CLI z własnymi workflowami i narzędziami DevOps.

    Kontekst i znaczenie dla deweloperów

    Kimi Code CLI nie istnieje w próżni. To terminalowy front-end dla modelu Kimi K2.5 – specjalistycznej wersji o architekturze MoE (Mixture of Experts), zaprojektowanej do zadań programistycznych. Model oferuje okno kontekstowe o rozmiarze 256k tokenów, co jest kluczowe przy refaktoryzacji całych repozytoriów, i osiąga wynik 76,8% w benchmarku SWE-bench, plasując się w czołówce otwartych modeli do kodowania. Optymalizacje w CLI bezpośrednio wspierają możliwości modelu, pozwalając mu wydajniej operować na dużych zbiorach danych.

    Użytkownicy zgłaszają nawet dwukrotnie szybsze odpowiedzi na złożone zapytania dotyczące dużych repozytoriów w porównaniu do metod przetwarzających pliki pojedynczo. Integracja z VS Code, wsparcie dla MCP (Model Context Protocol) przy podłączaniu zewnętrznych narzędzi oraz wieloplatformowość (macOS, Linux, Windows) czynią z niego konkurencyjną alternatywę dla innych agentów AI, takich jak Claude Code.

    Podsumowanie: dojrzałość i skupienie na użytkowniku

    Wydanie 1.28.0 Kimi Code CLI to krok w stronę technicznej dojrzałości. Nie wprowadza rewolucyjnych funkcji, lecz gruntownie optymalizuje istniejące, usuwając wąskie gardła i poprawiając komfort pracy. Skupienie się na wydajności operacji diff, responsywności narzędzi takich jak Grep oraz stabilności uwierzytelniania pokazuje, że zespół bierze pod uwagę feedback społeczności. Powstaje narzędzie, które jest nie tylko potężne dzięki modelowi AI, ale także przewidywalne w codziennym użytkowaniu. Dla deweloperów szukających wydajnego asystenta AI pracującego w terminalu, te zmiany są istotnym argumentem "za".


    Źródła

  • Qwen 3.6-Plus Alibaba Wyznacza Nowy Standard w AI do Kodowania

    Qwen 3.6-Plus Alibaba Wyznacza Nowy Standard w AI do Kodowania

    Chiński gigant technologiczny nie zwalnia tempa. Jego najnowszy flagowy model, Qwen 3.6-Plus, udowadnia, że w wyścigu sztucznej inteligencji do zadań programistycznych i agentowych wschodnie rozwiązania są gotowe rzucić wyzwanie absolutnej czołówce. Model nie tylko rywalizuje z kluczowym konkurentem, Claude 4.5 Opus od Anthropic, w ważnych benchmarkach, ale też wprowadza nowe, praktyczne możliwości dla deweloperów.

    Zwycięstwa w testach praktycznych

    Najnowsze dane są jednoznaczne. Qwen 3.6-Plus, wydany w czwartek 2 kwietnia 2026 roku przez Alibaba Cloud, osiąga imponujące wyniki w testach sprawdzających realne umiejętności inżynierskie. Szczególnie wymowny jest jego sukces w benchmarkach weryfikujących zdolność AI do pracy w terminalu – czytania logów, naprawy błędów czy wykonywania złożonych sekwencji poleceń.

    Pozycję modelu potwierdzają też jego wysokie osiągi w zadaniach z zakresu agentowego kodowania oraz rywalizacja z czołowymi modelami, takimi jak Claude 4.5 Opus. Co ważne, Qwen radzi sobie doskonale również w testach takich jak SWE-bench, które symulują naprawę prawdziwych błędów z repozytoriów open source na GitHubie, gdzie jest wymieniany jako bezpośredni rywal dla modeli rodziny Claude.

    Te wyniki pokazują wyraźny kierunek: Alibaba stawia na model, który sprawdza się nie tylko przy pojedynczych promptach, ale w długich, wieloetapowych zadaniach wymagających planowania i egzekucji. To właśnie sedno pracy agentów AI.

    Potężny kontekst i zintegrowane rozumowanie

    Oprócz czystej mocy obliczeniowej, Qwen 3.6-Plus wprowadza dwie kluczowe cechy dla programistów. Pierwszą jest okno kontekstowe o długości 1 miliona tokenów w wersji stabilnej. To ogromna przestrzeń, która pozwala modelowi przetwarzać bardzo obszerną dokumentację, rozległy kod źródłowy czy szczegółowe logi aplikacji. Dla porównania, standardem dla wielu modeli wciąż pozostaje 128k czy 256k tokenów.

    Drugą, być może nawet ważniejszą innowacją, jest głęboko zintegrowane rozumowanie (integrated reasoning). Model łączy w sobie proces analizy krok po kroku (chain-of-thought) z pamięcią i możliwością korzystania z narzędzi. W praktyce oznacza to, że agent oparty na Qwen może samodzielnie zaplanować i wykonać złożony workflow – na przykład analizując zrzut ekranu z błędem, szukając przyczyny w logach, a następnie proponując i testując poprawkę.

    Przyszłość dla Web Dev i agentów

    Alibaba wyraźnie pozycjonuje Qwen 3.6-Plus jako flagowy model do kodowania, ogólnych agentów i wykorzystania narzędzi (tool use). Jego siła w benchmarkach takich jak QwenWebBench – który testuje tworzenie aplikacji webowych, gier, wizualizacji SVG czy nawet animacji – wskazuje na ogromny potencjał w automatyzacji front-endu i tzw. vibe coding.

    Dostępność i cena także przemawiają na korzyść tego modelu. Jest on dostępny przez Alibaba Cloud Model Studio (Bailian), a ceny w Chinach zaczynają się od około 2 RMB za milion tokenów wejściowych. To, w połączeniu z kompatybilnością API z istniejącymi konfigurjami, sprawia, że wdrożenie go w obecnych pipeline'ach deweloperskich czy systemach DevOps może być stosunkowo proste.

    Podsumowanie

    Wyniki Qwen 3.6-Plus to nie tylko kolejny punkt w tabeli benchmarków. To sygnał, że rynek zaawansowanych modeli AI do kodowania i zadań agentowych staje się naprawdę konkurencyjny i globalny. Chińskie modele, oferując potężny kontekst, zaawansowane rozumowanie i sprawdzone wyniki w praktycznych zadaniach, stają się pełnoprawną alternatywą dla dotychczasowych liderów z USA. Dla deweloperów i firm oznacza to większy wybór, potencjalnie niższe koszty i przyspieszenie innowacji w automatyzacji wytwarzania oprogramowania.

  • Kimi Code CLI 1.27.0: Lepsze wyświetlanie diffów i bezpośrednia komunikacja z twórcami

    Kimi Code CLI 1.27.0: Lepsze wyświetlanie diffów i bezpośrednia komunikacja z twórcami

    Narzędzia AI dla deweloperów stale ewoluują, a najnowsza aktualizacja Kimi Code CLI przynosi konkretne udogodnienia, które upraszczają codzienną pracę. Wersja 1.27.0, wydana 28 marca 2026 roku, skupia się na dwóch kluczowych obszarach: znacznie czytelniejszym prezentowaniu zmian w kodzie oraz usprawnieniu kanału komunikacji między użytkownikami a twórcami. To nie tylko kosmetyczne poprawki, ale realne ulepszenia wpływające na ergonomię i wydajność.

    Najważniejszą nowością jest przeprojektowany system renderowania diffów. Kiedy Kimi Code CLI pokazuje zmiany w plikach – na przykład w podglądzie przed zatwierdzeniem lub jako wynik działania narzędzia – teraz robi to z pełnym podświetlaniem składni i numeracją linii. Same zmiany są wizualnie rozróżniane: dodane linie mają zielone tło, a usunięte – czerwone. Co więcej, system pokazuje nawet zmiany na poziomie pojedynczych słów w obrębie linii, co jest nieocenione przy analizie drobnych poprawek. Dodatkowo wprowadzono automatyczne ukrywanie narzędzia AskUserQuestion, gdy nie jest ono potrzebne, oraz udoskonalono mechanizm automatycznego uruchamiania autouzupełniania w tle, dzięki czemu działa ono szybciej.

    Nowy kanał feedbacku i usprawnienia wydajnościowe

    Drugą flagową funkcją jest wprowadzenie bezpośredniej komendy /feedback. Działa ona w prosty sposób: podczas sesji CLI użytkownik może wpisać /feedback, a następnie wysłać swoją opinię, zgłosić błąd lub pomysł. System próbuje przesłać zgłoszenie bezpośrednio, a w przypadku problemów z siecią automatycznie tworzy issue na GitHubie. To znacznie obniża barierę dla osób, które chcą przyczynić się do rozwoju projektu.

    Nie pominięto również kwestii wydajności. Wprowadzono inkrementalne przesyłanie strumieniowe (streaming) Markdownu, dzięki czemu odpowiedzi modelu AI pojawiają się płynniej. Ulepszono także szacowanie liczby tokenów po kompaktowaniu kontekstu, co pozwala lepiej kontrolować jego zużycie. Poprawiono również obsługę błędów w runnerach CI/eval, zwiększając stabilność narzędzia w zautomatyzowanych środowiskach.

    Kontekst rozwoju i mniejsze ulepszenia

    Kontekst rozwoju i mniejsze ulepszenia

    Warto spojrzeć na tę aktualizację w szerszym kontekście. Kimi Code CLI to aktywnie rozwijane narzędzie open source, wspierane przez społeczność programistów. Jest to paczka Pythona, którą instaluje się za pomocą menedżera uv (np. uv install kimi-cli). Obecnie wspiera systemy macOS i Linux.

    Poza głównymi funkcjami wersja 1.27.0 przynosi szereg mniejszych, ale istotnych poprawek. Usprawniono autoryzacją dla użytkowników OAuth. W przypadku terminali bez wsparcia truecolor poprawiono renderowanie paneli diffów. Dodano też nowy typ wiadomości PlanDisplay do protokołu wire, który pozwala na renderowanie planów działania bezpośrednio w interfejsie czatu.

    Co to oznacza dla programisty?

    Podsumowując, aktualizacja 1.27.0 Kimi Code CLI to solidny krok naprzód. Nie wprowadza rewolucyjnych zmian, ale znacząco poprawia istniejące funkcje. Czytelniejsze diffy oznaczają mniej czasu spędzonego na analizie zmian, a bezpośredni feedback pozwala na szybszą reakcję zespołu deweloperskiego na problemy. Optymalizacje wydajnościowe przekładają się po prostu na płynniejszą pracę z narzędziem.

    W erze, w której asystenci AI stają się integralną częścią workflowu deweloperskiego, takie udoskonalenia ergonomii i komunikacji są kluczowe. Świadczą one o dojrzałości projektu, którego twórcy słuchają użytkowników i konsekwentnie usuwają napotkane przez nich przeszkody. To właśnie takie iteracyjne ulepszenia często decydują o tym, czy dane narzędzie na stałe zagości w terminalu programisty.


    Źródła