Kategoria: Oprogramowanie

  • Adaptive w Windsurf: Inteligentny router modeli oszczędza twoje tokeny

    Adaptive w Windsurf: Inteligentny router modeli oszczędza twoje tokeny

    Windsurf wprowadził nową funkcję o nazwie Adaptive. Jest to inteligentny router modeli, który pomaga zarządzać miesięcznym limitem tokenów. Zmiana ta wpływa na sposób, w jaki środowisko korzysta z dostępnych modeli językowych, i jest już dostępna dla wszystkich użytkowników.

    Jak działa Adaptive w Windsurf

    Zasada działania Adaptive jest prosta. Po wybraniu tej opcji w menu, system automatycznie dobiera model AI (np. GPT, Claude lub Gemini), który najlepiej poradzi sobie z danym zadaniem. Może to być poprawianie błędów, pisanie dokumentacji czy zmiana struktury kodu.

    Najważniejszą cechą Adaptive jest stała stawka za token. Niezależnie od tego, który model zostanie wybrany przez system do wykonania zadania, koszt pozostaje taki sam. Pozwala to systemowi na używanie lżejszych modeli do prostych zapytań, co sprawia, że limit tokenów użytkownika wyczerpuje się wolniej.

    Przejrzystość kosztów i kontrola w menu modeli

    Przy okazji premiery Adaptive, twórcy Windsurf odświeżyli menu wyboru modeli. Użytkownicy zyskali większą kontrolę nad tym, ile zasobów zużywają. Po najechaniu myszką na konkretny model pojawiają się teraz szczegółowe stawki za tokeny wejściowe (input), wyjściowe (output) oraz odczyt z pamięci podręcznej (cache read).

    W interfejsie dodano również dwa nowe elementy:

    • Licznik czasu pamięci podręcznej (prompt cache timer): informuje, jak długo kontekst rozmowy jest przechowywany w pamięci.
    • Licznik tokenów przy odpowiedziach: każda wiadomość od AI pokazuje teraz dokładną liczbę zużytych jednostek.

    Dzięki temu programiści widzą koszt każdej operacji bezpośrednio w oknie czatu.

    Kontekst aktualizacji i poprawki techniczne

    Wprowadzenie Adaptive to kolejny etap zmian w zarządzaniu zasobami w Windsurf. Wcześniej w IDE pojawił się podgląd limitów (quota), a nowa funkcja ma pomagać w ich mądrzejszym wykorzystywaniu.

    W procesie wdrażania wyeliminowano też błędy techniczne. Jedna z ostatnich poprawek usunęła problem, przez który użytkownicy nie mogli zmienić modelu na inny po wysłaniu pierwszego zapytania w trybie Adaptive.

    Co to oznacza dla programistów

    Dla osób zajmujących się tworzeniem stron, rozwiązaniami AI czy operacjami DevOps, nowości te oznaczają mniej pracy przy pilnowaniu limitów. System sam dba o to, by nie marnować drogich zasobów na proste pytania.

    Warto dodać, że ceny za dodatkowe użycie (extra usage) są teraz rozliczane według stawek API. Zmiany objęły również użytkowników planu Max, którzy otrzymali zmodyfikowane limity, co pozwala im na dłuższą pracę bez przerw.

    Adaptive w Windsurf pokazuje kierunek, w którym rozwijają się asystenci kodowania. Zamiast używać najpotężniejszych modeli do każdego przecinka w kodzie, systemy zaczynają dopasowywać narzędzie do trudności problemu. Pozwala to programistom pracować płynniej, bez obaw o nagłe wyczerpanie dostępnych kredytów w połowie projektu.


    Źródła

  • Poprawki AI Cloudflare i Obsługa Klawiatury w Najnowszym OpenCode v1.3.17

    Poprawki AI Cloudflare i Obsługa Klawiatury w Najnowszym OpenCode v1.3.17

    Aktualizacja OpenCode do wersji v1.3.17 wprowadza zmiany w dwóch obszarach: integracji z usługami AI Cloudflare oraz stabilności interfejsu terminalowego (TUI) w systemie Windows. Poprawki te bezpośrednio wpływają na wygodę pracy z tym asystentem kodowania.

    Lepsza obsługa błędów dla Cloudflare AI

    Główną zmianą w tej wersji jest usprawnienie współpracy z Cloudflare Workers AI oraz Cloudflare AI Gateway. W poprzednich wydaniach brak zmiennych środowiskowych Cloudflare mógł powodować błędy, które nie informowały jasno o przyczynie problemu. Dzięki poprawce od użytkownika @mchenco, OpenCode v1.3.17 lepiej radzi sobie z takimi sytuacjami.

    Jeśli aplikacja nie wykryje danych konta, takich jak CF_API_TOKEN czy CF_ACCOUNT_ID, wyświetli instrukcje konfiguracji. Program wskazuje teraz, których zmiennych brakuje i jak je uzupełnić. Ułatwia to uruchomienie funkcji AI osobom, które dopiero zaczynają korzystać z infrastruktury Cloudflare.

    Zmiana ta jest istotna w kontekście wykorzystania modeli dostępnych na platformie Workers AI oraz narzędzi takich jak Sandbox SDK czy Responses API. Deweloperzy tworzący agenty AI lub korzystający z Browser Renderingu na infrastrukturze Cloudflare mogą teraz łatwiej połączyć te usługi z OpenCode.

    Przywrócenie obsługi klawiatury Kitty w terminalu

    W wersji v1.3.17 przywrócono domyślną obsługę klawiatury Kitty dla użytkowników systemu Windows. Wcześniej usunięcie jednego z obejść technicznych spowodowało problemy z wprowadzaniem danych w interfejsie terminalowym (TUI).

    Kitty to protokół terminalowy wykorzystywany do obsługi zaawansowanych funkcji tekstowych i graficznych. Błędy w jego obsłudze prowadziły do gubienia znaków lub opóźnień podczas pisania. Naprawa tego błędu sprawia, że interakcja z TUI jest stabilna. Jest to ważne dla osób, które wolą zarządzać sesjami, narzędziami bashowymi i wtyczkami bezpośrednio z wiersza poleceń, zamiast korzystać z aplikacji okienkowej.

    Zmiany w module Core

    Wersja v1.3.17 korzysta również z szerszych aktualizacji silnika OpenCode Core. Cloudflare AI Gateway automatycznie pomija teraz parametr max_tokens dla modeli OpenAI z serii o-series oraz GPT-5, co zapobiega odrzucaniu żądań przez API.

    Wprowadzono także dziedziczenie kontekstu autoryzacji przez obszary robocze (workspaces). Po zalogowaniu się do dostawcy AI w jednym oknie, autoryzacja jest aktywna także w innych sesjach w ramach tego samego obszaru roboczego. Dzięki temu użytkownik nie musi logować się wielokrotnie.

    Dodatkowo system automatycznie ponawia próby połączenia w przypadku wystąpienia błędów 5xx po stronie dostawcy. Dzieje się to nawet wtedy, gdy oficjalne biblioteki SDK nie wymuszają takiego zachowania, co zwiększa odporność narzędzia na chwilowe przerwy w działaniu usług zewnętrznych.

    Praktyczne znaczenie aktualizacji

    OpenCode v1.3.17 skupia się na eliminowaniu konkretnych problemów technicznych zgłaszanych przez użytkowników.

    1. Łatwiejsza konfiguracja: Jasne komunikaty o błędach pozwalają szybciej przygotować środowisko do pracy.
    2. Stabilność pracy: Naprawa obsługi klawiatury w terminalu pozwala na płynne pisanie kodu bez przerw technicznych.

    Udział użytkownika @mchenco w pracach nad tą wersją pokazuje, że społeczność ma realny wpływ na rozwój projektu. Nawet poprawki dotyczące komunikatów o błędach są istotne dla autorów OpenCode i trafiają do oficjalnych wydań.

    Stabilność i przewidywalność

    Wydanie v1.3.17 stawia na niezawodność. Dla programistów korzystających z AI Cloudflare poprawa obsługi błędów oznacza mniej czasu spędzonego na debugowaniu ustawień. Z kolei naprawa protokołu Kitty przywraca komfort pracy w terminalu.

    W połączeniu z funkcjami takimi jak inteligentne ponawianie prób połączenia i współdzielenie autoryzacji, OpenCode staje się bardziej przewidywalnym narzędziem. Zamiast dodawania wielu nowych opcji, twórcy skupili się na tym, aby obecne funkcje działały bez zakłóceń w codziennej pracy deweloperskiej.


    Źródła

  • Claude Opus 4.7 gotowy do premiery. będzie wspierać nowe narzędzie do projektowania stron

    Claude Opus 4.7 gotowy do premiery. będzie wspierać nowe narzędzie do projektowania stron

    Anthropic przygotowuje się do premiery swojego najnowszego modelu – Claude Opus 4.7. Nie jest to całkowita zmiana architektury, a raczej aktualizacja wersji 4.6. Model wprowadza zmiany przydatne głównie dla programistów i projektantów pracujących nad złożonymi zadaniami. Premiera zbiega się w czasie z informacjami o nowym narzędziu do automatycznego tworzenia stron internetowych, prezentacji i prototypów.

    Model będzie dostępny bezpośrednio w aplikacjach Claude oraz przez API, Amazon Bedrock i Google Cloud Vertex AI. Ceny nie ulegną zmianie: 5 dolarów za milion tokenów wejściowych i 25 dolarów za milion tokenów wyjściowych. W systemach deweloperskich model otrzyma identyfikator anthropic-claude-opus-4-7.

    Możliwości nowego modelu

    Claude Opus 4.7 został przygotowany głównie pod kątem inżynierii oprogramowania. Użytkownicy mają rzadziej nadzorować model przy trudnych zadaniach programistycznych. System lepiej radzi sobie z długimi procesami, dokładniej trzyma się instrukcji i samodzielnie sprawdza kod przed zwróceniem wyniku.

    Aktualizacja obejmuje też funkcje wizualne. Model przetwarza obrazy w wyższej rozdzielczości, co ma pomagać przy projektowaniu interfejsów użytkownika, slajdów i dokumentów technicznych. W testach przeprowadzonych przez partnerów Anthropic, wersja 4.7 uzyskiwała wyższe noty niż Claude 4.6.

    Bezpieczeństwo i praca z kodem

    Ważną częścią wdrożenia są kwestie bezpieczeństwa. Brytyjski instytut UK AI Safety Institute sprawdzał model pod nazwą "Mythos Preview" pod kątem potencjalnych zagrożeń w sieci. Z tego powodu możliwości Claude Opus 4.7 w zakresie cyberbezpieczeństwa mogą być ograniczone przez automatyczne filtry, które blokują zapytania o wysokim ryzyku.

    Dla osób zajmujących się tworzeniem stron i aplikacji istotne jest okno kontekstowe sięgające 1 000 000 tokenów. Pozwala to modelowi na analizę bardzo dużych projektów i długotrwałą pracę bez utraty wątku. Jest to przydatne dla agentów AI, którzy samodzielnie naprawiają błędy w kodzie lub prowadzą research.

    Wpływ na rynek

    Claude Opus 4.7 pokazuje, że modele AI przestają być tylko prostymi czatbotami. Zaczynają pełnić funkcję samodzielnych narzędzi zdolnych do prowadzenia spójnych działań przez wiele godzin.

    Lepsza analiza obrazu i wyczucie estetyki łączą się z planami Anthropic dotyczącymi generatora stron i prototypów sterowanego głosem lub tekstem. Claude Opus 4.7 ma być silnikiem tych rozwiązań, co stawia go w roli konkurenta dla serwisów takich jak Gamma czy narzędzi projektowych od Google.

    Programiści mogą spodziewać się mniejszej liczby błędów i szybszego tempa pracy nad projektami. Zamiast poprawiać każdą linię kodu, użytkownik będzie mógł skupić się na architekturze systemu, podczas gdy model zajmie się wieloetapową realizacją zadania. To zmiana w stronę modelu pracy, w którym inżynier zarządza procesami wykonywanymi przez sztuczną inteligencję.


    Źródła

  • OpenCode v1.3.15 naprawia krytyczny błąd z npm i node-gyp

    OpenCode v1.3.15 naprawia krytyczny błąd z npm i node-gyp

    Aktualizacja OpenCode do wersji 1.3.15 rozwiązuje błąd, który utrudniał pracę wielu programistom. Wydanie z 4 kwietnia 2026 roku usuwa problem uniemożliwiający poprawną instalację pakietów npm w konkretnych konfiguracjach. Poprawka ta poprawia współpracę narzędzia z menedżerem pakietów npm oraz stabilność samego rdzenia aplikacji.

    Błąd powodował przerywanie operacji npm install. Przyczyną były ścieżki do node-gyp (narzędzia kompilującego natywne moduły Node.js) zapisane w plikach binarnych OpenCode. Gdy komponent Arborist wewnątrz npm napotykał te dane, proces instalacji kończył się niepowodzeniem. Wersja 1.3.15 eliminuje te konflikty.

    Kontekst wydania i wcześniejsze zmiany

    Wydanie 1.3.15 pojawia się krótko po wersji, która przywróciła tryby przeglądu oparte na Git (git-backed review modes). Funkcja ta pozwala deweloperom analizować różnice (diffy) w niezacommitowanych zmianach oraz między poszczególnymi gałęziami projektu bezpośrednio w narzędziu.

    W ostatnich aktualizacjach dodano również Venice AI jako dostawcę modeli i poprawiono obsługę sesji przy korzystaniu z narzędzi zgodnych z API OpenAI. Wprowadzono także wsparcie dla natywnego PowerShella w systemie Windows, co pokazuje, że twórcy skupiają się na poprawie wygody pracy w różnych środowiskach.

    Stabilność pluginów i poprawki techniczne

    Poza zmianami w samym rdzeniu, wersja 1.3.15 naprawia błędy związane z systemem rozszerzeń. Rozwiązano problemy z instalacją pluginów przez aliasy npm oraz bezpośrednio z linków do repozytoriów Git. Deweloperzy poprawili też obsługę ścieżek cache w systemie Windows, które wcześniej bywały problematyczne.

    Jest to istotne ze względu na rosnącą liczbę dostępnych dodatków. W rejestrze npm znajdują się oficjalne pakiety, takie jak @opencode-ai/sdk (wersja 1.4.3) i @opencode-ai/plugin (wersja 1.4.6), a także projekty tworzone przez społeczność, np. zestaw poprawek oh-my-opencode.

    Rozwój ekosystemu i znane błędy

    Ostatnie serie aktualizacji wzbogaciły OpenCode o eksport danych telemetrycznych OTLP, pełną obsługę proxy HTTP oraz poprawki dla OpenRouter. Zredukowano także zużycie pamięci przez TypeScript LSP.

    Mimo postępów, w aplikacji występują jeszcze pewne problemy. Użytkownicy starszych procesorów Intel (np. architektura Ivy Bridge) zgłaszali trudności z uruchomieniem programu po aktualizacji. W takich przypadkach konieczne jest wyłączenie automatycznych aktualizacji lub powrót do starszej wersji. Innym odnotowanym błędem jest brak odświeżania wersji deweloperskich pluginów podczas pracy w trybie dev z wykorzystaniem Tauri.

    Znaczenie aktualizacji dla programistów

    Dla osób zajmujących się web developmentem w JavaScript i TypeScript, sprawne działanie npm jest niezbędne. Błędy przy npm install wstrzymują pracę nad projektem i zmuszają do szukania obejść. Wersja 1.3.15 usuwa tę barierę.

    Poprawa stabilności instalacji pluginów ułatwia dostosowanie środowiska do własnych potrzeb. Możliwość rozbudowy narzędzia o dodatki ma bezpośredni wpływ na szybkość i komfort pisania kodu.

    Aktualizacja do wersji 1.3.15 jest zalecana dla wszystkich użytkowników OpenCode. Oprócz naprawy błędów z npm, zawiera ona wszystkie wcześniejsze usprawnienia dotyczące integracji z Gitem, zarządzania sesjami i obsługi nowych modeli AI.


    Źródła

  • Claude Code 2.1.92 Wzmacnia Bezpieczeństwo i Przejrzystość Kosztów

    Claude Code 2.1.92 Wzmacnia Bezpieczeństwo i Przejrzystość Kosztów

    Aktualizacja Claude Code do wersji 2.1.92 wprowadza zmiany przydatne dla programistów indywidualnych oraz zespołów w dużych firmach. Deweloperzy skupili się na trzech obszarach: bezpieczeństwie, integracji z chmurą AWS oraz monitorowaniu wydatków na API. Wersja ta dodaje 10 nowych flag i 21 zmian w interfejsie wiersza poleceń (CLI).

    Nowe zasady bezpieczeństwa dla firm

    Najważniejszą zmianą techniczną jest wprowadzenie opcji forceRemoteSettingsRefresh. Działa ona w trybie fail-closed, co jest istotne w korporacjach dbających o spójność konfiguracji. Jeśli ta funkcja jest aktywna, Claude Code 2.1.92 nie uruchomi się, jeżeli nie uda mu się pobrać aktualnych ustawień z serwera.

    W praktyce oznacza to, że aplikacja kończy pracę, zamiast korzystać ze starych danych zapisanych w pamięci lokalnej. Zapobiega to pracy na nieaktualnych uprawnieniach lub błędnych parametrach bezpieczeństwa. Jest to rozwiązanie przygotowane pod wymogi działów compliance w dużych organizacjach.

    Konfiguracja AWS Bedrock w formie kreatora

    Zespoły korzystające z infrastruktury Amazon Web Services mogą teraz użyć interaktywnego kreatora dla usługi Bedrock. Narzędzie to upraszcza proces łączenia Claude Code z chmurą.

    Kreator prowadzi użytkownika przez logowanie do AWS, wybór konkretnego regionu oraz wskazanie modeli, z których chce korzystać. Wcześniej deweloperzy musieli samodzielnie ustawiać zmienne środowiskowe i edytować pliki tekstowe. Teraz proces ten odbywa się automatycznie wewnątrz terminala.

    Kontrola kosztów i optymalizacja prędkości

    Użytkownicy planu Pro mogą teraz dokładniej sprawdzać wydatki za pomocą komendy /cost. Pokazuje ona zużycie środków z rozbiciem na poszczególne modele i uwzględnia oszczędności wynikające z użycia pamięci podręcznej (cache hits). Pozwala to precyzyjnie określić, które zadania generują największe opłaty.

    Dodano również powiadomienia o tokenach. Jeśli sesja zostanie wznowiona po wygaśnięciu pamięci podręcznej promptów, system wyświetli informację o liczbie tokenów, które zostaną ponownie przetworzone. Ułatwia to zarządzanie budżetem projektu.

    Pod kątem wydajności poprawiono narzędzie write tool. Obliczanie różnic w kodzie (diff) jest o 60% szybsze w plikach, które zawierają tabulatory lub znaki specjalne, takie jak & i $. Program zużywa też mniej pamięci RAM, ponieważ pliki gramatyki potrzebne do podświetlania składni są ładowane tylko wtedy, gdy są faktycznie potrzebne.

    Zmiany w interfejsie i stabilność pracy

    Wersja 2.1.92 zawiera kilka poprawek w obsłudze programu. Polecenie /release-notes ma teraz listę wyboru, która pozwala przeglądać opisy poprzednich wersji bezpośrednio w konsoli. Naprawiono też błędy techniczne, w tym problemy z działaniem subagentów wewnątrz sesji tmux, błędy przy przewijaniu tekstu oraz usterki związane z funkcją Stop.

    Limit danych dla narzędzi MCP (Model Context Protocol) został zwiększony do 500 000 znaków. Dzięki temu w kontekście rozmowy można umieścić bardzo duże pliki, takie jak pełna dokumentacja API czy rozbudowane schematy baz danych, bez ryzyka ich ucięcia.

    Podsumowanie

    Claude Code 2.1.92 to aktualizacja nastawiona na praktyczne aspekty pracy programisty. Lepsza kontrola nad kosztami, łatwiejsza konfiguracja AWS oraz mechanizmy wymuszające aktualność ustawień sprawiają, że narzędzie staje się bardziej przewidywalne w profesjonalnych zastosowaniach. Poprawki szybkości działania diffów i stabilności interfejsu odczują wszyscy użytkownicy pracujący z kodem w terminalu.


    Źródła

  • OpenAI Codex 0.119.0-alpha.5: Przygotowania do głosowych Sesji i Lepszej Integracji MCP

    OpenAI Codex 0.119.0-alpha.5: Przygotowania do głosowych Sesji i Lepszej Integracji MCP

    Projekt Codex, zaawansowane narzędzie CLI OpenAI dla deweloperów, kontynuuje intensywny rozwój. Jego najnowsza wersja alpha, 0.119.0-alpha.5, wydana 11 kwietnia 2026 roku, stanowi ważny krok w przygotowaniach do głównego wydania z serii 0.119.0. Ta iteracja skupia się na przyrostowych, ale kluczowych ulepszeniach bazujących na języku Rust, które mają na celu stabilizację platformy i poprawę doświadczeń deweloperów (DX).

    Wersja ta następuje bezpośrednio po bogatym w funkcje wydaniu 0.118.0, które wprowadziło m.in. sieciowe proxy sandboxa na Windows, przepływ "device code" dla logowania przez ChatGPT oraz ulepszoną obsługę strumienia wejściowego (stdin) w CLI. Teraz zespół koncentruje się na dopracowaniu fundamentów pod nadchodzące, bardziej spektakularne funkcjonalności.

    Kluczowe kierunki rozwoju w serii 0.119.0

    Wydanie 0.119.0-alpha.5 jest częścią szerszej serii, której głównymi filarami mają być: sesje głosowe w czasie rzeczywistym (realtime voice) oparte na stosie WebRTC v2, rozszerzona obsługa aplikacji i własnych serwerów MCP, usprawnione przepływy pracy z serwerami zdalnymi i aplikacyjnymi, szybsze działanie interfejsu TUI (Terminal User Interface) przy wznawianiu i wyświetlaniu statusu oraz optymalizacje rdzenia budowania (build core).

    Choć sama wersja alpha.5 to etap przygotowawczy, już teraz widać prace nad komponentami tych systemów. Na przykład pull request #17093 dodaje kompleksowe testy end-to-end dla komunikacji WebRTC v2 w czasie rzeczywistym. To niezbędna infrastruktura testowa pod przyszłe, bardziej zaawansowane funkcje głosowe.

    Usprawnienia MCP i stabilność narzędzi

    Jednym z wyraźnych obszarów pracy w tej serii alfa jest ekosystem MCP i ogólnie narzędzia deweloperskie. Wprowadzane zmiany mają na celu sprawienie, by działał on szybciej i generował mniej zbędnych komunikatów. Poprawki takie jak #16674 i #16831 sprawiają, że serwery MCP z nazwami zawierającymi myślniki poprawnie listują dostępne narzędzia, a komenda /mcp pomija powolne odpytywanie (polling). Wyłączone serwery omijają też proces autoryzacji (#16952), co przyspiesza start.

    Dodano również wsparcie dla schematów anyOf i enum w JsonSchema (#16875), co pozwala na precyzyjsziejsze definiowanie struktur danych dla narzędzi. Kolejne poprawki (#16879, #16880) wprowadzają przestrzenie nazw (namespaces) i opisy dla narzędzi, zwiększając ich czytelność. Trwają też prace nad lepszym typowaniem narzędzi w trybie "code-mode" z wykorzystaniem outputSchema z MCP (#17210). Wszystko to zmierza do stworzenia bardziej zorganizowanego, przewidywalnego i wydajnego środowiska pracy z zewnętrznymi narzędziami.

    Poprawki błędów i refaktoryzacja

    Jak w każdej wersji alpha, dużo uwagi poświęca się stabilizacji. W 0.119.0-alpha.5 i kolejnych iteracjach naprawiono szereg błędów, takich jak problemy z wyszukiwaniem nazw wątków przy wznawianiu (#16646), kwestie z linkami symbolicznymi w sandboxie (#15981) czy błędy typu "panic" związane ze zdalnymi websocketami (#17288). Poprawiono też kolejność wyszukiwania narzędzi (#17263).

    Co istotne, trwa również wewnętrzna refaktoryzacja. W ramach PR-ów #15919, #16379 i #16508 następuje odchudzanie głównego crate'u codex-core poprzez wydzielenie logiki odpowiedzialnej za MCP, narzędzia i konfigurację do osobnych modułów. To klasyczna praktyka poprawy utrzymywalności kodu, która w długiej perspektywie przekłada się na większą stabilność i łatwiejszy rozwój całego projektu.

    Co dalej? Ścieżka do wydania 0.119.0

    Wersja 0.119.0-alpha.5 to zaledwie jeden z wielu kroków. Wkrótce po niej pojawiły się kolejne iteracje, w tym seria wersji (od alpha.17 do alpha.24) wydanych w dniach 7–8 kwietnia. Późniejsze wydania alfa, jak 0.119.0-alpha.20 (z ogromnym diffem 4332), wprowadzały już bardziej namacalne funkcje, takie jak wybór głosu w czasie rzeczywistym (#17176), przeniesienie domyślnego promptu realtime do rdzenia (#17165) czy streaming postępu agenta tła w wersji v2 z integracją TUI.

    Deweloperzy chcący przetestować te wczesne buildy mogą zainstalować CLI w wersji 0.119.0-alpha.5 poprzez npm install -g @openai/[email protected]. Specyficzne binarne wersje alpha, jak 0.119.0-alpha.5-win32-x64, są również publikowane w rejestrze npm.

    Podsumowanie

    • OpenAI Codex 0.119.0-alpha.5 może nie oferuje nowych, efektownych funkcji dla użytkownika końcowego, ale jej znaczenie leży w niezbędnym przygotowaniu gruntu pod nadchodzącą ewolucję. Ulepszenia MCP, refaktoryzacja kodu, naprawy błędów i pierwsze testy infrastruktury WebRTC v2 – wszystko to składa się na solidniejszy, szybszy i bardziej rozszerzalny fundament. To właśnie takie iteracje alpha sprawiają, że docelowe wydanie 0.119.0 z sesjami głosowymi i bogatszym wsparciem dla serwerów będzie mogło działać niezawodnie od pierwszego dnia. Dla społeczności skupionej na web developmencie, AI i DevOps oznacza to perspektywę jeszcze płynniejszego "vibe codingu" oraz lepszej integracji z własną infrastrukturą i narzędziami.

    Źródła

  • Cursor 3 definiuje nową erę rozwoju: od IDE do fabryki oprogramowania sterowanej agentami

    Cursor 3 definiuje nową erę rozwoju: od IDE do fabryki oprogramowania sterowanej agentami

    Środowisko programistyczne Cursor przechodzi właśnie głęboką transformację. Wersja 3 to nie kolejna aktualizacja, ale fundamentalna zmiana paradygmatu – przejście od klasycznego IDE do zunifikowanej przestrzeni roboczej zaprojektowanej od podstaw do pracy z „flotą” agentów AI. To odpowiedź na rodzącą się trzecią erę rozwoju oprogramowania, w której autonomiczne agenty piszą niemal cały kod, a rolą programisty staje się zarządzanie procesem i review.

    Okno agentów: centralne stanowisko dowodzenia

    Sercem Cursor 3 jest nowe Okno Agentów (Agents Window), dostępne przez Cmd+Shift+P. To dedykowany panel boczny, który konsoliduje wszystkie agenty – lokalne, chmurowe, zdalne przez SSH czy te działające w worktrees – w jednym, przejrzystym interfejsie. Kluczową innowacją jest możliwość równoległego uruchamiania wielu agentów. Można np. uruchomić jednego agenta do eksploracji nowej architektury, drugiego do implementacji backendu, a trzeciego do pisania testów – wszystko jednocześnie, nawet w różnych repozytoriach.

    Interfejs jest z natury wielorepozytoryjny, co ułatwia współpracę człowieka i agentów w rozproszonych projektach. Co ważne, Cursor pozwala na płynne „przekazywanie” sesji agenta między środowiskami. Długotrwałe zadanie można przenieść z lokalnego komputera do chmury, aby działało, gdy laptop jest zamknięty. Gdy zaś potrzebne są szybkie iteracje i testy na własnej maszynie, sesję chmurową można pobrać lokalnie, korzystając z wydajnego modelu Composer 2.

    Tryb projektowania i kafelki: precyzja i wielozadaniowość

    Dwa inne flagowe elementy to Tryb Projektowania (Design Mode) i Karty Agentów (Agent Tabs). Tryb Projektowania, aktywowany skrótem Cmd+Shift+D, pozwala na bezpośrednią interakcję z UI w przeglądarce. Można zaznaczać obszary, dodawać elementy do chatu i dawać agentom precyzyjne wskazówki wizualne, co znacząco przyspiesza iteracje nad frontendem.

    Karty Agentów w edytorze umożliwiają natomiast przeglądanie wielu konwersacji jednocześnie – obok siebie lub w siatce. Uwalnia to programistę od uciążliwego przełączania się między zakładkami i pozwala śledzić postępy w różnych wątkach pracy. W najnowszej aktualizacji 3 wprowadzono też układ kafelkowy (tiled layout) w samym Oknie Agentów, co dodatkowo ułatwia multitasking i porównywanie wyników pracy różnych agentów.

    Samodzielne uczenie się i bezpieczeństwo w centrum

    Samodzielne uczenie się i bezpieczeństwo w centrum

    Cursor 3 to nie tylko interfejs. W parze z nim idą potężne funkcje automatyzacji. Bugbot, narzędzie do code review, zyskało zdolność do samodzielnego uczenia się (Learned Rules). Analizuje reakcje i komentarze recenzentów w pull requestach, tworząc na tej podstawie reguły, które stopniowo usprawniają przyszłe przeglądy. Te, które się sprawdzają, są automatycznie promowane, a nieskuteczne – wyłączane.

    Dla zespołów priorytetyzujących bezpieczeństwo i kontrolę, Cursor wprowadza samohostowane agenty chmurowe. Działają one wewnątrz własnej infrastruktury użytkownika, zapewniając, że codebase, dane wyjściowe buildów i wrażliwe informacje nigdy nie opuszczają sieci wewnętrznej, podczas gdy agent wykonuje polecenia lokalnie.

    Statystyki wewnętrzne: wizja przyszłości w działaniu

    Statystyki wewnętrzne: wizja przyszłości w działaniu

    Najbardziej wymowna jest wewnętrzna statystyka firmy Cursor. Według niej 35% wewnętrznych pull requestów jest już tworzonych przez autonomiczne agenty chmurowe działające na maszynach wirtualnych. Co więcej, agenty piszą niemal 100% kodu w tych procesach, a deweloperzy skupiają się na dekompozycji problemów, recenzji i udzielaniu feedbacku.

    W marcu 2025 roku użytkowników funkcji autouzupełniania (Tab) było 2,5 raza więcej niż użytkowników agentów. Dziś proporcje się odwróciły – użytkowników agentów jest 2 razy więcej. To pokazuje gwałtowną zmianę w sposobie pracy. Prognozy twórców są śmiałe: większość pracy programistycznej będzie wykonywana przez takie agenty w ciągu najbliższego roku.

    Podsumowanie: od pisania kodu do budowy fabryki

    Cursor 3 nie jest już narzędziem służącym przede wszystkim do pisania kodu. Jak mówią sami twórcy, stał się środowiskiem „pomagającym deweloperom w budowie fabryki, która tworzy ich oprogramowanie”. To przejście od modelu „pokaż i monitoruj” jednego agenta do zarządzania linią produkcyjną, gdzie floty agentów pracują asynchronicznie, a programista włącza się w obieg w odpowiednich momentach – do recenzji, feedbacku i dekompozycji skomplikowanych problemów.

    Dzięki integracji agentów z różnych kanałów (Slack, GitHub, Linear, web, mobile) w jeden spójny interfejs, Cursor 3 redukuje konieczność przełączania kontekstu i oferuje prawdziwie zunifikowane stanowisko pracy. To krok w stronę przyszłości, w której środowisko programistyczne nie tyle asystuje w kodowaniu, co zarządza autonomicznymi procesami wytwórczymi, stając się centrum dowodzenia dla nowej generacji inżynierii oprogramowania.


    Źródła

  • Claude Code 2.0: Przebudowa narzędzia do kodowania z AI, nowy design i automatyzacja rutyn

    Claude Code 2.0: Przebudowa narzędzia do kodowania z AI, nowy design i automatyzacja rutyn

    Claude Code 2.0 to kolejna wersja narzędzia od Anthropic, która wprowadza funkcje automatyzujące powtarzalne zadania w pracy programisty. Zmiany te sprawiają, że AI staje się stałym elementem procesu tworzenia oprogramowania, a nie tylko dodatkiem.

    Do najważniejszych nowości należy funkcja By the Way. Pozwala ona Claude’owi pracować nad wieloma zadaniami jednocześnie – model może kontynuować przerwane wątki w czasie, gdy czeka na reakcję użytkownika. Twórcy dodali także integrację z Telegramem oraz poprawili zarządzanie pamięcią kontekstową. Bardziej zaawansowani użytkownicy mogą korzystać z hooków worktree, interfejsu CLI do zarządzania agentami oraz bezpośredniego połączenia z VS Code. Dzięki temu narzędzie rzadziej czeka na polecenia, a częściej samodzielnie wspiera bieżący proces pracy.

    Aplikacja i integracje: centrum pracy programisty

    Zmiany w organizacji pracy opierają się na obsłudze równoległych instancji i agentów. Wykorzystanie funkcji multi-worktree w systemie Git sprawia, że deweloper może rozwijać kilka funkcji w tym samym czasie w osobnych, odizolowanych środowiskach.

    Kluczowa jest też natywna integracja z VS Code. Claude łączy się bezpośrednio z edytorem, co daje dostęp do modelu bez wychodzenia z IDE. Jest to pomocne podczas pisania i poprawiania kodu, ponieważ pozwala zachować ciągłość pracy w jednym oknie.

    Dostępność i kierunki rozwoju

    Pełny dostęp do nowych funkcji wymaga subskrypcji w planach Claude Pro, Max, Team lub Enterprise. Użytkownik musi posiadać zainstalowaną najnowszą wersję oprogramowania, co potwierdza, że Anthropic kieruje ten produkt głównie do sektora profesjonalnego.

    Jednocześnie firma rozwija system tzw. skills. Są to konkretne umiejętności, które można aktywować wewnątrz modelu. Choć jest to osobny projekt, pokazuje on dążenie do stworzenia uniwersalnego asystenta, w którym Claude Code 2.0 odpowiada za zadania techniczne.

    Podsumowanie

    Aktualizacje Claude Code 2.0 zmieniają sposób korzystania z tego narzędzia. Program nie jest już tylko chatbotem generującym fragmenty tekstu, ale staje się częścią środowiska programistycznego. Wielozadaniowość, integracja z VS Code oraz obsługa wielu instancji Git to funkcje, które realnie wpływają na szybkość i porządek w projektach. Rozwój tych technologii pokazuje, że w narzędziach AI dla programistów liczy się obecnie przede wszystkim ścisłe dopasowanie do codziennych nawyków pracy i istniejących ekosystemów.

  • Kimi Code CLI 1.29.0: Lepsza Kontrola Agentów i Kompatybilność Terminala

    Kimi Code CLI 1.29.0: Lepsza Kontrola Agentów i Kompatybilność Terminala

    Kimi Code CLI, terminalowy asystent programistyczny od MoonshotAI, otrzymał właśnie znaczącą aktualizację. Wersja 1.29.0, dostępna jako najnowsze wydanie stabilne, wprowadza szereg usprawnień skupionych na precyzyjnym sterowaniu agentami AI oraz niezawodności pracy w różnych środowiskach terminalowych. To kolejny krok w ewolucji narzędzia, które zamienia terminal w pełnoprawnego, inteligentnego współpracownika przy pisaniu kodu.

    Hierarchiczne instrukcje projektowe z AGENTS.md

    Jedną z kluczowych nowości jest wsparcie dla hierarchicznego ładowania plików AGENTS.md. Jak to działa? CLI automatycznie wykrywa i scala instrukcje z plików AGENTS.md, zaczynając od katalogu głównego projektu Git aż do aktualnego katalogu roboczego, uwzględniając także pliki w ukrytych katalogach .kimi/. Co ważne, instrukcje z głębszych poziomów hierarchii mają priorytet, ale całość podlega limitowi 32 KiB. Dzięki temu najbardziej szczegółowe wytyczne dla agenta w konkretnym podkatalogu nie zostaną pominięte przez limity kontekstu, co zapewnia precyzyjne sterowanie zachowaniem AI na poziomie projektu.

    To eleganckie rozwiązanie problemu zarządzania złożonymi instrukcjami w dużych repozytoriach, gdzie różne części kodu mogą wymagać odmiennego podejścia.

    Większa niezawodność środowiska terminalowego

    Najnowsza wersja kładzie duży nacisk na poprawę komfortu pracy w terminalu. Naprawiono problemy z renderowaniem kolorów na terminalach bez wsparcia truecolor (np. w popularnym Xshell). Dodano także nowe zmienne środowiskowe: KIMI_CLI_PASTE_CHAR_THRESHOLD i KIMI_CLI_PASTE_LINE_THRESHOLD. Pozwalają one kontrolować, kiedy wklejany tekst jest zwijany do postaci placeholderów. Jest to istotne dla użytkowników wprowadzających znaki CJK (chińskie, japońskie, koreańskie) w terminalach takich jak Xshell po połączeniu przez SSH – zapobiega to błędom przy przetwarzaniu danych wejściowych.

    Dodano również obsługę proxy SOCKS, automatycznie normalizując prefiks socks:// do socks5:// w zmiennych środowiskowych dla lepszej kompatybilności. Ułatwia to pracę za zaporami sieciowymi czy w specyficznych konfiguracjach korporacyjnych.

    Nowe komendy i usprawnienia agentów

    Wśród nowych funkcji znajdziemy komendę /title, która pozwala na ręczne przemianowanie sesji. Co istotne, zapobiega ona nadpisaniu nazwy przez automatyczny mechanizm nadawania tytułów, jednocześnie unifikując stan sesji w pliku state.json.

    Znacząco ulepszono także agenta explore, odpowiedzialnego za analizę kodu. Zyskał on możliwość przyjmowania wyspecjalizowanych ról, różnych poziomów szczegółowości (thoroughness levels) oraz automatyczne dostarczanie kontekstu środowiska, np. informacji o repozytorium przy starcie. Teraz potrafi on też aktywnie sugerować głównemu agentowi wykorzystanie swoich możliwości podczas researchu w bazie kodu.

    Poprawki stabilności i wydajności

    Pod maską dokonano wielu istotnych poprawek. Rozwiązano problem konwersji znaków nowej linii (LF na CRLF) w systemie Windows, który mógł uszkadzać pliki tekstowe. Dodano nagłówki Cache-Control do zasobów webowych, aby uniknąć błędów 404 związanych z buforowaniem po aktualizacji. Ulepszono także mechanizm czyszczenia pustych sesji, który teraz działa na wszystkich ścieżkach wyjścia z programu, w tym przy błędach i awaryjnym zakończeniu.

    Dodanie informacji o systemie operacyjnym i powłoce (shell) do promptu systemowego poprawia kompatybilność z Windows, a refaktoryzacja współdzielonej logiki prepare_soul eliminuje wyścigi (race conditions) przy współbieżnym wznawianiu sesji w tle.

    Podsumowanie: dojrzałość narzędzia dla deweloperów

    Wydanie Kimi Code CLI 1.29.0 to nie spektakularna rewolycja, ale solidny krok w stronę dojrzałości produktu. Skupia się na eliminowaniu niedogodności – od lepszego wsparcia znaków międzynarodowych, przez naprawę błędów na specyficznych platformach, po wprowadzenie bardziej elastycznego zarządzania instrukcjami projektowymi. Te usprawnienia, wraz z potężnym modelem Kimi K2.5 i wsparciem dla Model Context Protocol (MCP), umacniają pozycję tego otwartoźródłowego narzędzia jako jednego z najbardziej zaawansowanych asystentów AI działających bezpośrednio w terminalu. Aktualizację można pobrać w formie plików binarnych ze SourceForge lub śledzić oficjalne release notes na GitHubie.


    Źródła

  • Claude Code w Wersji 2.1.91: Trwalsze Narzędzia i Lepsza Wydajność dla Deweloperów

    Claude Code w Wersji 2.1.91: Trwalsze Narzędzia i Lepsza Wydajność dla Deweloperów

    Anthropic opublikowało aktualizację swojego narzędzia CLI dla programistów, Claude Code, oznaczoną numerem 2.1.91. Wersja ta skupia się na zwiększeniu stabilności, bezpieczeństwa i wydajności podczas pracy z dużymi zbiorami danych, co jest szczególnie istotne przy zarządzaniu złożonymi bazami kodu i integracjami.

    Aktualizacja przynosi kluczowe zmiany, które bezpośrednio odpowiadają na problemy zgłaszane przez społeczność. Zamiast dodawać liczne nowe funkcje, inżynierowie skupili się na dopracowaniu dotychczasowego User Experience i usunięciu uciążliwych błędów, które mogły utrudniać codzienną pracę.

    Kluczowa poprawka: trwałość danych z narzędzi MCP

    Najważniejszą nowością w wydaniu 2.1.91 jest ulepszone zarządzanie wynikami zwracanymi przez narzędzia zgodne z Model Context Protocol (MCP). Dotychczas, gdy zewnętrzne narzędzie (np. łączące się z bazą danych czy API) zwracało bardzo duży wynik, mógł on zostać przycięty, co powodowało utratę cennych informacji.

    Teraz deweloperzy mogą jawnie określić maksymalny rozmiar wyniku za pomocą adnotacji _meta["anthropic/maxResultSizeChars"], podnosząc limit nawet do 500 000 znaków. To istotna zmiana dla osób pracujących z pełnymi schematami baz danych, rozbudowaną dokumentacją API czy dużymi plikami konfiguracyjnymi. Dzięki temu Claude może analizować kompletną strukturę projektu bez ryzyka utraty kluczowych fragmentów.

    Więcej kontroli i bezpieczeństwa

    Bezpieczeństwo narzędzi deweloperskich to priorytet. W odpowiedzi na te potrzeby wersja 2.1.91 wprowadza nowe ustawienie disableSkillShellExecution. Pozwala ono administratorom i użytkownikom wyłączyć wykonywanie poleceń powłoki inline w ramach umiejętności (skills), niestandardowych komend typu slash oraz pluginów.

    To ważne udogodnienie dla zespołów pracujących w środowiskach o podwyższonych rygorach bezpieczeństwa lub w ramach CI/CD, gdzie każda arbitralna komenda shell może stanowić ryzyko. Ustawienie zapewnia kontrolę, nie odbierając jednocześnie funkcjonalności w zaufanych kontekstach.

    Usprawnienia dla deweloperów pluginów i pracy zdalnej

    Aktualizacja wnosi także kilka praktycznych usprawnień dla osób rozszerzających funkcjonalność Claude Code:

    • Pluginy mogą teraz dołączać pliki wykonywalne w katalogu bin/ i wywoływać je jako proste komendy z poziomu narzędzia Bash, co upraszcza ich architekturę.
    • Poprawiono obsługę deep links (claude-cli://open?q=), które teraz akceptują wielolinijkowe prompty – znaki nowej linii zakodowane jako %0A nie są już odrzucane.
    • Naprawiono krytyczny błąd powodujący utratę historii konwersacji przy użyciu flagi --resume, gdy dochodziło do asynchronicznego błędu zapisu transkryptu.

    W zakresie wydajności wprowadzono optymalizację funkcji stripAnsi w środowisku uruchomieniowym Bun, wykorzystując natywną metodę Bun.stripANSI. Dodatkowo narzędzie do edycji plików używa teraz krótszych zakotwiczeń old_string, co redukuje liczbę tokenów w odpowiedzi i może przyspieszyć iterację.

    Naprawione błędy i obsługa terminala

    Lista poprawek jest obszerna i dotyczy codziennych problemów użytkowników. Jednym z nich była niespójna praca skrótu cmd+delete (lub jego odpowiednika) w popularnych terminalach, takich jak iTerm2, kitty, WezTerm, Ghostty i Windows Terminal. Skrót ten, zamiast usuwać tekst do początku linii, czasem zachowywał się nieprzewidywalnie – teraz działa zgodnie z oczekiwaniami.

    Inny istotny problem dotyczył trybu planowania (plan mode) w sesjach zdalnych. Po restarcie kontenera narzędzie traciło ślad plików planu, co skutkowało pustymi oknami modalnymi i niepotrzebnymi monitami o uprawnienia. Ta poprawka zwiększa niezawodność pracy zdalnej.

    Dodatkowo zaadresowano błędy związane z walidacją schematu JSON dla ustawień, czyszczeniem starych wersji na systemie Windows oraz wyświetlaniem informacji o niedostępności komendy /feedback.

    Podsumowanie: stabilność przede wszystkim

    Wydanie Claude Code 2.1.91 to przykład dojrzałego podejścia do rozwoju oprogramowania. Zamiast gonić za kolejnymi, nie zawsze przetestowanymi funkcjami, zespół Anthropic skupił się na wzmocnieniu fundamentów. Poprawki związane z trwałością danych MCP, bezpieczeństwem wykonywania kodu i stabilnością sesji mają bezpośredni, pozytywny wpływ na produktywność deweloperów.

    Aktualizacja jest już dostępna, a użytkownicy mogą ją zainstalować za pomocą swojego menedżera pakietów. W środowiskach wrażliwych na bezpieczeństwo rekomendowane jest zapoznanie się z nową opcją disableSkillShellExecution w konfiguracji. To solidne wydanie, które czyni Claude Code jeszcze bardziej niezawodnym partnerem w codziennej pracy z kodem.


    Źródła