Tag: Agenci AI

  • OpenCode Usprawnia Integrację z Cloudflare i Dostosowanie Interfejsu Terminalowego

    OpenCode Usprawnia Integrację z Cloudflare i Dostosowanie Interfejsu Terminalowego

    Najnowsza aktualizacja OpenCode, otwartoźródłowego narzędzia AI dla programistów, wprowadza zmiany w dwóch obszarach: konfiguracji usług Cloudflare AI oraz obsłudze interfejsu tekstowego (TUI). Zmiany opisane w dokumentacji projektu skupiają się na ułatwieniu pierwszego uruchomienia programu i poprawie wygody pracy w terminalu.

    Łatwiejsza konfiguracja Cloudflare Workers AI i AI Gateway

    Wprowadzono czytelniejsze komunikaty diagnostyczne dla osób korzystających z Cloudflare Workers AI oraz Cloudflare AI Gateway. System sprawdza teraz obecność zmiennych konfiguracyjnych, takich jak Account ID, Gateway ID czy CLOUDFLARE_AI_GATEWAY_API_KEY. Jeśli ich brakuje, użytkownik widzi konkretną informację o tym, jakie dane musi uzupełnić, zamiast ogólnych błędów systemowych.

    Ma to pomóc osobom, które dopiero zaczynają pracę z narzędziem. Cloudflare Workers AI umożliwia korzystanie z modeli językowych przez API bez zakładania kont u wielu różnych dostawców. W OpenCode proces ten można przejść na dwa sposoby: interaktywnie, korzystając z instrukcji (np. przez uwierzytelnienie na opencode.ai/auth), lub wpisując dane bezpośrednio do pliku opencode.json.

    Zmiany w interfejsie terminalowym (TUI)

    Druga część poprawek dotyczy interfejsu tekstowego. W systemie Windows przywrócono standardowe zachowanie klawiatury, rezygnując z wcześniejszych tymczasowych rozwiązań, które utrudniały wprowadzanie znaków. Dla programistów pracujących głównie w terminalu jest to zmiana poprawiająca płynność pisania.

    Użytkownicy zyskali też większą kontrolę nad myszą wewnątrz TUI. Funkcję przechwytywania kursora można teraz wyłączyć w ustawieniach lub za pomocą zmiennej środowiskowej OPENCODE_DISABLE_MOUSE. Dodatkowo poprawiono mechanizm ładowania wtyczek TUI. Teraz poprawnie przypisują się one do konkretnego projektu, nawet gdy użytkownik ma otwartych kilka katalogów jednocześnie.

    Poprawki w działaniu systemu

    Aktualizacja obejmuje również zmiany wewnątrz samego silnika OpenCode. Usprawniono zarządzanie sesjami, co pozwala na stabilne zachowanie kontekstu podczas przełączania się między różnymi obszarami roboczymi.

    Wprowadzono także normalizację metadanych dostawców. Zmiana ta zapewnia poprawne wyświetlanie informacji o modelach nawet wtedy, gdy dane pochodzące z zewnętrznych katalogów są niekompletne.

    Rozwój narzędzia i stabilność

    Wprowadzone modyfikacje wskazują na to, że twórcy OpenCode skupiają się na usuwaniu błędów technicznych i upraszczaniu obsługi. Lepsza diagnostyka błędów w usługach Cloudflare eliminuje problemy przy starcie, a poprawki w TUI ułatwiają codzienną pracę. Te aktualizacje, wraz z poprawą stabilności rdzenia systemu, sprawiają, że narzędzie staje się bardziej przewidywalne. Regularne wydawanie poprawek pokazuje, że projekt jest rozwijany na podstawie zgłoszeń przesyłanych przez użytkowników.


    Źródła

  • Adaptive w Windsurf: Inteligentny router modeli oszczędza twoje tokeny

    Adaptive w Windsurf: Inteligentny router modeli oszczędza twoje tokeny

    Windsurf wprowadził nową funkcję o nazwie Adaptive. Jest to inteligentny router modeli, który pomaga zarządzać miesięcznym limitem tokenów. Zmiana ta wpływa na sposób, w jaki środowisko korzysta z dostępnych modeli językowych, i jest już dostępna dla wszystkich użytkowników.

    Jak działa Adaptive w Windsurf

    Zasada działania Adaptive jest prosta. Po wybraniu tej opcji w menu, system automatycznie dobiera model AI (np. GPT, Claude lub Gemini), który najlepiej poradzi sobie z danym zadaniem. Może to być poprawianie błędów, pisanie dokumentacji czy zmiana struktury kodu.

    Najważniejszą cechą Adaptive jest stała stawka za token. Niezależnie od tego, który model zostanie wybrany przez system do wykonania zadania, koszt pozostaje taki sam. Pozwala to systemowi na używanie lżejszych modeli do prostych zapytań, co sprawia, że limit tokenów użytkownika wyczerpuje się wolniej.

    Przejrzystość kosztów i kontrola w menu modeli

    Przy okazji premiery Adaptive, twórcy Windsurf odświeżyli menu wyboru modeli. Użytkownicy zyskali większą kontrolę nad tym, ile zasobów zużywają. Po najechaniu myszką na konkretny model pojawiają się teraz szczegółowe stawki za tokeny wejściowe (input), wyjściowe (output) oraz odczyt z pamięci podręcznej (cache read).

    W interfejsie dodano również dwa nowe elementy:

    • Licznik czasu pamięci podręcznej (prompt cache timer): informuje, jak długo kontekst rozmowy jest przechowywany w pamięci.
    • Licznik tokenów przy odpowiedziach: każda wiadomość od AI pokazuje teraz dokładną liczbę zużytych jednostek.

    Dzięki temu programiści widzą koszt każdej operacji bezpośrednio w oknie czatu.

    Kontekst aktualizacji i poprawki techniczne

    Wprowadzenie Adaptive to kolejny etap zmian w zarządzaniu zasobami w Windsurf. Wcześniej w IDE pojawił się podgląd limitów (quota), a nowa funkcja ma pomagać w ich mądrzejszym wykorzystywaniu.

    W procesie wdrażania wyeliminowano też błędy techniczne. Jedna z ostatnich poprawek usunęła problem, przez który użytkownicy nie mogli zmienić modelu na inny po wysłaniu pierwszego zapytania w trybie Adaptive.

    Co to oznacza dla programistów

    Dla osób zajmujących się tworzeniem stron, rozwiązaniami AI czy operacjami DevOps, nowości te oznaczają mniej pracy przy pilnowaniu limitów. System sam dba o to, by nie marnować drogich zasobów na proste pytania.

    Warto dodać, że ceny za dodatkowe użycie (extra usage) są teraz rozliczane według stawek API. Zmiany objęły również użytkowników planu Max, którzy otrzymali zmodyfikowane limity, co pozwala im na dłuższą pracę bez przerw.

    Adaptive w Windsurf pokazuje kierunek, w którym rozwijają się asystenci kodowania. Zamiast używać najpotężniejszych modeli do każdego przecinka w kodzie, systemy zaczynają dopasowywać narzędzie do trudności problemu. Pozwala to programistom pracować płynniej, bez obaw o nagłe wyczerpanie dostępnych kredytów w połowie projektu.


    Źródła

  • Poprawki AI Cloudflare i Obsługa Klawiatury w Najnowszym OpenCode v1.3.17

    Poprawki AI Cloudflare i Obsługa Klawiatury w Najnowszym OpenCode v1.3.17

    Aktualizacja OpenCode do wersji v1.3.17 wprowadza zmiany w dwóch obszarach: integracji z usługami AI Cloudflare oraz stabilności interfejsu terminalowego (TUI) w systemie Windows. Poprawki te bezpośrednio wpływają na wygodę pracy z tym asystentem kodowania.

    Lepsza obsługa błędów dla Cloudflare AI

    Główną zmianą w tej wersji jest usprawnienie współpracy z Cloudflare Workers AI oraz Cloudflare AI Gateway. W poprzednich wydaniach brak zmiennych środowiskowych Cloudflare mógł powodować błędy, które nie informowały jasno o przyczynie problemu. Dzięki poprawce od użytkownika @mchenco, OpenCode v1.3.17 lepiej radzi sobie z takimi sytuacjami.

    Jeśli aplikacja nie wykryje danych konta, takich jak CF_API_TOKEN czy CF_ACCOUNT_ID, wyświetli instrukcje konfiguracji. Program wskazuje teraz, których zmiennych brakuje i jak je uzupełnić. Ułatwia to uruchomienie funkcji AI osobom, które dopiero zaczynają korzystać z infrastruktury Cloudflare.

    Zmiana ta jest istotna w kontekście wykorzystania modeli dostępnych na platformie Workers AI oraz narzędzi takich jak Sandbox SDK czy Responses API. Deweloperzy tworzący agenty AI lub korzystający z Browser Renderingu na infrastrukturze Cloudflare mogą teraz łatwiej połączyć te usługi z OpenCode.

    Przywrócenie obsługi klawiatury Kitty w terminalu

    W wersji v1.3.17 przywrócono domyślną obsługę klawiatury Kitty dla użytkowników systemu Windows. Wcześniej usunięcie jednego z obejść technicznych spowodowało problemy z wprowadzaniem danych w interfejsie terminalowym (TUI).

    Kitty to protokół terminalowy wykorzystywany do obsługi zaawansowanych funkcji tekstowych i graficznych. Błędy w jego obsłudze prowadziły do gubienia znaków lub opóźnień podczas pisania. Naprawa tego błędu sprawia, że interakcja z TUI jest stabilna. Jest to ważne dla osób, które wolą zarządzać sesjami, narzędziami bashowymi i wtyczkami bezpośrednio z wiersza poleceń, zamiast korzystać z aplikacji okienkowej.

    Zmiany w module Core

    Wersja v1.3.17 korzysta również z szerszych aktualizacji silnika OpenCode Core. Cloudflare AI Gateway automatycznie pomija teraz parametr max_tokens dla modeli OpenAI z serii o-series oraz GPT-5, co zapobiega odrzucaniu żądań przez API.

    Wprowadzono także dziedziczenie kontekstu autoryzacji przez obszary robocze (workspaces). Po zalogowaniu się do dostawcy AI w jednym oknie, autoryzacja jest aktywna także w innych sesjach w ramach tego samego obszaru roboczego. Dzięki temu użytkownik nie musi logować się wielokrotnie.

    Dodatkowo system automatycznie ponawia próby połączenia w przypadku wystąpienia błędów 5xx po stronie dostawcy. Dzieje się to nawet wtedy, gdy oficjalne biblioteki SDK nie wymuszają takiego zachowania, co zwiększa odporność narzędzia na chwilowe przerwy w działaniu usług zewnętrznych.

    Praktyczne znaczenie aktualizacji

    OpenCode v1.3.17 skupia się na eliminowaniu konkretnych problemów technicznych zgłaszanych przez użytkowników.

    1. Łatwiejsza konfiguracja: Jasne komunikaty o błędach pozwalają szybciej przygotować środowisko do pracy.
    2. Stabilność pracy: Naprawa obsługi klawiatury w terminalu pozwala na płynne pisanie kodu bez przerw technicznych.

    Udział użytkownika @mchenco w pracach nad tą wersją pokazuje, że społeczność ma realny wpływ na rozwój projektu. Nawet poprawki dotyczące komunikatów o błędach są istotne dla autorów OpenCode i trafiają do oficjalnych wydań.

    Stabilność i przewidywalność

    Wydanie v1.3.17 stawia na niezawodność. Dla programistów korzystających z AI Cloudflare poprawa obsługi błędów oznacza mniej czasu spędzonego na debugowaniu ustawień. Z kolei naprawa protokołu Kitty przywraca komfort pracy w terminalu.

    W połączeniu z funkcjami takimi jak inteligentne ponawianie prób połączenia i współdzielenie autoryzacji, OpenCode staje się bardziej przewidywalnym narzędziem. Zamiast dodawania wielu nowych opcji, twórcy skupili się na tym, aby obecne funkcje działały bez zakłóceń w codziennej pracy deweloperskiej.


    Źródła

  • OpenCode v1.3.14 Wzmacnia Integrację z Gitem i Rozszerza Listę Dostawców AI

    OpenCode v1.3.14 Wzmacnia Integrację z Gitem i Rozszerza Listę Dostawców AI

    OpenCode, otwartoźródłowy agent AI dla programistów, został zaktualizowany do wersji 1.3.14. Wydanie to skupia się na poprawie stabilności pracy z kodem oraz systemem kontroli wersji. Zmiany obejmują głównie mechanizmy zarządzania historią zmian oraz rozszerzenie listy dostępnych modeli językowych.

    Usprawnienia w pracy z kodem i historią

    Zmiany w wersji 1.3.14 poprawiają precyzję narzędzi do przeglądania różnic w kodzie (diff). Użytkownicy mogą teraz dokładniej analizować modyfikacje w niezapisanych plikach oraz porównywać stan kodu między różnymi gałęziami (branchami). Jest to pomocne przy weryfikacji zmian przed ich zatwierdzeniem w systemie Git.

    Poprawiono również zarządzanie historią sesji. Mechanizm przywracania stanu projektu działa teraz stabilniej, co ułatwia powrót do wcześniejszych etapów rozmowy z asystentem przy zachowaniu właściwego kontekstu kodu.

    Nowi dostawcy AI i zarządzanie systemowe

    Wersja 1.3.14 dodaje obsługę nowych platform z modelami AI. Dzięki integracji z AI SDK oraz Models.dev, OpenCode współpracuje z ponad 75 dostawcami modeli. Daje to użytkownikom większą swobodę w wyborze silnika napędzającego asystenta.

    Dla administratorów systemów macOS wprowadzono lepsze wsparcie dla narzędzi MDM (Mobile Device Management). Umożliwia to centralną konfigurację OpenCode na wielu komputerach jednocześnie, co ułatwia wdrożenie programu w dużych organizacjach i dbanie o zgodność z wewnętrznymi procedurami.

    Zmiany w interfejsie użytkownika

    Aktualizacja wprowadza kilka poprawek w obsłudze aplikacji. W wersji desktopowej usprawniono zarządzanie fokusem – kursor wraca do pola wpisywania poleceń automatycznie po zamknięciu okien dialogowych.

    Wprowadzono także:

    • Nowe skróty klawiaturowe do obsługi panelu zadań.
      Poprawioną nawigację wewnątrz "question dock" bez użycia myszy.
    • Uproszczony wygląd interfejsu w trybie terminalowym (shell).

    Kierunki rozwoju projektu

    Wydanie 1.3.14 jest częścią szerszego procesu rozwoju OpenCode. W kolejnych iteracjach twórcy dodali między innymi eksperymentalne API, eksport danych telemetrycznych OTLP oraz wsparcie dla serwerów MCP z adresami URI dla autoryzacji OAuth. Pojawił się również dedykowany prompt systemowy dla modeli Kimi.

    OpenCode rozwija się jako narzędzie łączące funkcje programistyczne, takie jak obsługa Git czy LSP, z dostępem do wielu zewnętrznych usług AI. Wersja 1.3.14 przygotowuje grunt pod te bardziej zaawansowane funkcje, stawiając na stabilność sesji i podstawową integrację z ekosystemem deweloperskim.


    Źródła

  • Claude Opus 4.7 gotowy do premiery. będzie wspierać nowe narzędzie do projektowania stron

    Claude Opus 4.7 gotowy do premiery. będzie wspierać nowe narzędzie do projektowania stron

    Anthropic przygotowuje się do premiery swojego najnowszego modelu – Claude Opus 4.7. Nie jest to całkowita zmiana architektury, a raczej aktualizacja wersji 4.6. Model wprowadza zmiany przydatne głównie dla programistów i projektantów pracujących nad złożonymi zadaniami. Premiera zbiega się w czasie z informacjami o nowym narzędziu do automatycznego tworzenia stron internetowych, prezentacji i prototypów.

    Model będzie dostępny bezpośrednio w aplikacjach Claude oraz przez API, Amazon Bedrock i Google Cloud Vertex AI. Ceny nie ulegną zmianie: 5 dolarów za milion tokenów wejściowych i 25 dolarów za milion tokenów wyjściowych. W systemach deweloperskich model otrzyma identyfikator anthropic-claude-opus-4-7.

    Możliwości nowego modelu

    Claude Opus 4.7 został przygotowany głównie pod kątem inżynierii oprogramowania. Użytkownicy mają rzadziej nadzorować model przy trudnych zadaniach programistycznych. System lepiej radzi sobie z długimi procesami, dokładniej trzyma się instrukcji i samodzielnie sprawdza kod przed zwróceniem wyniku.

    Aktualizacja obejmuje też funkcje wizualne. Model przetwarza obrazy w wyższej rozdzielczości, co ma pomagać przy projektowaniu interfejsów użytkownika, slajdów i dokumentów technicznych. W testach przeprowadzonych przez partnerów Anthropic, wersja 4.7 uzyskiwała wyższe noty niż Claude 4.6.

    Bezpieczeństwo i praca z kodem

    Ważną częścią wdrożenia są kwestie bezpieczeństwa. Brytyjski instytut UK AI Safety Institute sprawdzał model pod nazwą "Mythos Preview" pod kątem potencjalnych zagrożeń w sieci. Z tego powodu możliwości Claude Opus 4.7 w zakresie cyberbezpieczeństwa mogą być ograniczone przez automatyczne filtry, które blokują zapytania o wysokim ryzyku.

    Dla osób zajmujących się tworzeniem stron i aplikacji istotne jest okno kontekstowe sięgające 1 000 000 tokenów. Pozwala to modelowi na analizę bardzo dużych projektów i długotrwałą pracę bez utraty wątku. Jest to przydatne dla agentów AI, którzy samodzielnie naprawiają błędy w kodzie lub prowadzą research.

    Wpływ na rynek

    Claude Opus 4.7 pokazuje, że modele AI przestają być tylko prostymi czatbotami. Zaczynają pełnić funkcję samodzielnych narzędzi zdolnych do prowadzenia spójnych działań przez wiele godzin.

    Lepsza analiza obrazu i wyczucie estetyki łączą się z planami Anthropic dotyczącymi generatora stron i prototypów sterowanego głosem lub tekstem. Claude Opus 4.7 ma być silnikiem tych rozwiązań, co stawia go w roli konkurenta dla serwisów takich jak Gamma czy narzędzi projektowych od Google.

    Programiści mogą spodziewać się mniejszej liczby błędów i szybszego tempa pracy nad projektami. Zamiast poprawiać każdą linię kodu, użytkownik będzie mógł skupić się na architekturze systemu, podczas gdy model zajmie się wieloetapową realizacją zadania. To zmiana w stronę modelu pracy, w którym inżynier zarządza procesami wykonywanymi przez sztuczną inteligencję.


    Źródła

  • Google łączy siły: NotebookLM teraz głęboko zintegrowany z aplikacją Gemini

    Google łączy siły: NotebookLM teraz głęboko zintegrowany z aplikacją Gemini

    Google wprowadziło zmianę w sposobie korzystania ze swoich narzędzi AI, łącząc NotebookLM bezpośrednio z aplikacją Gemini. NotebookLM, który do tej pory był osobnym programem do analizy dokumentów, jest teraz dostępny z poziomu głównego czatu Gemini. Dzięki temu użytkownicy nie muszą już przełączać się między różnymi kartami przeglądarki, aby pracować na swoich materiałach.

    Obsługa tej funkcji jest prosta. W oknie czatu Gemini, obok ikony dodawania plików, znajduje się przycisk NotebookLM. Po jego kliknięciu można wybrać konkretny notatnik zawierający pliki PDF, artykuły czy transkrypcje z YouTube. Od tego momentu Gemini wykorzystuje te dokumenty jako bazę do udzielania odpowiedzi. AI automatycznie uwzględnia treść źródeł przy tworzeniu streszczeń czy analiz, bez konieczności każdorazowego wklejania tekstu do czatu.

    Jak to działa w praktyce

    Główną korzyścią jest wygoda. Użytkownik rozmawia z Gemini, korzystając z możliwości modelu, a jednocześnie ma pewność, że odpowiedzi opierają się na jego własnych plikach. Aby sprawdzić konkretne źródło lub dodać nowy dokument, wystarczy kliknąć przycisk "źródła". Wszystkie dane i zmiany w notatnikach są aktualizowane na bieżąco.

    Integracja pozwala też na zarządzanie bazą wiedzy bezpośrednio z poziomu Gemini. Można tam dodawać nowe linki i pliki, a także zapisywać fragmenty rozmów bezpośrednio w strukturze notatnika.

    Różnica w sposobie działania

    To połączenie zmienia sposób, w jaki AI przetwarza informacje. Standardowy NotebookLM jest systemem zamkniętym, co oznacza, że odpowiada tylko na podstawie wgranych dokumentów. Wersja wbudowana w Gemini daje większy wybór.

    Użytkownik może zdecydować, czy AI ma trzymać się wyłącznie dostarczonych materiałów, czy może uzupełnić odpowiedź o informacje z internetu. Pozwala to na łączenie precyzyjnej analizy własnych danych z szeroką wiedzą dostępną w sieci.

    Zastosowanie w nauce i pracy

    Połączenie bazy wiedzy NotebookLM z funkcjami konwersacyjnymi Gemini ułatwia pracę osobom zajmującym się analizą danych, studentom i badaczom. Rozwiązuje to problem wyboru między narzędziem do pracy na źródłach a wszechstronnym asystentem AI.

    W edukacji rozwiązanie to wykorzystuje model Gemini z komponentami LearnLM, które są dostosowane do celów dydaktycznych. Nauczyciele mogą dzięki temu sprawniej przygotowywać materiały na podstawie konkretnych podręczników, a studenci mogą analizować literaturę przedmiotu w jednym oknie.

    Nowe możliwości dla użytkowników

    Wprowadzenie NotebookLM do Gemini upraszcza proces badania i gromadzenia informacji. Zamiast korzystać z kilku osobnych narzędzi, użytkownik otrzymuje jedno środowisko, w którym porządkuje źródła i od razu o nie pyta.

    Obecnie funkcja ta jest wdrażana stopniowo, głównie dla użytkowników korzystających z komputerów. Google dąży do ściślejszego powiązania swoich usług AI, co w praktyce oznacza mniej kopiowania danych i szybszy dostęp do własnych notatek podczas rozmowy z botem. Dla osób pracujących z dużą ilością tekstu jest to ułatwienie, które realnie przyspiesza codzienną pracę.

  • Kimi Code CLI 1.29.0: Lepsza Kontrola Agentów i Kompatybilność Terminala

    Kimi Code CLI 1.29.0: Lepsza Kontrola Agentów i Kompatybilność Terminala

    Kimi Code CLI, terminalowy asystent programistyczny od MoonshotAI, otrzymał właśnie znaczącą aktualizację. Wersja 1.29.0, dostępna jako najnowsze wydanie stabilne, wprowadza szereg usprawnień skupionych na precyzyjnym sterowaniu agentami AI oraz niezawodności pracy w różnych środowiskach terminalowych. To kolejny krok w ewolucji narzędzia, które zamienia terminal w pełnoprawnego, inteligentnego współpracownika przy pisaniu kodu.

    Hierarchiczne instrukcje projektowe z AGENTS.md

    Jedną z kluczowych nowości jest wsparcie dla hierarchicznego ładowania plików AGENTS.md. Jak to działa? CLI automatycznie wykrywa i scala instrukcje z plików AGENTS.md, zaczynając od katalogu głównego projektu Git aż do aktualnego katalogu roboczego, uwzględniając także pliki w ukrytych katalogach .kimi/. Co ważne, instrukcje z głębszych poziomów hierarchii mają priorytet, ale całość podlega limitowi 32 KiB. Dzięki temu najbardziej szczegółowe wytyczne dla agenta w konkretnym podkatalogu nie zostaną pominięte przez limity kontekstu, co zapewnia precyzyjne sterowanie zachowaniem AI na poziomie projektu.

    To eleganckie rozwiązanie problemu zarządzania złożonymi instrukcjami w dużych repozytoriach, gdzie różne części kodu mogą wymagać odmiennego podejścia.

    Większa niezawodność środowiska terminalowego

    Najnowsza wersja kładzie duży nacisk na poprawę komfortu pracy w terminalu. Naprawiono problemy z renderowaniem kolorów na terminalach bez wsparcia truecolor (np. w popularnym Xshell). Dodano także nowe zmienne środowiskowe: KIMI_CLI_PASTE_CHAR_THRESHOLD i KIMI_CLI_PASTE_LINE_THRESHOLD. Pozwalają one kontrolować, kiedy wklejany tekst jest zwijany do postaci placeholderów. Jest to istotne dla użytkowników wprowadzających znaki CJK (chińskie, japońskie, koreańskie) w terminalach takich jak Xshell po połączeniu przez SSH – zapobiega to błędom przy przetwarzaniu danych wejściowych.

    Dodano również obsługę proxy SOCKS, automatycznie normalizując prefiks socks:// do socks5:// w zmiennych środowiskowych dla lepszej kompatybilności. Ułatwia to pracę za zaporami sieciowymi czy w specyficznych konfiguracjach korporacyjnych.

    Nowe komendy i usprawnienia agentów

    Wśród nowych funkcji znajdziemy komendę /title, która pozwala na ręczne przemianowanie sesji. Co istotne, zapobiega ona nadpisaniu nazwy przez automatyczny mechanizm nadawania tytułów, jednocześnie unifikując stan sesji w pliku state.json.

    Znacząco ulepszono także agenta explore, odpowiedzialnego za analizę kodu. Zyskał on możliwość przyjmowania wyspecjalizowanych ról, różnych poziomów szczegółowości (thoroughness levels) oraz automatyczne dostarczanie kontekstu środowiska, np. informacji o repozytorium przy starcie. Teraz potrafi on też aktywnie sugerować głównemu agentowi wykorzystanie swoich możliwości podczas researchu w bazie kodu.

    Poprawki stabilności i wydajności

    Pod maską dokonano wielu istotnych poprawek. Rozwiązano problem konwersji znaków nowej linii (LF na CRLF) w systemie Windows, który mógł uszkadzać pliki tekstowe. Dodano nagłówki Cache-Control do zasobów webowych, aby uniknąć błędów 404 związanych z buforowaniem po aktualizacji. Ulepszono także mechanizm czyszczenia pustych sesji, który teraz działa na wszystkich ścieżkach wyjścia z programu, w tym przy błędach i awaryjnym zakończeniu.

    Dodanie informacji o systemie operacyjnym i powłoce (shell) do promptu systemowego poprawia kompatybilność z Windows, a refaktoryzacja współdzielonej logiki prepare_soul eliminuje wyścigi (race conditions) przy współbieżnym wznawianiu sesji w tle.

    Podsumowanie: dojrzałość narzędzia dla deweloperów

    Wydanie Kimi Code CLI 1.29.0 to nie spektakularna rewolycja, ale solidny krok w stronę dojrzałości produktu. Skupia się na eliminowaniu niedogodności – od lepszego wsparcia znaków międzynarodowych, przez naprawę błędów na specyficznych platformach, po wprowadzenie bardziej elastycznego zarządzania instrukcjami projektowymi. Te usprawnienia, wraz z potężnym modelem Kimi K2.5 i wsparciem dla Model Context Protocol (MCP), umacniają pozycję tego otwartoźródłowego narzędzia jako jednego z najbardziej zaawansowanych asystentów AI działających bezpośrednio w terminalu. Aktualizację można pobrać w formie plików binarnych ze SourceForge lub śledzić oficjalne release notes na GitHubie.


    Źródła

  • Claude Code Wprowadza Interaktywne Lekcje i Optymalizuje Wydajność w Wersji 2.1.90

    Claude Code Wprowadza Interaktywne Lekcje i Optymalizuje Wydajność w Wersji 2.1.90

    Nowa aktualizacja Claude Code, oznaczona numerem 2.1.90, przynosi znaczące usprawnienia zarówno dla nowych użytkowników, jak i zaawansowanych deweloperów. Wydanie skupia się na stabilności, naprawia uciążliwe błędy i wzmacnia bezpieczeństwo, szczególnie w środowiskach DevOps, a także wprowadza kluczowe funkcjonalności, takie jak asynchroniczne agenty i pamięć sesji.

    Nowe możliwości: asynchroniczne agenty i pamięć sesji

    Flagową funkcją tej aktualizacji jest wprowadzenie zaawansowanych, asynchronicznych agentów. Pozwalają one na bardziej złożoną i długotrwałą automatyzację zadań programistycznych, działając w tle i zarządzając wieloma wątkami pracy. To ogromny krok naprzód w kwestii efektywności, zwłaszcza w kontekście „vibe coding” – płynnego, intuicyjnego programowania wspomaganego przez AI.

    Dodano również ulepszoną pamięć sesji, która pozwala Claude Code lepiej śledzić kontekst i stan długich, złożonych zadań. Dzięki temu narzędzie może płynniej współpracować z programistą przez cały cykl rozwoju funkcji – od planowania po wdrożenie – zachowując spójność i unikając powtarzania instrukcji.

    Znaczące usprawnienia wydajności i stabilności

    Pod maską wersji 2.1.90 kryje się solidna porcja optymalizacji. Inżynierowie skupili się na poprawie działania długotrwałych sesji, które są kluczowe dla zaawansowanych agentów AI i złożonych workflow hostingowych.

    Przeprojektowano architekturę, aby lepiej obsługiwać warstwowy system uprawnień, integracje MCP (Model Context Protocol) i podagenty. Te zmiany zwiększają ogólną niezawodność systemu, szczególnie podczas wykonywania rozbudowanych, zautomatyzowanych zadań.

    Krytyczne poprawki błędów dla płynnej automatyzacji

    Aktualizacja usuwa kilka uciążliwych problemów, które mogły zakłócać pracę, szczególnie w zautomatyzowanych pipeline'ach. Rozwiązano konflikty edycji plików, w tym irytujący błąd „File content has changed”, który często pojawiał się przy hookach typu format-on-save, oraz wyeliminowano fałszywe pozytywy przy kolejnych edycjach. Działanie narzędzia zostało zoptymalizowane, aby zapewnić płynniejszą i bardziej przewidywalną automatyzację.

    Wzmacnianie bezpieczeństwa i kontroli środowiskowej

    W kwestii bezpieczeństwa wersja 2.1.90 wprowadza wzmocnienia sandboxa, niezbędne w środowiskach produkcyjnych DevOps. Architektura z warstwowym systemem uprawnień i hookami zapewnia lepszą kontrolę nad wykonywanymi działaniami.

    Dodano także nowe zmienne środowiskowe, które dają administratorom większą swobodę w konfiguracji środowisk offline lub wyspecjalizowanych. Ulepszono tryb Auto, który teraz ściślej przestrzega jawnych instrukcji, takich jak „don't push”, oraz wprowadzono inteligentniejsze bramki workflow.

    Podsumowanie: krok naprzód dla profesjonalnych inżynierów

    Wydanie Claude Code 2.1.90 to dowód na skupienie się na potrzebach profesjonalnych inżynierów oprogramowania. Łączy ono zaawansowane możliwości automatyzacji (asynchroniczne agenty i pamięć sesji) z głębokimi usprawnieniami technicznymi, które wspierają wymagające, zautomatyzowane workflow.

    Te zmiany, będące częścią szybkiego cyklu iteracyjnego projektu, bezpośrednio wspierają nowoczesne praktyki web developmentu i AI. Dzięki nim długotrwałe sesje agentów są stabilniejsze, automatyzacja mniej podatna na błędy, a możliwości narzędzia – znacznie szersze. To kompleksowa aktualizacja, która podnosi poprzeczkę w kategorii inteligentnych asystentów programistycznych.


    Źródła

  • Kimi Code CLI 1.30.0: Lepsza Obsługa Sesji, Bezpieczeństwo i Narzędzia Pracy

    Kimi Code CLI 1.30.0: Lepsza Obsługa Sesji, Bezpieczeństwo i Narzędzia Pracy

    Wydanie Kimi Code CLI 1.30.0 to kolejny solidny krok w rozwoju tego narzędzia dla programistów. Agent CLI od MoonshotAI otrzymał zestaw funkcjonalności skupiających się na płynniejszym zarządzaniu sesjami, wzmocnieniu bezpieczeństwa oraz wygodniejszych narzędziach wspierających codzienną pracę z kodem. To aktualizacja, która w dużej mierze dotyka fundamentalnych aspektów użytkowania – stabilności, ochrony danych i kontroli nad przebiegiem pracy.

    Wygodniejsze zarządzanie sesjami i nowe komendy

    Jednym z kluczowych obszarów poprawy jest obsługa sesji. Wprowadzone zostały flagi --session oraz --resume (z krótkim aliasem -r), które pozwalają łatwo wrócić do poprzedniej sesji. Bez argumentu otwierają one interaktywny selektor sesji w terminalu, a z podanym ID sesji – wznawiają konkretną konwersację. CLI wyświetla nawet przypomnienie (kimi -r <session-id>) przy zakończeniu sesji, aby użytkownik zawsze wiedział, jak może ją kontynuować.

    Co ciekawe, dodano też komendy /undo oraz /fork do tworzenia forków sesji. /undo pozwala wybrać poprzednią turę i utworzyć nową sesję z wybraną wiadomością przygotowaną do ponownej edycji. /fork duplikuje całą historię konwersacji do nowej sesji. Warto podkreślić, że oryginalna sesja zawsze zostaje zachowana – to bezpieczny sposób na eksperymentowanie bez ryzyka utraty kontekstu.

    Dodano też ujednolicony tryb --plan oraz opcję konfiguracyjną default_plan_mode. Rozpoczęcie nowej sesji z flagą --plan lub poprzez ustawienie default_plan_mode = true w ~/.kimi/config.toml pozwala zacząć pracę w trybie planowania. Sesje wznowione zachowują swój dotychczasowy stan tego trybu.

    Zaawansowane filtry bezpieczeństwa dla plików

    Bezpieczeństwo otrzymało znaczący impuls. Narzędzia Grep oraz Read zostały wzmocnione ochroną plików wrażliwych. Automatycznie filtrują lub blokują one dostęp do takich plików jak .env, prywatne klucze SSH (id_rsa, id_ed25519, id_ecdsa) oraz pliki z danymi uwierzytelniającymi do chmury (.aws/credentials, .gcp/credentials). Co ważne, pliki typu .env.example, .env.sample czy .env.template są wyłączone z tej ochrony – rozróżnienie między rzeczywistymi danymi a przykładami jest kluczowe.

    Narzędzie Grep zyskało również nowy parametr include_ignored. Kiedy jest on ustawiony na true, włącza flagę ripgrep --no-ignore, pozwalając na przeszukiwanie plików wykluczonych przez .gitignore, takich jak artefakty budowania czy node_modules. Pliki wrażliwe pozostają jednak filtrowane przez dodatkową warstwę ochrony. Domyślnie wartość ta wynosi false, co zachowuje dotychczasowe zachowanie programu.

    Ulepszenia kompatybilności i stabilności

    Wydanie 1.30.0 naprawia też kilka problemów związanych z kompatybilnością i stabilnością. Rozwiązano błąd, przez który custom_headers nie były przekazywane do dostawców innych niż Kimi (OpenAI, Anthropic, Google GenAI, Vertex AI). Teraz są one poprawnie przesyłane dalej.

    Poprawiono wykrywanie skilli w katalogach marki (np. ~/.kimi/skills/). Wcześniej, jeśli istniejący katalog ogólny (~/.config/agents/skills/) był pusty, skille z katalogu marki mogły "zniknąć". Teraz mechanizm discovery niezależnie przeszukuje obie grupy katalogów i łączy wyniki. Dodano też opcję konfiguracyjną merge_all_available_skills. Gdy jest ona włączona, skille ze wszystkich istniejących katalogów marek (~/.kimi/skills/, ~/.claude/skills/, ~/.codex/skills/) are ładowane i scalane, zamiast używania tylko pierwszego znalezionego. Skille o tej samej nazwie mają priorytet według kolejności: kimi > claude > codex.

    Dopracowanie interfejsu i zachowania shella

    Shell otrzymał szereg subtelnych, ale ważnych poprawek. Udoskonalono automatyczne wyzwalanie autouzupełniania w tle (idle background completion) – wznowione sesje shella nie uruchamiają automatycznie tury na pierwszym planie z zaległymi powiadomieniami z tła przed wysłaniem wiadomości przez użytkownika. Nowe uzupełnienia w tle czekają też chwilę, gdy użytkownik aktywnie pisze, aby nie "ukraść" promptu ani nie zaburzyć wprowadzania znaków w systemach CJK IME.

    Poprawiono również UX komendy kimi export. Narzędzie pokazuje teraz podgląd poprzedniej sesji dla aktualnego katalogu roboczego i prosi o potwierdzenie, wyświetlając ID sesji, tytuł oraz czas ostatniej wiadomości użytkownika. Dodano flagę --yes, aby pominąć potwierdzenie. Naprawiono też parsowanie przy wywołaniach z jawnym ID sesji.

    Cel wydania i dalszy rozwój

    Wydanie Kimi Code CLI 1.30.0 jasno pokazuje kierunek rozwoju tego narzędzia: praktyczne, codzienne ulepszenia dla programistów zajmujących się web developmentem, DevOps czy "vibe codingiem". Skupienie na bezpieczeństwie, niezawodnym zarządzaniu sesjami oraz precyzji narzędzi czyni pracę z agentem CLI napędzanym przez AI bardziej produktywną i kontrolowaną.

    Kimi CLI jest dostępne przez PyPI (kimi-cli), a jego szybkie tempo wydawnicze świadczy o aktywnym rozwoju. Dla osób korzystających z terminala jako głównego środowiska pracy takie aktualizacje są często niedocenianym, ale kluczowym elementem sprawnego workflow.


    Źródła

  • OpenCode Zwiększa Wydajność i Stabilność – Caching Promptów i Naprawa Azure w Wersji 1.3.12

    OpenCode Zwiększa Wydajność i Stabilność – Caching Promptów i Naprawa Azure w Wersji 1.3.12

    Nowa wersja open-source'owego asystenta programistycznego OpenCode, oznaczona numerem v1.3.12, przynosi istotne ulepszenia dla osób korzystających z zaawansowanych modeli AI. To wydanie skupia się na poprawie wydajności i stabilności, wprowadzając mechanizmy cache'owania oraz naprawiając błędy.

    Ogólne usprawnienia cache'owania

    Wydanie OpenCode v1.3.12 wprowadza ulepszenia w zakresie cache’owania sesji. To optymalizacja, która może znacząco przyspieszyć pracę i obniżyć koszty.

    W praktyce oznacza to, że gdy OpenCode wielokrotnie używa podobnych lub identycznych fragmentów promptów w sesji, może teraz efektywniej zarządzać danymi, zamiast za każdym razem wysyłać je od nowa do API. Jest to szczególnie cenne podczas długich, iteracyjnych sesji programistycznych, w których agent często odwołuje się do tych samych fragmentów kodu, specyfikacji czy logiki.

    Stabilizacja i nowe funkcje

    Aktualizacja przynosi szereg poprawek i nowych funkcjonalności, w tym wsparcie dla OAuth OpenAI oraz usprawnienia w obsłudze poleceń Bash i proxy. To kluczowe poprawki dla zespołów wykorzystujących różne modele AI, które są popularnym wyborem w środowiskach korporacyjnych ze względu na zgodność (compliance) i integrację.

    Stabilizacja interfejsu terminalowego (TUI)

    Wydanie przynosi także ważne poprawki dla samego Terminal User Interface (TUI). Prace skupiają się na zapewnieniu płynnego i bardziej przewidywalnego działania interfejsu, co jest kluczowe dla zachowania "flow" programisty podczas pracy w terminalu. OpenCode stawia mocno na User Experience w TUI, oferując różne tryby pracy, które można szybko przełączać za pomocą poleceń takich jak /init czy /undo.

    Szerszy kontekst rozwoju OpenCode

    Wersja v1.3.12 wpisuje się w intensywny rozwój OpenCode jako otwartej alternatywy dla komercyjnych asystentów. Projekt wspiera już ponad 75 modeli językowych dzięki integracji z platformami takimi jak Models.dev, a także specyficzne narzędzia, jak GitHub Copilot.

    W ostatnich wydaniach dodano wsparcie dla nowych providerów, przywrócono tryby review oparte na Git, dodano pełne wsparcie dla proxy HTTP i zmodernizowano komponenty wewnętrzne, w tym zaktualizowano Effect library (wersja beta.37) w usługach konfiguracyjnych. Wszystko to służy jednemu celowi: stworzeniu wydajnego, wielofunkcyjnego agenta AI, który działa tam, gdzie programista pracuje na co dzień – w terminalu lub ulubionym IDE.

    Dla kogo są te ulepszenia?

    Aktualizacja OpenCode v1.3.12 to przede wszystkim dobra wiadomość dla programistów i zespołów DevOps korzystających z:

    • Zaawansowanych modeli AI – odczują korzyści w postaci stabilniejszych integracji i nowych funkcji, takich jak OAuth.
    • Pracy w terminalu – interfejs stanie się bardziej responsywny i przewidywalny.
    • Różnorodnych dostawców modeli – platforma stale poszerza zakres wsparcia.

    To wydanie pokazuje dbałość o niezawodność i wydajność fundamentów platformy, które są niezbędne dla vibe codingu – płynnego, skupionego stanu przepływu podczas programowania z asystentem AI.


    Źródła