Kategoria: Sztuczna Inteligencja

  • Kimi Code CLI 1.21.0: głębsza kontrola nad agentem i lepsze zarządzanie sesjami

    Kimi Code CLI 1.21.0: głębsza kontrola nad agentem i lepsze zarządzanie sesjami

    Wersja 1.21.0 narzędzia Kimi Code CLI przynosi zmiany, które wielu użytkowników nazywa przełomowymi. Nie chodzi tu o nowe, błyskotliwe funkcje, ale o solidną pracę nad fundamentami – sposobem, w jaki współpracujemy z asystentem AI w terminalu. To aktualizacja, która sprawia, że rozmowa z agentem przestaje być monologiem z przerwami na ładowanie, a zaczyna przypominać płynną, dynamiczną wymianę zdań z partnerem, który naprawdę słucha.

    Głównym autorem wszystkich kluczowych zmian w tej wersji jest użytkownik GitHub o nicku @RealKai42, którego serie pull requestów znacząco przeprojektowały interakcję z agentem.

    Sterowanie agentem w locie: koniec biernego oczekiwania

    Najważniejsza nowość to inline running prompt. Wcześniej, gdy agent (np. model AI) rozpoczął generowanie odpowiedzi czy wykonywanie zadania, użytkownik musiał cierpliwie czekać na zakończenie całej tury. Każda chęć doprecyzowania, zmiany kierunku lub odpowiedzi na pytanie agenta wymagała przerwania procesu lub oczekiwania na jego koniec.

    Wersja 1.21.0 burzy ten schemat. Teraz output agenta renderowany jest bezpośrednio w obszarze promptu, a użytkownik może w dowolnym momencie wpisać i wysłać kolejną wiadomość – tak zwaną komendę sterującą (steer). Może to być uzupełnienie instrukcji („zamiast tego użyj biblioteki X”), odpowiedź na pytanie agenta („tak, zatwierdzam usunięcie tego pliku”) lub całkowita zmiana kontekstu.

    Co kluczowe, dzieje się to bez przerywania generowania bieżącej odpowiedzi. Agent otrzymuje nasz nowy input i dynamicznie dostosowuje do niego swoje dalsze działanie. Mechanizm został przeprojektowany – zamiast sztucznych, „syntetycznych” wywołań narzędzi, nasze komunikaty sterujące są teraz dołączane jako zwykłe wiadomości użytkownika. To rozwiązanie eleganckie i bardziej kompatybilne z systemem wizualizacji oraz zapisywaniem kontekstu.

    W praktyce oznacza to, że jeśli agent zaczyna iść w niepożądanym kierunku, nie musimy już czekać, aż skończy, by to skorygować. Możemy od razu interweniować. To kolosalna różnica dla płynności pracy.

    Trwałe prompty systemowe i lepszy kontekst

    Kolejna istotna poprawka dotyczy zarządzania kontekstem sesji. Do tej pory prompt systemowy – czyli początkowe instrukcje definiujące rolę i sposób działania agenta – był traktowany jako coś ulotnego. Po restarcie sesji czy podczas jej analizy w narzędziach wizualizacyjnych ta kluczowa informacja mogła zostać utracona lub stać się nieczytelna.

    W 1.21.0 prompt systemowy jest na stałe zapisywany jako pierwszy wpis w pliku context.jsonl. Ma to dwie ogromne zalety. Po pierwsze, narzędzia do wizualizacji sesji (jak kimi vis) mogą teraz odczytać pełny kontekst konwersacji, łącznie z pierwotnymi założeniami. Po drugie, gdy sesja jest wznawiana, agent odzyskuje dokładnie te same początkowe instrukcje, zamiast próbować je odtwarzać lub działać bez nich. Zapewnia to znacznie większą spójność i przewidywalność działań agenta w dłuższym horyzoncie czasowym.

    Wizualizacja i zarządzanie sesjami bez wychodzenia z terminala

    Wizualizacja i zarządzanie sesjami bez wychodzenia z terminala

    Panel wizualizacji (kimi vis) również otrzymał przydatne ulepszenia. Dodano skróty do katalogów sesji bezpośrednio ze strony podglądu sesji. Użytkownik może teraz jednym kliknięciem otworzyć folder bieżącej sesji w eksploratorze plików swojego systemu (obsługa zarówno macOS, jak i Windows) lub skopiować ścieżkę do schowka (akcja „Copy DIR”).

    To może wydawać się drobnostką, ale dla deweloperów, którzy często analizują logi, ślady wykonania czy zapisane konteksty, jest to ogromne ułatwienie. Nie trzeba już ręcznie nawigować przez ukryte foldery w ~/.kimi/ – dostęp jest natychmiastowy.

    Dopracowanie szczegółów: logowanie, powiadomienia i replay sesji

    Dopracowanie szczegółów: logowanie, powiadomienia i replay sesji

    Reszta zmian w tej wersji to dopracowanie istniejących funkcji, które razem tworzą znacznie lepsze doświadczenie użytkownika (UX).

    • Lepsze logowanie: Proces konfiguracji klucza API został usprawniony. Podczas weryfikacji klucza wyświetlany jest teraz animowany spinner, a w przypadku błędu (np. wybrania złej platformy) system wyświetla bardziej pomocne komunikaty. Po udanym logowaniu pojawia się jasne podsumowanie konfiguracji.
    • Naprawione powiadomienia: Komenda aktualizacji wyświetlana w powiadomieniach typu „toast” jest teraz pobierana z jednej, stałej wartości, co eliminuje niespójności.
    • Ulepszony replay sesji: Mechanizm odtwarzania zapisanych sesji został poprawiony, aby poprawnie wyświetlać komunikaty sterujące (steer messages) wysłane podczas pracy agenta. Filtruje też wewnętrzne, techniczne komunikaty systemowe, przez co odtworzona konwersacja jest czystsza i bardziej zrozumiała.
    • Echo wpisanego tekstu: W trybie agenta, po wysłaniu wiadomości, prompt i nasz tekst są teraz wyświetlane (echo) w terminalu. Dzięki temu zapis rozmowy jest bardziej przejrzysty i przypomina naturalną wymianę zdań.

    Kimi Code CLI: kontekst dla deweloperów

    Dla tych, którzy nie mieli wcześniej styczności z tym narzędziem, warto przypomnieć, czym jest Kimi Code CLI. To open-source'owy agent AI działający w terminalu, stworzony przez MoonshotAI i wydany na licencji Apache 2.0. Jego filozofia opiera się na transparentności i kontroli – agent pomaga w zadaniach programistycznych (pisanie, edycja i analiza kodu, operacje shellowe, automatyzacja), ale cały jego proces myślowy, wywołania narzędzi i podjęte działania są widoczne dla użytkownika.

    CLI obsługuje integrację z IDE przez Agent Client Protocol (ACP) – można je skonfigurować np. w edytorze Zed. Posiada też tryb shell, w którym można wykonywać zwykłe polecenia systemowe, oraz wsparcie dla MCP (Model Context Protocol), co pozwala na rozszerzanie jego możliwości o zewnętrzne narzędzia i serwisy.

    Podsumowanie: ewolucja w kierunku płynnej współpracy

    Wersja 1.21.0 Kimi Code CLI nie rzuca się w oczy nowym sloganem czy marketingowym szumem. To aktualizacja dla praktyków – deweloperów, którzy na co dzień używają AI jako partnera w terminalu. Główne zmiany – sterowanie agentem w locie, trwały kontekst i usprawnienia wizualizacji – mają jeden wspólny mianownik: zmniejszają dystans i opóźnienia między intencją użytkownika a działaniem agenta.

    Dzięki temu praca z narzędziem staje się bardziej dynamiczna, interaktywna i w końcu przypomina prawdziwą współpracę, a nie asynchroniczne rzucanie zadań w próżnię. Te ulepszenia fundamentów są często ważniejsze niż kolejna nowa, choćby i spektakularna funkcja. Pokazują też dojrzałość projektu, który skupia się na jakości doświadczenia użytkownika, a nie tylko na rozbudowie listy możliwości.

  • Kimi Code CLI w wersji 1.20.0: lepszy tryb planowania, zarządzanie sesjami i kluczowe poprawki

    Kimi Code CLI w wersji 1.20.0: lepszy tryb planowania, zarządzanie sesjami i kluczowe poprawki

    Nowa wersja narzędzia Kimi Code CLI, oznaczona numerem 1.20.0, to solidna aktualizacja skupiająca się na ulepszeniu istniejących funkcji i naprawie uciążliwych błędów. To nie rewolucja, ale ważny krok w rozwoju tego popularnego, open-source'owego asystenta programistycznego, który pozwala pracować z kodem i terminalem przy pomocy AI. Wydanie koncentruje się głównie na dopracowaniu trybu planowania, który zadebiutował w poprzedniej wersji, oraz na dodaniu praktycznych opcji zarządzania sesjami.

    Tryb planowania trafia do interfejsu webowego

    Jedna z najważniejszych nowości w wersji 1.20.0 dotyczy trybu planowania (plan mode). Funkcja ta, wprowadzona w wersji 1.19.0, pozwala agentowi AI przejść w fazę projektowania działań. W tym trybie ma on dostęp wyłącznie do narzędzi odczytu, takich jak przeglądanie plików (Glob, Grep, ReadFile). Może wówczas zapisać strukturalny plan działania do pliku i przedstawić go użytkownikowi do akceptacji, zanim przystąpi do faktycznego wykonania zadań.

    Co się zmienia? Przede wszystkim tryb planowania przestaje być wyłącznie funkcją konsolową. W wersji 1.20.0 dodano przełącznik w interfejsie webowym. Dzięki temu użytkownicy preferujący pracę w przeglądarce mogą łatwo włączać i wyłączać ten tryb za pomocą przycisku na pasku narzędzi. Gdy tryb jest aktywny, pole edycji zostaje obramowane przerywaną, niebieską linią, co stanowi jasną wskazówkę wizualną.

    Co równie istotne, stan trybu planowania jest teraz zapisywany. Oznacza to, że po zamknięciu sesji i powrocie do niej później, Kimi Code CLI pamięta, czy pracowałeś w trybie planowania. Ta pozornie drobna zmiana znacząco poprawia płynność pracy nad złożonymi projektami wymagającymi wielu sesji.

    Dodano też podgląd planu w UI. To kolejne ułatwienie – teraz nie musisz szukać pliku z planem w systemie, aby go przejrzeć. Wszystko jest dostępne bezpośrednio w interfejsie.

    Pełna kontrola nad sesjami: eksport, import, usuwanie

    Drugim filarem tej aktualizacji jest znacznie ulepszone zarządzanie sesjami. Do tej pory sesje były zarządzane głównie z poziomu konsoli. Wersja 1.20.0 wprowadza kompleksowy zestaw akcji ułatwiających ich archiwizację i przenoszenie.

    W interfejsie wizualizacji (kimi vis) oraz na stronie szczegółów sesji pojawiły się nowe przyciski. Teraz możesz:

    • Pobrać sesję jako plik ZIP jednym kliknięciem.
    • Zaimportować sesję z pliku ZIP. Importowane sesje trafiają do dedykowanego katalogu ~/.kimi/imported_sessions/ i są oznaczone specjalnym filtrem „Imported”.
    • Eksportować sesję z linii komend za pomocą poleceń dostępnych w interfejsie webowym (kimi vis).
    • Usuwać sesje, w tym te zaimportowane, z dodatkowym potwierdzeniem w oknie dialogowym.

    To potężne funkcje dla zespołów i osób, które chcą tworzyć kopie zapasowe swojej pracy, dzielić się konkretnymi sesjami debugowania ze współpracownikami lub po prostu usunąć stare, niepotrzebne konwersacje z agentem.

    Kluczowe poprawki błędów poprawiające komfort pracy

    Pod maską wersja 1.20.0 przynosi szereg poprawek rozwiązujących konkretne problemy zgłaszane przez użytkowników. To właśnie te zmiany często mają największy wpływ na codzienną wygodę użytkowania.

    • Problem z nagłówkami HTTP na Linuxie: W systemach Linux białe znaki (spacje, znaki nowej linii) na końcach wartości nagłówków HTTP mogły powodować błędy połączenia, szczególnie przy autoryzacji OAuth. Poprawka automatycznie przycina te zbędne znaki.
    • Formatowanie odpowiedzi OpenAI: Dostawca „OpenAI Responses” czasami wysyłał niejawny parametr reasoning.effort=null, co mogło naruszać kompatybilność z niektórymi endpointami oczekującymi specyficznego formatu. Teraz parametry związane z rozumowaniem (reasoning) są pomijane, chyba że zostaną ustawione jawnie.
    • Kompresja kontekstu z plikami multimedialnymi: Gdy konwersacja zawierała elementy multimedialne (obrazy, audio, wideo), proces automatycznej kompresji kontekstu mógł się nie powieść, co prowadziło do błędów API. Zamiast czarnej listy (wykluczającej ThinkPart), zastosowano białą listę (zachowującą tylko TextPart), co stabilizuje działanie tej funkcji.
    • Odświeżanie indeksu plików w web UI: System wzmianek plików (użycie symbolu @) w interfejsie webowym czasami nie odświeżał się po zmianie sesji lub po modyfikacji plików w obszarze roboczym (workspace). Teraz indeks jest resetowany przy przełączaniu sesji i automatycznie odświeżany po 30 sekundach braku aktywności.

    Kontekst i jak zacząć

    Kimi Code CLI to napisany w Pythonie agent działający w linii komend. To narzędzie dla programistów, które łączy czat AI, edycję kodu, wykonywanie poleceń shell oraz integrację z IDE, takimi jak Zed czy Neovim, przez protokół ACP. Instalacja odbywa się za pomocą menedżera pakietów uv (uv tool install kimi-cli) lub PyPI.

    Po instalacji uruchomienie polecenia kimi w katalogu projektu otwiera interaktywną powłokę. Polecenie /setup przeprowadzi Cię przez konfigurację klucza API, a /help wyświetli listę dostępnych komend. Aktualizację do najnowszej wersji wykonasz komendą uv tool upgrade kimi-cli --no-cache.

    Wydanie 1.20.0 doskonale wpisuje się w obecne trendy w narzędziach deweloperskich opartych na AI: stawianie na trwałość sesji, dopracowywanie interfejsów użytkownika (zarówno webowych, jak i CLI) oraz głębszą integrację z workflow programisty. Nie są to spektakularne nowości, lecz zmiany budujące solidne fundamenty pod długoterminową użyteczność narzędzia. Naprawa błędów związanych z kompresją kontekstu czy nagłówkami HTTP może być niewidoczna na pierwszy rzut oka, ale dla osób, które się z nimi borykały, stanowi o diametralnej poprawie stabilności.

    Podsumowanie

    Wersja 1.20.0 Kimi Code CLI to przykład dojrzałego rozwoju oprogramowania. Zamiast dodawać kolejne, być może niedopracowane funkcje, zespół skupił się na szlifowaniu i utrwalaniu istniejących rozwiązań. Przeniesienie trybu planowania do UI webowego i zapisywanie jego stanu sprawia, że funkcja ta staje się w pełni praktyczna. Nowe opcje zarządzania sesjami dają użytkownikom pełną kontrolę nad ich pracą, a zestaw poprawek eliminuje przeszkody irytujące w codziennym użytkowaniu.

    To aktualizacja, która prawdopodobnie nie wywoła dużego szumu, ale jej brak byłby odczuwalny. Dla obecnych użytkowników oznacza po prostu płynniejszą i bardziej przewidywalną pracę, a dla nowych – narzędzie, które od pierwszego uruchomienia działa stabilniej. W świecie szybko rozwijających się asystentów AI taka dbałość o detale i użyteczność jest dokładnie tym, czego potrzebują programiści.

  • MiniMax m2.7: model, który sam się ulepsza i rewolucjonizuje kodowanie

    MiniMax m2.7: model, który sam się ulepsza i rewolucjonizuje kodowanie

    Chiński startup MiniMax, od kilku lat będący jednym z najciekawszych graczy na globalnym rynku sztucznej inteligencji, właśnie podniósł poprzeczkę. Ich najnowszy model językowy, MiniMax M2.7, nie tylko bije rekordy w testach dla programistów, ale też wykazuje cechy, które firma nazywa „wczesnym echem samorozwoju”. To nie jest kolejna iteracja – to krok w stronę przyszłości, w której AI aktywnie uczestniczy we własnym doskonaleniu.

    Premiera modelu, która miała miejsce około 18 marca 2026 roku, to odpowiedź na rosnące potrzeby rynku związane z autonomicznymi agentami AI i zaawansowanymi workflowami programistycznymi. M2.7 został zoptymalizowany pod kątem zadań wymagających głębokiego zrozumienia systemu: dostarczania pełnych projektów, analizy logów, pracy z pakietami biurowymi i, co najciekawsze, prowadzenia eksperymentów badawczych.

    Architektura zaprojektowana dla wydajności i zdolności agentowych

    Pod maską M2.7 kryje się zaawansowana architektura Mixture-of-Experts (MoE). Model wykorzystuje łącznie 230 miliardów parametrów, z czego w danym momencie aktywnych jest 10 miliardów, wybieranych przez system routingu Top-2 z puli 8 ekspertów. Ta konstrukcja pozwala na utrzymanie wysokiej efektywności kosztowej bez utraty możliwości. Szczegóły techniczne są imponujące: 32 warstwy ukryte, wymiar ukryty 4096 oraz 32-głowicowy mechanizm uwagi.

    Kluczową cechą dla deweloperów jest ogromne okno kontekstowe wynoszące do 204 800 tokenów. Dzięki temu model może analizować obszerne fragmenty kodu, długie logi systemowe czy kompleksową dokumentację projektu za jednym razem. Maksymalna długość generowanej odpowiedzi to 131 072 tokeny, co umożliwia tworzenie rozbudowanych skryptów czy dokumentów.

    Jeśli chodzi o zapotrzebowanie sprzętowe, inferencja w pełnej precyzji FP16 wymaga około 460 GB pamięci VRAM, ale kwantyzacja do 4 bitów redukuje ten wymóg do 115–130 GB. To sprawia, że uruchomienie modelu na klastrze z czterema akceleratorami H100 jest w pełni realne. Co ważne, choć prędkość generowania na poziomie 48,6 tokena na sekundę jest niższa od mediany konkurencji, kompensuje to niezwykła zdolność do rozwiązywania złożonych problemów.

    Nie testy, a realne umiejętności: benchmarki dla praktyków

    MiniMax odszedł od abstrakcyjnych testów akademickich na rzecz benchmarków, które odzwierciedlają prawdziwą pracę inżynierów i specjalistów. Wyniki M2.7 są w tej dziedzinie wyjątkowo mocne.

    W teście SWE-Pro, który symuluje rzeczywiste zadania inżynierii oprogramowania z uwzględnieniem logów, błędów i bezpieczeństwa, model osiągnął 56,22%. To wynik na poziomie najlepszych globalnych konkurentów, takich jak GPT-5.3-Codex, i zbliżony do możliwości Claude Opus. Prawdziwą siłę M2.7 widać jednak w zadaniach typu end-to-end.

    • VIBE-Pro mierzy zdolność do dostarczenia kompletnego projektu – od koncepcji po działający kod. Tutaj wynik 55,6% pokazuje, że model nie tylko pisze fragmenty kodu, ale rozumie całościową strukturę zadania. Z kolei Terminal Bench 2 (57,0%) demonstruje głębokie zrozumienie złożonych systemów i logiki operacyjnej, wykraczając daleko poza proste generowanie skryptów.

    Drugim filarem możliwości modelu jest praca z pakietami biurowymi. W benchmarku GDPval-AA, który ocenia zadania w programach Excel, PowerPoint i Word, M2.7 osiągnął wynik ELO 1495, co jest najwyższym rezultatem wśród modeli dostępnych na zasadach open-source. Co to oznacza w praktyce? Model potrafi wykonywać wieloetapowe, precyzyjne edycje dokumentów – na przykład przekształcić raport roczny firmy w profesjonalną prezentację, zachowując przy tym strukturę i układ.

    „Wczesne echo samorozwoju”: jak M2.7 uczestniczy we własnym doskonaleniu

    To prawdopodobnie najbardziej futurystyczny aspekt całego projektu. MiniMax wykorzystał wcześniejsze wersje modelu do zbudowania specjalnego środowiska badawczego (harness) – zestawu narzędzi do zarządzania potokami danych (pipelines), treningiem i ewaluacją. Następnie M2.7 został użyty do autonomicznego zarządzania tym środowiskiem.

    Model potrafi samodzielnie uruchamiać analizę logów, debugować problemy i analizować metryki. Szacuje się, że w ten sposób obsłużył od 30% do 50% własnego workflow związanego z badaniami nad uczeniem ze wzmocnieniem (RL). To nie jest zwykła automatyzacja powtarzalnych zadań. M2.7 optymalizował własną wydajność programistyczną, analizując ścieżki błędów i planując modyfikacje kodu w iteracjach liczących nawet 100 rund.

    „Celowo wytrenowaliśmy model, aby był lepszy w planowaniu i doprecyzowywaniu wymagań z użytkownikiem” – wyjaśnił Skyler Miao, szef inżynierii MiniMax. „Kolejnym krokiem jest bardziej złożony symulator użytkownika, aby pchnąć to jeszcze dalej”.

    Ta zdolność znajduje potwierdzenie w testach MLE Bench Lite, gdzie M2.7 osiągnął wskaźnik zdobycia „medalu” na poziomie 66,6%, dorównując możliwościom Google Gemini 3.1 i zbliżając się do Claude Opus 4.6.

    Praktyczne zastosowania: od vibe coding po hosting i DevOps

    Dla społeczności web deweloperów, specjalistów AI i inżynierów DevOps, M2.7 oferuje konkretne narzędzia. Jego ogromny kontekst jest kluczowy dla vibe coding – stylu pracy, w którym programista dynamicznie współpracuje z AI nad dużym, istniejącym już kodem. Model świetnie radzi sobie z analizą całych repozytoriów, refaktoryzacją i implementacją nowych funkcji.

    W obszarze hostingu i DevOps model wykazuje się w analizie logów serwerowych, identyfikacji anomalii i proponowaniu poprawek konfiguracyjnych. Jest zoptymalizowany pod kątem niskokosztowej, szybkiej pętli zwrotnej, co jest nieocenione w środowiskach produkcyjnych.

    Dodatkowo MiniMax podkreśla doskonałą spójność charakteru i inteligencję emocjonalną M2.7. To otwiera drzwi nie tylko dla aplikacji produktywnościowych, ale też dla innowacji w interaktywnej rozrywce, gdzie spójność postaci i ich reakcji jest kluczowa.

    Dostępność, koszty i przyszłość

    Model jest dostępny przez API MiniMax w dwóch wariantach: standardowym M2.7 oraz M2.7-highspeed, który oferuje identyczne wyniki przy szybszej generacji. Ceny za pośrednictwem platform takich jak OpenRouter oscylują wokół 0,30 USD za 1 milion tokenów wejściowych i 1,20 USD za 1 milion tokenów wyjściowych.

    Warto zauważyć, że M2.7 jest aktualnie modelem zamkniętym (proprietary). To sygnał zmiany strategii części chińskich startupów, które wcześniej stawiały na otwartość, a teraz – podobnie jak OpenAI czy Anthropic – chronią swoje najbardziej zaawansowane osiągnięcia.

    Podsumowanie

    MiniMax M2.7 to nie po prostu kolejny, lepszy model językowy. To demonstracja kierunku, w jakim zmierza rozwój AI – w stronę systemów, które nie tylko wykonują zlecone zadania, ale aktywnie uczestniczą w optymalizacji własnych procesów i narzędzi. Jego wybitne wyniki w realnych benchmarkach inżynierskich i biurowych czynią go potężnym narzędziem dla profesjonalistów.

    Prawdziwa rewolucja może jednak tkwić w „pętli samorozwoju”. Jeśli modele zaczną w znacznym stopniu zarządzać własnym treningiem i ewaluacją, tempo postępu może przyspieszyć w sposób trudny dziś do przewidzenia. MiniMax M2.7 to mocne uderzenie w tej nowej grze, a jego wpływ na to, jak budujemy oprogramowanie i współpracujemy z maszynami, dopiero się ujawni.

  • Zed 0.227.1: równoległe agenty, integracja Vercel AI i ulepszenia dla Gita

    Zed 0.227.1: równoległe agenty, integracja Vercel AI i ulepszenia dla Gita

    Wydanie stabilnej wersji 0.227.1 edytora Zed to znacznie więcej niż kolejna porcja poprawek. To duży krok w stronę uczynienia z niego platformy dla inżynierii agentowej, gdzie sztuczna inteligencja, efektywne zarządzanie kodem i praca zespołowa łączą się w spójny workflow. Kluczowe nowości to równoległe subagenty, bezpośrednia integracja z Vercel AI Gateway oraz solidne ulepszenia panelu Git.

    Rewolucja agentów: równoległość i lepsze zarządzanie kontekstem

    Najważniejszą zmianą dla osób korzystających z AI jest wprowadzenie nowego narzędzia spawn_agent. To funkcja, która zmienia sposób działania głównego Agenta Zeda. Dotychczas agent mógł wykonywać zadania wyłącznie sekwencyjnie. Teraz, dzięki spawn_agent, może tworzyć i zarządzać subagentami działającymi równolegle.

    Co to oznacza w praktyce? Wyobraź sobie, że prosisz Agenta o refaktoryzację dużego modułu. Jeden subagent może analizować zależności, drugi pisać testy jednostkowe, a trzeci sprawdzać zgodność API – wszystko w tym samym czasie. To nie tylko przyspiesza pracę, ale też pozwala na lepsze zarządzanie kontekstem dla każdego podzadania. Subagenci mogą skupić się na wąskim wycinku problemu, nie tracąc wydajności. Dla programistów pracujących z AI i stosujących podejście "vibe coding", gdzie płynna interakcja z asystentem jest kluczowa, to ogromne udogodnienie.

    Dodatkowo wszystkie wbudowane agenty zostały przeniesione do ACP Registry. To drobna, ale ważna zmiana, ponieważ teraz można całkowicie usunąć z panelu agenty, których się nie używa. Środowisko staje się bardziej spersonalizowane i uporządkowane.

    Łatwiejszy dostęp do modeli: Vercel AI Gateway wbudowany w Zed

    Kolejna istotna integracja dotyczy dostawców modeli językowych. W Zeda został wbudowany Vercel AI Gateway jako nowy, natywny dostawca LLM. Dla społeczności webdevowej i osób korzystających z Vercel do hostingu to spore ułatwienie.

    Vercel AI Gateway działa jako warstwa abstrakcji i zarządzania pomiędzy aplikacją a różnymi modelami (OpenAI, Anthropic, Google itp.). Oferuje routing, ograniczanie liczby żądań (rate limiting), śledzenie kosztów i buforowanie. Teraz deweloperzy mogą skonfigurować bezpośrednie połączenie ze swoją bramą AI z poziomu ustawień Zeda, bez potrzeby ręcznego przekazywania kluczy API dla każdego modelu z osobna. Upraszcza to konfigurację i poprawia bezpieczeństwo, zwłaszcza w środowiskach zespołowych. Integracja ta, dodana dzięki wkładowi społeczności (#50207; thanks dancer), doskonale wpisuje się w trendy DevOps, gdzie spójność narzędzi i automatyzacja są na wagę złota.

    W kontekście modeli dodano też oficjalne wsparcie dla GPT-5.3-Codex w konfiguracji "bring-your-own-key" u dostawcy OpenAI. W wydaniach preview pojawiła się już także obsługa nowszych modeli GPT-5.4.

    Git jak nigdy dotąd: statystyki diffów i zaufane workspace'y

    Wydanie 0.227.1 przynosi również konkretne ulepszenia dla każdego, kto używa Gita na co dzień. Do wpisów w panelu Git dodano statystyki diffów. Obok nazwy zmienionego pliku widzimy teraz czytelne liczby, np. (+120, -45). To drobna wizualnie zmiana, która znacząco poprawia orientację w zakresie modyfikacji przed commitem. Od razu widać, które pliki przeszły największe rewolucje, a które zawierają tylko kosmetyczne poprawki.

    Dodano także wsparcie dla zaufanych obszarów roboczych (trusted workspaces) w integracji Git. To ważne z punktu widzenia bezpieczeństwa, szczególnie przy pracy z repozytoriami, które mogą uruchamiać skrypty hooks. Zed będzie teraz odpowiednio honorował ustawienia zaufania, co chroni przed niepożądanym wykonaniem kodu.

    Warto nadmienić, że wcześniejsze wydania preview wprowadzały inne ciekawe funkcje Git, które składają się na pełniejszy obraz: przycisk "Review Diff" w widoku diffów gałęzi do szybkiego wysłania zmian do Agenta oraz możliwość usuwania git worktrees z pickera.

    Detale, które robią różnicę: emoji, Windows, Linux i poprawki

    Detale, które robią różnicę: emoji, Windows, Linux i poprawki

    Wydanie to, jak zwykle, zawiera mnóstwo mniejszych, ale wartych uwagi ulepszeń.

    • Złożone emoji (compound emoji) – dodano ich obsługę. W komentarzach, plikach README czy wiadomościach commitów można teraz używać bardziej złożonych sekwencji emoji, co ułatwia ekspresję.
    • Ulepszenia UX Agenta – cała masa usprawnień: trwałe szkice promptów między restartami Zeda, skrót cmd-y do akceptacji zmian w przeglądzie diffów Agenta (podobnie jak w zwykłym diffie Gita), możliwość skakania do pliku z diffa za pomocą option-enter, a także klikalne wzmianki o plikach w polu czatu.
    • Poprawki dla Windows – zwiększono odporność procesu auto-aktualizacji, który teraz powinien poradzić sobie nawet wtedy, gdy inne aplikacje blokują plik Zed.exe. Formatowanie daty i czasu zostało dostosowane do preferencji systemowych.
    • Postępy w wersji na Linux (preview) – wprowadzono bezpieczną obsługę utraty urządzenia GPU (#50902), co powinno zapobiegać crashom w specyficznych sytuacjach sprzętowych. To część ciągłych starań, by praca na Linuxie była jak najstabilniejsza.
    • Liczba poprawek błędów jest imponująca – od naprawy crashy związanych z renderowaniem diagramów Mermaid w podglądzie Markdown, przez problemy ze śledzeniem konfliktów merge, po stabilizację pracy z wieloma serwerami językowymi (LSP). Dla użytkowników oznacza to po prostu płynniejszą i bardziej przewidywalną pracę.

    Podsumowanie: ku bardziej agentycznej przyszłości kodowania

    Zed 0.227.1 to wydanie, które mocno stawia na inżynierię agentową. Wprowadzenie równoległych subagentów to nie kosmetyczna funkcja, a fundament pod bardziej złożoną, współpracującą automatyzację zadań programistycznych. Jednocześnie twórcy nie zapominają o podstawach: integracja z Vercel AI Gateway ułatwia dostęp do zaawansowanych modeli, a ulepszenia panelu Git sprawiają, że kontrola wersji jest bardziej przejrzysta i bezpieczna.

    To połączenie nowoczesności z solidnością jest znakiem rozpoznawczym Zeda. Edytor ewoluuje od szybkiego narzędzia do edycji tekstu w stronę zintegrowanego środowiska, które aktywnie wspiera proces twórczy – zarówno poprzez asystę AI, jak i dopracowane narzędzia dla programisty. Dla deweloperów specjalizujących się w web developmencie, AI i DevOps, takie wydanie to czysta przyjemność i zapowiedź jeszcze ciekawszych możliwości w przyszłości.

  • OpenAI udostępnia GTP-5.4 nano w API. To najmniejszy i najtańszy model z nowej rodziny

    OpenAI udostępnia GTP-5.4 nano w API. To najmniejszy i najtańszy model z nowej rodziny

    Od 5 marca 2026 roku deweloperzy korzystający z OpenAI API mają do dyspozycji nową, kompaktową broń w swoim arsenale. Jest nią GPT-5.4-nano, najmniejsza i najbardziej ekonomiczna wersja najnowszej rodziny modeli językowych od OpenAI. To nie kolejna iteracja dostępna w popularnym interfejsie ChatGPT, lecz narzędzie dedykowane wyłącznie programistom integrującym AI w swoich aplikacjach i usługach.

    Model został zaprojektowany z myślą o szybkości i wydajności kosztowej w zadaniach wymagających przetwarzania dużych ilości danych. Jego premiera w API to wyraźny sygnał, że OpenAI skupia się na potrzebach rynku deweloperskiego, oferując specjalistyczne rozwiązania do konkretnych zastosowań.

    Dostępność i cennik: API w roli głównej

    GPT-5.4-nano jest dostępny wyłącznie przez OpenAI API. Oznacza to, że przeciętny użytkownik końcowy nie znajdzie go w interfejsie czatu, co podkreśla jego profesjonalny, deweloperski charakter. Dostęp do modelu mają wszyscy programiści z aktywnym kontem OpenAI.

    Kluczowym atutem tego modelu jest jego przewidywalny i atrakcyjny cennik. OpenAI ustaliło stawki na poziomie 0,20 USD za 1 milion tokenów wejściowych oraz 1,25 USD za 1 milion tokenów wyjściowych. Takie podejście do wyceny ułatwia budżetowanie projektów i skalowanie usług bez obaw o niekontrolowany wzrost kosztów. W kontekście zadań o wysokim wolumenie, gdzie liczy się każdy ułamek centa, te liczby robią dużą różnicę.

    Specyfikacja modelu: mały, ale z wizją

    Choć nano jest najmniejszym członkiem rodziny GPT-5.4, nie jest to wyłącznie model tekstowy. OpenAI wyposażyło go w możliwości wizyjne. Obsługa obrazów wiąże się z nieco wyższym kosztem przetwarzania, choć szczegółowy mnożnik dla tokenów wizyjnych nie został publicznie ujawniony. To ciekawe połączenie: lekki, szybki i tani model, który potrafi interpretować nie tylko tekst, ale i grafikę.

    W porównaniu ze swoim poprzednikiem, GPT-5-nano, nowa iteracja stanowi znaczący upgrade. OpenAI zapewnia o poprawie wydajności w wielu wymiarach, choć konkretne benchmarki dla wersji nano nie zostały jeszcze szeroko upublicznione. Sam fakt, że model otrzymał nową numerację (5.4 zamiast 5), sugeruje, że zmiany są istotne, a nie tylko kosmetyczne.

    Gdzie gpt-5.4-nano sprawdzi się najlepiej?

    OpenAI jasno wskazuje rekomendowane scenariusze użycia. GPT-5.4-nano jest zoptymalizowany pod kątem zadań, w których priorytetem są szybkość i niski koszt, często kosztem maksymalnej, „głębokiej” mocy obliczeniowej.

    • Klasyfikacja to jeden z głównych przypadków użycia. Automatyczne sortowanie treści, tagowanie, przypisywanie kategorii – tam, gdzie decyzje są względnie proste, a wolumen duży, nano może być idealnym wyborem.

    • Ekstrakcja danych to kolejny obszar. Wyciąganie strukturyzowanych informacji z nieuporządkowanych tekstów, na przykład parsowanie faktur, wiadomości czy dokumentów, to praca, którą nano może wykonywać wydajnie i bez zbędnego obciążania budżetu.

    • Ranking to naturalne zastosowanie dla mniejszego modelu. Sortowanie wyników wyszukiwania, list produktów czy rekomendacji w oparciu o proste kryteria nie zawsze wymaga potęgi największych modeli.

    Ciekawą sugestią jest też wykorzystanie GPT-5.4-nano jako kodujących subagentów, które zajmują się prostszymi, pomocniczymi zadaniami w większym procesie (pipeline). Można sobie wyobrazić system, w którym główny, potężny agent planuje architekturę funkcji, a kilku „robotników” nano w tle pisze standardowy boilerplate code czy testy jednostkowe.

    Kontekst wydajnościowy: jak nano wypada na tle rodziny?

    Aby zrozumieć miejsce GPT-5.4-nano w ekosystemie, warto spojrzeć na osiągi jego większych braci. Pełnowymiarowy model GPT-5.4 osiąga imponujący wynik 67,3% sukcesów w benchmarku WebArena-Verified, który testuje praktyczne umiejętności korzystania z przeglądarki internetowej.

    Na jeszcze wyższym poziomie, 92,8%, plasuje się w zadaniach Online-Mind2Web, opartych na analizie zrzutów ekranu. To pokazuje, że cała rodzina GPT-5.4 jest niezwykle kompetentna w zadaniach wymagających rozumienia i interakcji ze złożonym, multimodalnym środowiskiem.

    GPT-5.4-nano, jako najmniejszy członek rodziny, nie będzie dorównywał tym wynikom w najbardziej wymagających testach. Jego siła leży gdzie indziej: w równowadze między przyzwoitą, bazową kompetencją a błyskawicznym czasem odpowiedzi i niskim kosztem. To model, który ma „wystarczająco dużo rozumu”, by poradzić sobie z wieloma rutynowymi zadaniami produkcyjnymi, nie zużywając przy tym środków na zbędną moc obliczeniową.

    Jak zintegrować GPT-5.4-nano? Prosta ścieżka dla deweloperów

    Dla programistów pracujących w Pythonie integracja jest błyskawiczna. Wystarczy upewnić się, że korzystają z najnowszej wersji oficjalnego SDK OpenAI. Aktualizacja za pomocą polecenia pip install openai --upgrade otwiera dostęp do nowego modelu poprzez standardowe wywołania API.

    To podejście jest spójne z filozofią OpenAI – minimalizacja barier wejścia dla programistów. Nie ma skomplikowanych procedur migracji, nowych bibliotek czy radykalnych zmian w kodzie. Nowa moc jest dostępna tam, gdzie deweloperzy już pracują.

    Podsumowanie

    Premiera GPT-5.4-nano w API to ważny krok w demokratyzacji dostępu do zaawansowanej sztucznej inteligencji dla biznesu. OpenAI, dostrzegając potrzeby rynku, oferuje nie tylko najpotężniejsze i najdroższe modele, ale też narzędzia skrojone pod realia produkcyjne: wysoką przepustowość, ograniczone budżety i potrzebę krótkiego czasu odpowiedzi.

    Ten model to propozycja dla tych, którzy chcą wdrożyć AI na szeroką skalę, automatyzując tysiące prostszych decyzji dziennie bez generowania astronomicznych rachunków. Jest dowodem na to, że ewolucja modeli językowych to nie tylko wyścig na liczbę parametrów, ale też głębsze zrozumienie różnych warstw potrzeb deweloperskich. GPT-5.4-nano może nie napisze przełomowych poematów, ale pomoże usprawnić działanie tysięcy aplikacji, czyniąc je inteligentniejszymi, szybszymi i tańszymi w utrzymaniu.

  • Kimi Code CLI zyskuje tryb planowania, wizualizację i lepszą obsługę plików

    Ostatnie aktualizacje Kimi Code CLI, terminalowego asystenta AI od Moonshot AI, mocno stawiają na kontrolę i przejrzystość. Zamiast agenta działającego jak „czarna skrzynka”, użytkownicy otrzymują narzędzia do zatwierdzania jego planów, śledzenia każdego kroku i sprawnego zarządzania kodem. To wyraźny sygnał, że rozwój tego typu narzędzi idzie w stronę większej współpracy człowieka z AI, a nie pełnej autonomii.

    Kluczowe nowości pojawiły się w wersjach 1.7.0, 1.15.0, a zwłaszcza 1.12.0 z lutego 2026 roku. Wprowadzają one tryb planowania, dedykowane polecenie do wizualizacji sesji oraz szereg usprawnień w panelach zatwierdzania i pracy z plikami. Brzmi technicznie? W praktyce to zmiana, która może znacząco przyspieszyć pracę i zwiększyć pewność podczas korzystania z asystenta.

    Tryb planowania: najpierw strategia, potem wykonanie

    Najważniejszą nowością jest tryb planowania. Dotąd agent mógł od razu przystąpić do modyfikacji plików czy uruchamiania komend. Teraz, po aktywacji trybu (skrótem Shift+Tab lub komendą /plan), jego możliwości są czasowo ograniczone wyłącznie do narzędzi odczytu: przeglądania katalogów (Glob), wyszukiwania w plikach (Grep) i czytania plików (ReadFile).

    W tym trybie agent analizuje zadanie, a następnie tworzy ustrukturyzowany plan, który zapisuje w specjalnym pliku. Ten plan to nie luźna notatka, lecz konkretna lista kroków do wykonania. Dopiero po jego stworzeniu agent prosi użytkownika o zatwierdzenie, prezentując plan w specjalnym panelu. Użytkownik może go zaakceptować, odrzucić lub – jak pokazują najnowsze zapowiedzi – zażądać jego edycji. Agent będzie wtedy modyfikował tylko odpowiednie sekcje planu, zamiast przepisywać go od zera.

    To podejście eliminuje element zaskoczenia. Zamiast sprawdzać historię poleceń po fakcie, wiesz z góry, co agent zamierza zrobić. Jest to szczególnie cenne przy bardziej złożonych refaktoryzacjach czy migracjach, gdzie niechciana zmiana mogłaby zepsuć projekt.

    kimi vis: interaktywna wizualizacja sesji

    Drugi filar aktualizacji to nowe polecenie kimi vis. Uruchamia ono interaktywny dashboard w przeglądarce, służący do dogłębnej inspekcji śladów sesji. To potężne narzędzie do debugowania i zrozumienia sposobu działania agenta.

    Dashboard pozwala przejrzeć chronologię zdarzeń w sesji (timeline), przyjrzeć się pełnemu kontekstowi rozmowy z modelem (context viewer) oraz analizować statystyki użycia. Co praktyczne, z poziomu wizualizacji można też otworzyć katalog sesji czy skopiować jego ścieżkę. W połączeniu z możliwością eksportu i importu całej sesji do pliku ZIP, kimi vis staje się narzędziem do archiwizacji, dzielenia się przykładowymi sesjami lub analizy problematycznych przypadków.

    To kolejny krok w demistyfikacji działania AI. Dzięki wizualizacji możesz zobaczyć, jakie narzędzia były wywoływane, w jakiej kolejności i z jakimi argumentami. Jeśli agent podjął złą decyzję, łatwiej zrozumieć dlaczego.

    Usprawnione panele i skróty klawiszowe

    Usprawnione panele i skróty klawiszowe

    Aby proces zatwierdzania planów i odpowiadania na pytania agenta był płynny, znacznie przeprojektowano interfejs w trybie shell. W wersji 1.15.0 wprowadzono szybkie wybieranie opcji za pomocą klawiszy numerycznych (1-5) w panelach pytań i zatwierdzeń.

    Dodano też nawigację „zakładkową” dla paneli z wieloma pytaniami. Za pomocą strzałek lewo/prawo lub klawisza Tab można przełączać się między pytaniami, co jest bardzo intuicyjne. Panel wizualnie wskazuje, które pytania mają już przypisaną odpowiedź, które jest bieżące, a które oczekują na reakcję. Stan ten jest przywracany po powrocie do danego pytania.

    Może wydawać się to drobnostką, ale ma ogromny wpływ na ergonomię. Praca z agentem przestaje być walką z interfejsem, a staje się płynną interakcją. Usunięcie prefiksu z nazwą użytkownika z promptu również uprościło i oczyściło widok terminala.

    Lepsza praca z plikami i zasobami

    Lepsza praca z plikami i zasobami

    Obsługa plików została dopracowana w kilku obszarach. Po pierwsze, udoskonalono mechanizm wzmiankowania plików za pomocą @. W interfejsie webowym (a koncepcja ta jest kluczowa dla całego ekosystemu) po naciśnięciu @ pojawia się menu z autouzupełnianiem, pozwalając szybko odnosić się do załączonych plików czy plików w obszarze roboczym.

    Co ważne, indeks tych plików jest teraz odświeżany po zmianie sesji lub gdy pliki w workspace ulegną zmianie, co eliminuje problem nieaktualnych sugestii. W wersji 1.12.0 dodano też wsparcie dla osadzonej treści zasobów w trybie ACP (Agent Communication Protocol). To techniczna, ale istotna zmiana, która zapewnia, że gdy używamy Kimi z edytorami takimi jak Zed, Neovim czy Emacs, odwołania do plików za pomocą @ poprawnie dołączają ich zawartość do kontekstu.

    Kontekst i moc modelu K2.5

    Warto pamiętać, że Kimi Code CLI to tylko klient. Jego możliwości są bezpośrednio powiązane z modelem językowym, z którym współpracuje. Obecnie jest to głównie Kimi K2.5, potężny model o architekturze Mixture-of-Experts (MoE).

    K2.5 ma imponujące parametry: 1 bilion parametrów całkowitych, z czego 32 miliardy są aktywne podczas inferencji. Jego skuteczność w zadaniach inżynierii oprogramowania potwierdza wynik 92,3% w OCRBench – benchmarku do oceny zdolności wizualnego kodowania. Co kluczowe dla programistów, oferuje tzw. „thinking mode” (tryb myślenia), który pozwala modelowi na dłuższe, wewnętrzne rozumowanie przed podaniem odpowiedzi. W kontekście CLI model ten jest nie tylko potężny, ale i relatywnie tani, co czyni go konkurencyjnym wobec rozwiązań takich jak Claude Code.

    Podsumowanie: więcej kontroli, mniej niespodzianek

    Ostatnie aktualizacje Kimi Code CLI jasno wyznaczają kierunek: uczynienie AI-assisted coding procesem bardziej przewidywalnym, kontrolowanym i przejrzystym. Tryb planowania oddaje inicjatywę strategiczną w ręce użytkownika, narzędzie kimi vis daje wgląd w „myślenie” agenta, a dopracowane panele i obsługa plików usuwają bariery w codziennej interakcji.

    To nie jest już tylko narzędzie do szybkiego generowania kodu. To coraz bardziej dojrzała platforma do współpracy, w której AI działa jak starannie nadzorowany partner, a nie nieprzewidywalny automat. Dla programistów, którzy potrzebują nie tylko szybkości, ale też pewności i możliwości audytu zmian, te funkcje mogą być decydującym argumentem.

  • GPT-5.4 mini: szybszy i wydajniejszy brat dla programistów i nie tylko

    GPT-5.4 mini: szybszy i wydajniejszy brat dla programistów i nie tylko

    To prawdziwa gratka dla każdego, kto używa narzędzi AI do kodowania i automatyzacji. OpenAI udostępniło właśnie nowe wersje swojego flagowego modelu – GPT-5.4 Thinking, GPT-5.4 Pro oraz GPT-5.4 Nano. Choć mniejsze, wcale nie są gorsze. Wręcz przeciwnie, w kluczowych zadaniach potrafią dorównać starszemu rodzeństwu, a przy tym są znacznie szybsze i tańsze w eksploatacji. To strategiczny ruch, który ma upowszechnić najnowsze technologie AI wśród deweloperów i twórców aplikacji.

    Wersje te, które trafiły do ChatGPT, Codexa i API, są szczególnie interesujące. Zostały zoptymalizowane pod kątem kodowania, interakcji z komputerem (np. przeglądarką), wywoływania narzędzi (tool calling) oraz pracy multimodalnej. Największą obietnicą jest jednak wydajność: modele mają być znacznie szybsze niż ich poprzednicy. Dla osób budujących agenty czy aplikacje, w których czas odpowiedzi jest kluczowy, to bardzo dobra wiadomość.

    Co potrafią nowe warianty GPT-5.4?

    Nowe modele to nie tylko obietnice, ale konkretne, potwierdzone wyniki. Warianty GPT-5.4 zostały przetestowane w wymagających benchmarkach i osiągi są imponujące. W testach kodowania, takich jak SWE-bench Pro, ich skuteczność zbliża się do pełnej wersji GPT-5.4. Oznacza to, że programiści korzystający z tych modeli mogą oczekiwać wysokiej jakości wsparcia przy refaktoryzacji, debugowaniu czy pisaniu nowych funkcji.

    Jeszcze większy skok widać w zadaniach związanych z obsługą komputera, czyli tzw. computer use. Modele wykazują ogromny postęp w porównaniu do wcześniejszych wyników. W praktyce przekłada się to na tworzenie bardziej niezawodnych asystentów, którzy potrafią nawigować po stronach internetowych, wypełniać formularze czy ekstrahować dane.

    GPT-5.4 Nano to z kolei najmniejszy i najtańszy członek rodziny. Jego siłą nie jest skomplikowane rozumowanie, lecz szybkość i niski koszt w prostszych zadaniach. Sprawdzi się doskonale jako lekki subagent, narzędzie do klasyfikacji treści, podstawowego parsowania danych czy wszędzie tam, gdzie priorytetem jest niska latencja. Zgodnie z informacjami, oferuje on okno kontekstowe rzędu 128 000 do 200 000 tokenów.

    Oba modele są multimodalne. Obsługują wizję opartą na patchach (fragmentach obrazu) i mogą analizować obrazy w czasie rzeczywistym.

    Szybkość i charakter: co mówią pierwsze testy?

    Liczby z oficjalnych benchmarków to jedno, a doświadczenia z API – drugie. Pierwsze relacje użytkowników potwierdzają ogromny przyrost prędkości. Nowe warianty GPT-5.4 potrafią generować odpowiedzi błyskawicznie w standardowym trybie API.

    Jeśli potrzebujemy maksymalnej prędkości, wersja Nano generuje tekst wyjątkowo szybko. To kolosalna różnica dla aplikacji wymagających płynnej, konwersacyjnej interakcji. Pojawiają się też głosy, że nowe modele bywają „bardziej dzikie” lub mniej przewidywalne w swoich odpowiedziach niż ich poprzednicy. Często jednak te odpowiedzi są trafniejsze i bardziej bezpośrednie, co w wielu zastosowaniach jest cechą pożądaną.

    Warto pamiętać o dacie odcięcia wiedzy (knowledge cutoff) modeli. Jest ona ustalona na 31 sierpnia 2025 roku. Oznacza to, że nie mają one informacji o wydarzeniach lub technologiach, które pojawiły się po tej dacie.

    Gdzie i za ile? Dostępność i cennik

    Nowe modele są już dostępne w kluczowych kanałach OpenAI. Podstawowym miejscem dla deweloperów jest API, gdzie można od razu korzystać z nowych wariantów.

    W ChatGPT sytuacja jest nieco bardziej złożona. Pełna wersja GPT-5.4 z trybem Thinking jest zarezerwowana dla subskrybentów płatnych planów (Plus, Team, Pro).

    Codex, dedykowane narzędzie do kodowania, również zaczyna wdrażać nowe modele. Proces ten odbywa się stopniowo.

    Jeśli chodzi o koszty, cennik jest przejrzysty i atrakcyjny, zwłaszcza dla wersji Nano. API oferuje też różne tryby rozliczeniowe. Tani tryb Batch/Flex jest dostępny za połowę stawki, a szybszy Priority – za podwójną. Daje to elastyczność w dopasowaniu wydatków do potrzeb projektu.

    Dlaczego to ważne? Kierunek rozwoju AI

    Dlaczego to ważne? Kierunek rozwoju AI

    Wydanie nowych wariantów GPT-5.4 to nie tylko kolejna aktualizacja modelu. To sygnał, w jakim kierunku zmierza branża. Zamiast skupiać się wyłącznie na powiększaniu najpotężniejszych modeli, OpenAI inwestuje w tworzenie wyspecjalizowanych, wydajnych i ekonomicznych wariantów. To podejście ma znacznie większy sens praktyczny dla ekosystemu deweloperów.

    Dzięki niższym kosztom i wyższej prędkości zaawansowane możliwości kodowania i automatyzacji stają się dostępne dla szerszego grona odbiorców. Można budować bardziej złożone systemy agentowe, w których zadania są delegowane do modeli o różnej mocy i cenie. GPT-5.4 Nano może zajmować się prostym routingiem i klasyfikacją, a inne warianty – bardziej wymagającymi problemami, a wszystko to w czasie zbliżonym do rzeczywistego.

    Optymalizacja pod kątem computer use to też niezwykle istotny krok w stronę praktycznej autonomii. Modele, które naprawdę rozumieją, co dzieje się na ekranie i potrafią działać w interfejsach użytkownika, otwierają drzwi do nowej generacji asystentów cyfrowych. To już nie tylko chatboty, ale współpracownicy zdolni do wykonywania konkretnych, powtarzalnych zadań w środowisku cyfrowym.

    Podsumowanie

    Premiera nowych wariantów GPT-5.4 to wydarzenie przede wszystkim dla praktyków: dla programistów szukających szybszego i celniejszego wsparcia w kodowaniu, dla twórców aplikacji budujących systemy wieloagentowe i dla wszystkich, którzy potrzebują wydajnej AI do interakcji z oprogramowaniem. Znaczny wzrost prędkości przy zachowaniu, a nawet poprawie jakości w kluczowych zadaniach, to mocny argument.

    Choć pełna wersja GPT-5.4 pozostaje najpotężniejszym narzędziem do najbardziej złożonych problemów, to właśnie te mniejsze modele mogą stać się prawdziwymi „kołami zamachowymi” codziennego wykorzystania AI. Są szybsze, tańsze i specjalnie dostrojone do tego, co w rozwoju oprogramowania najważniejsze: pisania, testowania i automatyzacji kodu oraz interakcji z cyfrowym światem. Ich sukces będzie mierzony nie rankingami, a liczbą aplikacji, które dzięki nim powstaną.

  • Qwen-Code: co nowego w wersji 0.12.1-nightly.20260311

    Qwen-Code: co nowego w wersji 0.12.1-nightly.20260311

    Rozwój otwartoźródłowych asystentów kodowania nie zwalnia tempa, a każdego dnia w repozytoriach takich jak Qwen-Code przybywa commitów. Wersja v0.12.1-nightly.20260311 to kolejny nightly build, który skupia się na poprawkach stabilności i usprawnieniach kluczowych komponentów. Choć nie jest to duża, główna aktualizacja, zmiany te są istotne dla osób, które na co dzień korzystają z tej platformy do automatyzacji pracy programistycznej.

    W przeciwieństwie do spektakularnych wydań głównych, takie nocne buildy często naprawiają konkretne, drobne usterki, które potrafią uprzykrzyć życie podczas intensywnej pracy z AI. Ta wersja jest właśnie tego typu – nie przynosi rewolucji, ale solidnie poprawia to, co już działa.

    Kluczowe poprawki w MCP i zarządzaniu zakresami

    Model Context Protocol (MCP) to kręgosłup komunikacji między Qwen-Code a zewnętrznymi narzędziami i serwerami. W tej wersji zespół poprawił sposób, w jaki system obsługuje scope’y (zakresy) w metadanych chronionych zasobów, kierując się zaleceniami RFC 9728. Brzmi technicznie? W praktyce chodzi o bardziej przewidywalne i bezpieczne zarządzanie tym, do jakich narzędzi i danych agent AI ma dostęp w danej sesji. Jest to kluczowe dla zachowania porządku i unikania konfliktów, zwłaszcza gdy pracujemy z wieloma serwerami MCP jednocześnie.

    Dodano też nową strategię scalania list (CONCAT merge strategy) dla list mcp_allowed i mcp_excluded. Wyobraź sobie, że masz kilka konfiguracji z różnymi zestawami dozwolonych lub wykluczonych narzędzi. Zamiast je nadpisywać, system może je teraz połączyć, co jest dużym ułatwieniem przy złożonych konfiguracjach projektów. Jest to szczególnie przydatne w środowiskach, gdzie różne części aplikacji wymagają innych zestawów narzędziowych.

    Usprawnienia interfejsu wiersza poleceń (CLI)

    Praca przez terminal jest dla wielu programistów podstawowym sposobem interakcji z narzędziami. Qwen-Code wprowadza tu drobną, ale znaczącą zmianę: prefiks nazw plików tymczasowych generowanych przez CLI został zmieniony na qwen-edit-. Po co? Chodzi o unikanie konfliktów i łatwiejszą identyfikację. Gdy AI edytuje plik, tworzy jego kopię tymczasową. Teraz, zaglądając do katalogu tymczasowego, od razu widać, które pliki są związane z sesją Qwen-Code, a które pochodzą od innych narzędzi. Upraszcza to debugowanie i sprzątanie.

    Druga poprawka dotyczy komunikatów o błędach. Usunięto uporczywy, statyczny komunikat błędu, który mógł pozostawać na ekranie po rozpoczęciu nowego zapytania. Drobiazg? Może, ale takie „przyklejone” komunikaty potrafią wprowadzać w błąd i irytować podczas pracy w szybkim tempie. Czystszy output w terminalu to zawsze zaleta.

    Stabilizacja hooków i czytelność konfiguracji

    Stabilizacja hooków i czytelność konfiguracji

    Hooki w Qwen-Code pozwalają na uruchamianie własnych skryptów w odpowiednich momentach cyklu życia agenta, na przykład przed lub po wykonaniu danej operacji. W tej wersji naprawiono testy integracyjne dla hooków. Testy te sprawdzały, czy zmiany w kodzie nie zepsuły mechanizmu wywoływania skryptów. Naprawa polegała na aktualizacji skryptów testowych tak, aby tworzyły plik hook_invoke_count.txt – to proste rozwiązanie pozwala łatwo weryfikować, czy hook został faktycznie uruchomiony. Dla deweloperów pracujących nad rozszerzeniami Qwen-Code to ważna zmiana, ponieważ zwiększa pewność, że ich modyfikacje nie popsują istniejącej funkcjonalności.

    Poza tym poprawiono czytelność opisów kompresji kontekstu w konfiguracji. Opis parametru, który decyduje o tym, kiedy system automatycznie kompresuje długi kontekst (np. ustawienie 0.6 dla progu 60% limitu tokenów), został sprecyzowany i stał się bardziej zrozumiały. W plikach konfiguracyjnych YAML czy JSON każdy jasny opis to oszczędność czasu i mniej pomyłek.

    Szerszy kontekst: po co to wszystko?

    Szerszy kontekst: po co to wszystko?

    Można zapytać: po co wgryzać się w takie szczegóły? Otóż właśnie te drobne poprawki składają się na płynność i niezawodność pracy dewelopera. Qwen-Code nie jest tylko ciekawostką, ale narzędziem, które zaczyna napędzać realne aplikacje. Wspomniany w materiałach przykład integracji ze Spring AI i Slackiem do weryfikacji scoringu kredytowego pokazuje, że chodzi o poważne, produkcyjne zastosowania.

    Wersje nightly, takie jak ta, są poligonem doświadczalnym. Stabilizują fundamenty pod większe funkcje, które pojawiają się w wydaniach stabilnych. Ulepszenia w MCP bezpośrednio przekładają się na możliwość płynnej integracji z rosnącym ekosystemem serwerów MCP, takich jak ToolUniverse dla narzędzi naukowych. To z kolei otwiera drogę do automatyzacji skomplikowanych przepływów pracy w data science, DevOps czy web developmencie.

    Dla użytkownika końcowego najważniejszy efekt jest taki, że agent AI rzadziej się zawiesza, bardziej przejrzyście komunikuje swoje działania i pewniej współpracuje z zewnętrznymi narzędziami. Wszystkie te poprawki – od zakresów w MCP przez czytelne opisy po lepsze hooki – służą jednemu: zmniejszeniu tarcia między programistą a asystentem AI.

    Podsumowanie

    Wydanie v0.12.1-nightly.20260311 projektu Qwen-Code to klasyczny przykład iteracyjnego doskonalenia oprogramowania. Nie znajdziemy tu nowych, rewolucyjnych modeli AI ani przełomowych interfejsów. Zamiast tego otrzymujemy zestaw solidnych poprawek, które usuwają drobne, ale dokuczliwe problemy, podnosząc ogólną jakość i stabilność narzędzia.

    Dla deweloperów, którzy już używają Qwen-Code do automatyzacji zadań, integracji z MCP czy zarządzania przepływami pracy DevOps, ta aktualizacja oznacza po prostu płynniejszą i bardziej przewidywalną pracę. Dla społeczności open source jest to sygnał, że projekt jest aktywnie rozwijany, a zespół dba nie tylko o kluczowe funkcje, ale też o detale, które decydują o codziennym komforcie użytkowania. W świecie narzędzi programistycznych, gdzie czas i koncentracja są na wagę złota, takie poprawki są bezcenne.

  • Kimi Code CLI 1.18.0: poprawki w Shell, Core i ACP usprawniają pracę z AI

    Kimi Code CLI 1.18.0: poprawki w Shell, Core i ACP usprawniają pracę z AI

    Firma Moonshot AI wydała nową wersję swojego terminalowego asystenta AI dla programistów. Kimi Code CLI 1.12.0 skupia się na zwiększeniu stabilności i poszerzeniu funkcjonalności w kluczowych obszarach: trybie Shell, rdzeniu (Core) oraz integracji z edytorami poprzez ACP. Wydanie nie wprowadza rewolucyjnych zmian, ale konsekwentnie eliminuje znane błędy i dodaje przydatne usprawnienia.

    Kluczowe poprawki w trybie ACP

    Tryb Agent Client Protocol (ACP) służy do integracji Kimi CLI z edytorami kodu i IDE, takimi jak Zed czy Neovim. To właśnie tutaj pojawiła się jedna z najważniejszych poprawek w tej wersji.

    ACP obsługuje teraz zasoby osadzone (embedded resource content). W praktyce oznacza to, że gdy w edytorze używasz referencji do pliku (np. poprzez @ w Zed), Kimi CLI poprawnie zinterpretuje tę informację i włączy treść pliku do kontekstu. Poprawka rozwiązuje konkretny problem, w którym Zed ACP nie rozpoznawał obsługiwanych plików, co utrudniało naturalną współpracę między edytorem a agentem.

    Ta zmiana jest istotna dla codziennej pracy. Agent, otrzymując pełną treść referowanego pliku, może precyzyjniej odpowiadać na pytania dotyczące konkretnych fragmentów kodu lub sugerować modyfikacje. Wspiera to filozofię „vibe coding”, czyli wykonywania zadań programistycznych poprzez rozmowę w języku naturalnym.

    Shell: większa stabilność

    Tryb Shell Kimi CLI pozwala na bezpośrednią interakcję z agentem w terminalu, z integracją z Zsh i możliwością przełączania się między funkcjonalnościami. Wersja 1.12.0 wzmacnia jego stabilność.

    Naprawiono istotny błąd powodujący crash aplikacji, który występował, gdy dane w schowku (clipboard) miały wartość `None`. Eliminacja takich błędów sprawia, że codzienne korzystanie z CLI jest mniej frustrujące i bardziej przewidywalne.

    Usprawnienia rdzenia (Core)

    Rdzeń Kimi CLI, który zarządza komunikacją z modelami AI, również został zoptymalizowany. Zmiany dotyczą poprawy ogólnej niezawodności i kompatybilności z zewnętrznymi dostawcami (providerami) API, choć szczegóły implementacyjne mogą ewoluować.

    Web: odporne połączenia

    Komponent Web, czyli interfejs przeglądarkowy dostępny przez polecenie kimi web, został usprawniony pod kątem odporności na problemy sieciowe.

    Zaimplementowano automatyczną logikę ponawiania prób (retry) dla inicjalizacji sesji. Jeśli początkowe połączenie nie powiedzie się, system spróbuje połączyć się ponownie, co zwiększa szansę na poprawne rozpoczęcie pracy bez konieczności ręcznej interwencji użytkownika.

    Kimi CLI w szerszym kontekście: nie tylko agent

    Kimi CLI w szerszym kontekście: nie tylko agent

    Kimi Code CLI od Moonshot AI to open-source’owy terminalowy agent AI stworzony do zadań związanych z wytwarzaniem oprogramowania. To nie tylko narzędzie do rozmowy o kodzie. Jak przypomniano w dokumentacji: „Kimi Code CLI is not only a coding agent, but also a shell”.

    Narzędzie obsługuje trzy główne tryby pracy:

    • Interaktywny CLI (kimi) do czatu w języku naturalnym i wykonywania poleceń powłoki.
    • Interfejs przeglądarkowy (kimi web) z zarządzaniem sesjami, referencjami do plików i podświetlaniem składni (syntax highlighting).
    • Integrację z IDE (kimi --acp) poprzez Agent Client Protocol działający jako usługa.

    Jako projekt open-source, Kimi Code CLI rozwija się dynamicznie dzięki zgłoszeniom społeczności. Poprawka dla ACP związana z zasobami osadzonymi jest przykładem reakcji na błędy zgłoszone przez użytkowników edytora Zed. Projekt cieszy się dużym zainteresowaniem, gromadząc tysiące gwiazdek w serwisie GitHub.

    Dlaczego te poprawki są istotne dla WebDev i DevOps

    Wydanie 1.12.0 trafia w potrzeby praktyków web developmentu i DevOps. Stabilność w trybie Shell jest kluczowa dla automatyzacji i skryptowania. Poprawki w Core zapewniają, że integracja z modelami AI działa bez zakłóceń, co stanowi fundament nowoczesnego workflow opartego na sztucznej inteligencji.

    Obsługa zasobów osadzonych w ACP bezpośrednio wspiera pracę w edytorach, gdzie szybkie odwołania do plików są codziennością. Z kolei wzmocnienie komponentu Web sprawia, że korzystanie z interfejsu przeglądarkowego jest bardziej niezawodne, nawet w środowiskach z niestabilnym łączem.

    Wnioski: krok w stronę niezawodnego środowiska

    Wersja Kimi Code CLI 1.12.0 to kolejny krok w ewolucji tego narzędzia. Twórcy skupili się na eliminowaniu błędów i zwiększaniu odporności systemu. Takie podejście jest kluczowe dla użytkowników, którzy na co dzień wykorzystują CLI w swojej pracy, ponieważ bezpośrednio przekłada się na komfort i wydajność.

    Naprawa błędów krytycznych, usprawnienia w API oraz wzmocnienie logiki połączeń to zmiany ukierunkowane na praktyczne scenariusze użycia. Pokazują one, że rozwój projektu jest ściśle powiązany z realnymi potrzebami społeczności oraz wymaganiami integracji z innymi elementami ekosystemu programistycznego.

  • GLM-5 Turbo od z.ai: szybki model dla agentów AI dostępny na OpenRouter

    GLM-5 Turbo od z.ai: szybki model dla agentów AI dostępny na OpenRouter

    Cichy debiut, który może zmienić reguły gry w świecie automatyzacji. GLM-5 Turbo, najnowszy model fundacyjny od chińskiego dewelopera Z.ai (znanego też jako Zhipu AI), pojawił się właśnie na platformie OpenRouter. Nie jest to kolejna iteracja skupiona na ogólnych rozmowach. To specjalista zaprojektowany od podstaw do napędzania złożonych, wieloetapowych agentów AI, szczególnie w środowiskach takich jak OpenClaw.

    Dla deweloperów, zwłaszcza tych pracujących nad vibe codingiem, zaawansowanymi workflowami czy integracjami DevOps, to istotna wiadomość. Model obiecuje nie tylko wysoką prędkość, ale przede wszystkim niezawodność w kluczowych dla agentów zadaniach: wywoływaniu narzędzi (tool calling), planowaniu i długotrwałym wykonywaniu łańcuchów instrukcji.

    Czym jest GLM-5 Turbo i dlaczego powstał?

    GLM-5 Turbo to, jak wskazuje nazwa, wyspecjalizowana, szybka wersja modelu od Z.ai. Jego powstanie nie jest przypadkowe. Rynek narzędzi AI ewoluuje od prostych asystentów czatowych w stronę autonomicznych agentów, które potrafią samodzielnie wykonywać skomplikowane zadania, korzystając z zewnętrznych API, narzędzi deweloperskich czy systemów hostingowych.

    Klasyczne modele, nawet bardzo potężne, często mają z tym problem. Mogą „zgadywać” nazwę funkcji, mylić parametry lub gubić wątek w długim, wieloetapowym procesie. GLM-5 Turbo został poddany głębokiemu dostrojeniu (fine-tuning) już na etapie treningu pod kątem scenariuszy znanych z frameworka OpenClaw i podobnych. Jego głównym celem jest zapewnienie stabilności i precyzji w realnych workflowach agentowych.

    Kluczowe możliwości: nie tylko szybkość, ale i niezawodność

    Co dokładnie potrafi ten model? Specyfikacja techniczna i doniesienia z pierwszych testów wskazują na kilka istotnych filarów.

    • Precyzyjne wywoływanie narzędzi (Tool Calling) to jego wizytówka. Twórcy podkreślają, że model wzmocnił zdolność do precyzyjnego wywoływania zewnętrznych narzędzi i różnych umiejętności. W praktyce chodzi o to, by agent korzystający z tego modelu jako „mózgu” nie zawiesił się w połowie zadania przez błędnie sformułowane zapytanie do API. Ma to zapewnić większą stabilność w zadaniach wieloetapowych.

    • Składanie i wykonywanie złożonych instrukcji to kolejna mocna strona. GLM-5 Turbo ma lepiej radzić sobie z dekompozycją skomplikowanej prośby użytkownika (np. „zbuduj prostą aplikację do zarządzania zadaniami z backendem i frontendem”) na logiczną sekwencję mniejszych, wykonalnych kroków. To podstawa działania każdego zaawansowanego agenta.

    Model wspiera też zadania zaplanowane i długotrwałe. To ważne dla workflowów, które muszą działać w tle, czekać na dane lub wykonywać się przez dłuższy czas bez przerwy. Dodatkowo obsługuje do 128 tysięcy tokenów wyjściowych, co pozwala na generowanie obszernych odpowiedzi lub długich fragmentów kodu. Oferuje też streaming w czasie rzeczywistym, function calling oraz ustrukturyzowane dane wyjściowe (np. JSON), co ułatwia integrację z innymi systemami.

    Dla kogo jest ten model? Use case'y w web dev i DevOps

    GLM-5 Turbo nie jest modelem do pogawędek. Jego naturalnym środowiskiem są specjalistyczne narzędzia i automatyzacje. Szczególnie mogą na nim skorzystać osoby związane z inżynierią oprogramowania i infrastrukturą.

    W kontekście vibe codingu i web developmentu model może stanowić silnik dla zaawansowanych asystentów w edytorach kodu. Wyobraź sobie agenta, który nie tylko podpowiada fragment kodu, ale potrafi samodzielnie zaplanować refaktoryzację, uruchomić testy przez CLI, a potem wdrożyć poprawki na staging, korzystając z odpowiednich narzędzi. Stabilność w wywoływaniu funkcji jest tu kluczowa.

    W obszarze DevOps i automatyzacji hostingowej GLM-5 Turbo mógłby napędzać agentów zarządzających infrastrukturą. Na przykład: monitorowanie logów, automatyczne skalowanie zasobów w odpowiedzi na metryki czy zarządzanie złożonymi pipeline'ami wdrożeniowymi – wszystko to wymaga długich, stabilnych łańcuchów decyzyjnych i interakcji z wieloma systemami.

    Testy wspominają też o dobrych wynikach w benchmarkach programistycznych (OpenCode, Kilo Code), co potwierdza jego przydatność w zadaniach związanych z kodowaniem.

    Jak zacząć z GLM-5 Turbo? Dostępność na OpenRouter

    Jak zacząć z GLM-5 Turbo? Dostępność na OpenRouter

    Najprostsza droga do przetestowania możliwości modelu prowadzi przez OpenRouter. Platforma ta udostępnia GLM-5 Turbo przez swoje API, co oznacza, że deweloperzy mogą zintegrować go ze swoimi aplikacjami czy narzędziami wewnętrznymi.

    Co ważne, OpenRouter obsługuje tzw. tryb reasoningu dla tego modelu. W praktyce, wysyłając zapytanie z parametrem reasoning, możemy poprosić model o zwrócenie nie tylko finalnej odpowiedzi, ale też jego wewnętrznego procesu rozumowania krok po kroku. To nieoceniona funkcja przy debugowaniu agentów lub budowaniu systemów, które wymagają iteracyjnej samokorekty i planowania.

    Model jest też konfigurowalny w innych narzędziach, na przykład we frameworku OpenCode, gdzie można go wybrać jako silnik poprzez odpowiedni wpis w pliku konfiguracyjnym JSON. Pojawił się również na innych platformach, jak Krater.ai, co poszerza możliwości dostępu.

    Podsumowanie: specjalista w świecie agentów AI

    GLM-5 Turbo od Z.ai to ciekawy przykład specjalizacji w świecie dużych modeli językowych. Zamiast walczyć o tytuł „najmądrzejszego” modelu w ogólnych testach, jego twórcy postawili na bycie najbardziej niezawodnym w konkretnej, szybko rosnącej niszy: autonomicznych agentów AI.

    Jego pojawienie się na OpenRouter demokratyzuje dostęp do tej technologii. Dla zespołów deweloperskich pracujących nad zaawansowaną automatyzacją, vibe codingiem czy systemami DevOps może to być komponent wart przetestowania. Stabilność w wywoływaniu narzędzi, zdolność do zarządzania długimi procesami i optymalizacja pod realne workflowy to argumenty, które trudno zignorować. To nie jest rewolucja dla każdego użytkownika AI, ale dla twórców agentów – może być bardzo istotnym krokiem naprzód.