Nadchodząca aktualizacja Kimi Code CLI Wprowadza Potężny System Hooks i Ulepszony Wizualizer, narzędzia dla programistów od Moonshot AI, przynosi kluczową innowację, która ma odmienić codzienną pracę z asystentem AI w terminalu. Chodzi o gruntowny redesign wizualizera. Ta zmiana zwiększa przejrzystość interakcji z modelem, zbliżając Kimi do roli w pełni zintegrowanego asystenta deweloperskiego.
Przeprojektowany wizualizer: modularyzacja i kontrola
Głównym filarem aktualizacji jest gruntowna przebudowa wizualizera. Monolityczny plik visualize.py został podzielony na modularny pakiet (visualize/) z dedykowanymi modułami. Ta zmiana architektoniczna znacząco poprawia łatwość utrzymania kodu (maintainability) oraz wydajność.
Użytkownik zyskał też większą kontrolę nad strumieniem konwersacji dzięki zaawansowanym skrótom klawiszowym. Dokumentacja Kimi Code CLI Wprowadza Potężny System Hooks i Ulepszony Wizualizer opisuje różne tryby wprowadzania tekstu, w tym tryb shell (Ctrl-X), tryb wieloliniowy (Ctrl-J lub Alt-Enter) oraz wklejanie (Ctrl-V). Pozwala to na elastyczne zarządzanie treścią podczas interakcji z modelem.
Stabilność, wydajność i kontekst
Aktualizacja przynosi szereg poprawek zwiększających stabilność i użyteczność. Naprawiono między innymi problem przepełnienia kontekstu – tokeny wyników z narzędzi są teraz szacowane i uwzględniane w automatycznym mechanizmie kompaktowania kontekstu, co zapobiega błędom przekroczenia limitu tokenów przy dużych odpowiedziach z narzędzi. Usprawniono zarządzanie sesjami, wsparcie dla wielu katalogów z umiejętnościami (skills) oraz obsługę powiadomień.
Warto zauważyć, że rozwój Kimi Code CLI Wprowadza Potężny System Hooks i Ulepszony Wizualizer jest częścią szerszej wizji przekształcenia Kimi z prostego czatu w zintegrowanego asystenta deweloperskiego, działającego w terminalu i edytorach. Platforma koncentruje się na praktycznym workflow: planowanie → budowanie → dopracowywanie → eksport.
Podsumowanie
Przeprojektowanie wizualizera w Kimi Code CLI Wprowadza Potężny System Hooks i Ulepszony Wizualizer to znaczący krok w ewolucji tego narzędzia. Lepsza organizacja kodu interfejsu i zaawansowane funkcje kontroli nad konwersacją sprawiają, że interakcja z asystentem AI staje się płynniejsza, bardziej przejrzysta i efektywna. Te zmiany umacniają pozycję Kimi Code CLI Wprowadza Potężny System Hooks i Ulepszony Wizualizer jako zaawansowanego, konfigurowalnego środowiska dla programistów, które nie tylko odpowiada na pytania, ale aktywnie uczestniczy w procesie tworzenia oprogramowania.
Wydanie wersji 1.28.0 narzędzia Kimi Code CLI, otwartoźródłowego terminalowego asystenta AI od Moonshot AI, przynosi solidny zastrzyk wydajności i użyteczności dla deweloperów. To nie są kosmetyczne poprawki, lecz konkretne udogodnienia, które bezpośrednio przekładają się na płynność pracy z dużymi repozytoriami i skomplikowanymi zadaniami. Główne obszary ulepszeń to optymalizacja obliczeń różnic, nowy system motywów, przeprojektowanie narzędzia Grep oraz wzmocnienie systemu uwierzytelniania.
Wydajność priorytetem: optymalizacja diff i wątki w tle
Najbardziej odczuwalną zmianą w codziennym użytkowaniu będą poprawki wydajnościowe. Gdy AI modyfikuje pliki, CLI musi obliczyć i wyświetlić różnice (diff). W poprzednich wersjach operacja build_diff_blocks dla dużych plików mogła blokować główną pętlę zdarzeń (event loop), powodując zawieszanie się interfejsu. W wersji 1.28.0 obliczenia te są oddelegowane do osobnego wątku za pomocą asyncio.to_thread. Dzięki temu interfejs pozostaje responsywny, a użytkownik może śledzić postęp prac.
Co więcej, w przypadku bardzo dużych plików przekraczających 10 tysięcy linii, CLI całkowicie pomija kosztowną algorytmicznie kalkulację diff o złożoności O(n²). Zamiast tego wyświetla blok podsumowujący z informacją o liczbie linii. Niezmienione pliki są również natychmiast pomijane (short-circuit). Te zmiany, wraz z dodaniem pola is_summary do specyfikacji Wire 1.8, sprawiają, że praca z dużymi bazami kodu nie obniża komfortu użytkowania.
Nowy system motywów i inteligentny Grep
Wizualna strona CLI również zyskała na znaczeniu. Wprowadzono nowy system motywów z pełnym wsparciem dla trybu jasnego i ciemnego. Może wydawać się to drobiazgiem, ale dla programistów spędzających długie godziny w terminalu, interfejs przyjazny dla wzroku ma realne znaczenie.
Prawdziwą perełką tego wydania jest jednak głęboka przebudowa narzędzia Grep. To kluczowe narzędzie do przeszukiwania kodu borykało się z dwiema głównymi bolączkami: potrafiło się zawiesić i nie reagowało na skrót Ctrl-C. W wersji 1.28.0 blokujące wywołanie ripgrepy.run() zastąpiono asynchroniczną obsługą podprocesów. Grep natychmiast reaguje teraz na przerwanie i posiada 20-sekundowy timeout, po którym zwraca częściowe wyniki.
Dodano też szereg optymalizacji pod kątem zużycia tokenów przez model AI:
Domyślny head_limit ustawiono na 250 linii z paginacją przez offset.
Wyszukiwanie z flagą --hidden automatycznie pomija teraz katalogi systemów kontroli wersji (VCS).
Lista files_with_matches jest sortowana według czasu modyfikacji, co pozwala najpierw wyświetlić najistotniejsze pliki.
Ścieżki w wynikach są podawane jako relatywne.
Domyślnie włączone są numery linii (-n), co pozwala modelowi AI precyzyjnie odnosić się do konkretnych miejsc w kodzie.
Stabilizacja uwierzytelniania i hooki
Dla użytkowników logujących się przez OAuth (np. integracja z VS Code) wersja 1.28.0 naprawia uciążliwe problemy z sesjami. Błąd "incorrect API KEY", który mógł pojawiać się po okresie bezczynności lub przy uruchamianiu skilli, został zastąpiony czytelnym komunikatem "please /login". System ACP (Agent Communication Protocol) poprawnie inicjuje teraz procedurę ponownego logowania. Naprawiono też błąd uniemożliwiający generowanie tytułów sesji dla użytkowników OAuth.
Wydanie wzmacnia również system hooków, pozwalający na automatyzację niestandardowych akcji w kluczowych momentach cyklu życia agenta. To potężne narzędzie dla zaawansowanych użytkowników, którzy chcą zintegrować CLI z własnymi workflowami i narzędziami DevOps.
Kontekst i znaczenie dla deweloperów
Kimi Code CLI nie istnieje w próżni. To terminalowy front-end dla modelu Kimi K2.5 – specjalistycznej wersji o architekturze MoE (Mixture of Experts), zaprojektowanej do zadań programistycznych. Model oferuje okno kontekstowe o rozmiarze 256k tokenów, co jest kluczowe przy refaktoryzacji całych repozytoriów, i osiąga wynik 76,8% w benchmarku SWE-bench, plasując się w czołówce otwartych modeli do kodowania. Optymalizacje w CLI bezpośrednio wspierają możliwości modelu, pozwalając mu wydajniej operować na dużych zbiorach danych.
Użytkownicy zgłaszają nawet dwukrotnie szybsze odpowiedzi na złożone zapytania dotyczące dużych repozytoriów w porównaniu do metod przetwarzających pliki pojedynczo. Integracja z VS Code, wsparcie dla MCP (Model Context Protocol) przy podłączaniu zewnętrznych narzędzi oraz wieloplatformowość (macOS, Linux, Windows) czynią z niego konkurencyjną alternatywę dla innych agentów AI, takich jak Claude Code.
Podsumowanie: dojrzałość i skupienie na użytkowniku
Wydanie 1.28.0 Kimi Code CLI to krok w stronę technicznej dojrzałości. Nie wprowadza rewolucyjnych funkcji, lecz gruntownie optymalizuje istniejące, usuwając wąskie gardła i poprawiając komfort pracy. Skupienie się na wydajności operacji diff, responsywności narzędzi takich jak Grep oraz stabilności uwierzytelniania pokazuje, że zespół bierze pod uwagę feedback społeczności. Powstaje narzędzie, które jest nie tylko potężne dzięki modelowi AI, ale także przewidywalne w codziennym użytkowaniu. Dla deweloperów szukających wydajnego asystenta AI pracującego w terminalu, te zmiany są istotnym argumentem "za".
Narzędzia dla programistów nie stoją w miejscu, a Kimi Code CLI, popularny terminalowy asystent AI od Moonshot AI, właśnie to udowadnia. Najnowsza aktualizacja skupia się na kluczowych aspektach interakcji: płynniejszym renderowaniu i podglądzie myśli w czasie rzeczywistym. Głównymi obszarami rozwoju są dopracowanie interfejsu CLI i zwiększenie jego niezawodności. Chodzi o to, by dialog z AI w terminalu był płynniejszy i bardziej przypominał współpracę z partnerem.
Dla osób, które na co dzień używają Kimi do eksploracji kodu, refaktoringu czy debugowania, te ciągłe ulepszenia są kluczowe. W połączeniu z innymi mocnymi stronami CLI, takimi jak integracja z MCP, wsparcie dla modelu Kimi k2.5 czy protokół ACP dla IDE, tworzy to jedną z najbardziej dojrzałych i przyjaznych programistom terminalowych platform do kodowania wspomaganego przez AI.
Dopracowanie CLI i zwiększenie niezawodności
Najnowsze zmiany koncentrują się na usprawnieniach samej powłoki i interfejsu użytkownika, wprowadzając płynniejsze renderowanie i podgląd myśli w czasie rzeczywistym. Obszar wprowadzania tekstu stał się bardziej kompaktowy, co zwalnia cenną przestrzeń w terminalu na treść odpowiedzi. Całość składa się na bardziej responsywną pętlę interakcji, w której interfejs nie przeszkadza, lecz pomaga w pracy.
Istotnym elementem jest poprawa logiki ponawiania żądań (retry logic) w przypadku błędów protokołu czy timeoutów (np. błąd 504), co zwiększa odporność na chwilowe problemy sieciowe. Dodano również możliwość filtrowania powiadomień, co pozwala użytkownikom lepiej kontrolować informacje wyświetlane przez narzędzie.
Warto wspomnieć o innych udogodnieniach z tej serii aktualizacji. Rozwijana jest funkcjonalność eksportu i importu sesji za pomocą komend /export i /import, co umożliwia przenoszenie kontekstu pracy między różnymi środowiskami lub jego archiwizację.
Podsumowanie: Stabilniejsza i bardziej przewidywalna praca z AI
Te aktualizacje, choć często techniczne, mają fundamentalne znaczenie dla codziennego workflow programisty. Kimi Code CLI ewoluuje z narzędzia, które po prostu wykonuje polecenia, w stronę stabilnego i konfigurowalnego środowiska pracy. Dopracowany interfejs i lepsza obsługa błędów zwiększają komfort użytkowania, a funkcje takie jak zarządzanie sesjami dają programistom większą kontrolę.
Dla społeczności open source skupionej wokół projektu to jasny sygnał, że rozwój koncentruje się na praktycznych potrzebach użytkowników. W efekcie praca z kodem staje się stabilniejsza, łatwiejsza do kontrolowania i po prostu przyjemniejsza.
Sprawa, która zaczęła się od dociekliwych pytań użytkowników, przerodziła się w pełnowymiarowy skandal w świecie AI do kodowania. Chodzi o Cursor Composer 2, model reklamowany jako autorski, wewnętrzny przełom startupu Cursor. Okazuje się jednak, że pod maską kryje się fine-tuning otwartoźródłowego modelu chińskiej firmy Moonshot AI – Kimi K2.5. Brak przejrzystości, a nie sam fakt użycia open source’u, wywołał burzę.
Społeczność deweloperska czuje się oszukana, a debata wykracza daleko poza pojedynczy produkt. Dotyka fundamentalnych kwestii etyki w AI, transparentności w biznesie opartym na otwartych modelach oraz rosnącej roli chińskich modeli bazowych w globalnym ekosystemie.
Od podejrzeń do twardych dowodów: Linia czasu afery
Wszystko zaczęło się subtelnie, od obserwacji samych użytkowników. Podejrzenia wyszły na jaw w marcu 2026 roku, gdy niektórzy z nich zauważyli, że odpowiedzi generowane przez Composer 2 wykazują zadziwiające podobieństwa do modelu Kimi K2.5. Chodziło o specyficzną strukturę rozumowania, sposób formułowania odpowiedzi i charakterystyczne wzorce znane z narzędzi Moonshot AI. To były jednak tylko przeczucia.
Prawdziwy przełom nastąpił 19 marca 2026 roku za sprawą programisty znanego jako Fynn. To on przeprowadził techniczną analizę zapytań API. Metoda była prosta, ale skuteczna: przekierował ruch z Cursor IDE na lokalny serwer, który pełnił rolę bazowego adresu URL dla OpenAI. To pozwoliło mu zajrzeć za kulisy komunikacji.
Efekt? Ukryty identyfikator modelu w żądaniach Composer 2 bezpośrednio wskazywał na Kimi K2.5 z dodatkowym fine-tuningiem metodą RL (Reinforcement Learning). To nie były domysły, a twardy, powtarzalny dowód. Dwa dni później, 21 marca, na YouTube pojawiły się szczegółowe analizy, które opisały cały proces premiery. Cursor promował wtedy Composer 2 jako własny model, który ma przewyższać nawet wiodące rozwiązania Anthropic, takie jak Claude 3.5 Sonnet, w benchmarkach kodowania, będąc jednocześnie tańszym. O bazie Kimi nie padło ani słowo.
Niepodważalne dowody techniczne: Tokenizer i identyfikatory
Co konkretnie udowodniono? Przede wszystkim zgodność tokenizera. Tokenizer to kluczowy komponent modelu językowego, który dzieli tekst na jednostki. Jak potwierdzili później pracownicy Moonshot AI, tokenizer użyty w Composer 2 jest identyczny z tym, którego używa Kimi K2.5. To jak znalezienie tego samego odcisku palca na dwóch różnych narzędziach – mocny dowód na wspólne pochodzenie.
Dodatkowo analiza API ujawniła ukryty model ID, jednoznacznie powiązany z Kimi. Cursor przedstawiał wyniki benchmarków, wskazując na duże ulepszenia, na przykład +21,5% w Terminal Bench. Jednak gdy przyjrzeć się surowym danym, okazało się, że benchmarki te znacząco różniły się od tych używanych dla Kimi, a ogólny wzrost wydajności był znaczący (np. wynik 61,3 vs. 44,2 w CursorBench). Sugerowało to, że lwia część możliwości modelu pochodziła nie tylko z zaawansowanej, otwartoźródłowej bazy od Moonshot, ale także z własnego treningu Cursor, który pochłonął większość użytej mocy obliczeniowej.
Warto zaznaczyć, że poprzednia wersja, Composer 1 (lub 1.5), opierała się na innym modelu – Qwen. Dopiero Composer 2 w pełni przesiadł się na Kimi, co czyniło brak wzmianki o tym fakcie jeszcze bardziej rażącym.
Reakcje kluczowych graczy: Przyznanie się i partnerstwo
Po ujawnieniu sprawy Cursor nie mógł już milczeć. Lee Robinson, wiceprezes ds. edukacji deweloperów w Cursor, odniósł się do sprawy na platformie X (dawniej Twitter). Jego komentarz był połączeniem przyznania się do błędu i potwierdzenia legalności działań. „Jestem wielkim zwolennikiem open source… To był błąd, że nie wspomnieliśmy o bazie Kimi w naszym wpisie na blogu od samego początku. Naprawimy to przy kolejnym modelu” – napisał. Jednocześnie podkreślił, że zespół Moonshot AI potwierdził, iż użycie było licencjonowane.
To ostatnie to kluczowy punkt. Moonshot AI/Kimi oficjalnie potwierdzili istnienie partnerskiej, autoryzowanej umowy handlowej pomiędzy Cursor a nimi, zawartej za pośrednictwem platformy Fireworks AI. Z prawnego punktu widzenia Cursor prawdopodobnie nie złamał licencji Kimi K2.5, o ile ta dopuszcza komercyjne użycie. Problem leżał jednak w warstwie etycznej i wizerunkowej, a nie prawnej.
Wściekłość społeczności: Dlaczego deweloperzy poczuli się oszukani?
Reakcja społeczności była szybka i pełna oburzenia. Na forach i w komentarzach podkreślano jeden główny zarzut: brak transparentności. Użytkownicy płacili za funkcjonalność w Cursor IDE, wierząc, że finansują rozwój przełomowego, autorskiego modelu startupu. Tymczasem, jak to ujął jeden z komentatorów na YouTube, okazało się, że „Cursor opakowuje open source i odsprzedaje go” w swoim forku VS Code.
Problemem nie było więc użycie otwartego modelu – to powszechna praktyka. Chodziło o stworzenie wrażenia czegoś zupełnie nowego, zbudowanego samodzielnie od zera. To podważa zaufanie. Jeśli deweloperzy nie mogą ufać opisom technologii, na której polegają w codziennej pracy, na czym ma się opierać cały rynek narzędzi AI do kodowania?
Na forum Hacker News pojawiły się nawet spekulacje, czy gigant AI, Anthropic, nie zdecyduje się na zablokowanie Cursor na swoich platformach. Powód? Moonshot AI, twórca Kimi, figuruje na liście firm związanych z tzw. „kampanią ataków destylacyjnych” (distillation attack campaign), obok OpenAI i xAI. Jak dotąd (stan na koniec marca 2026) żaden taki zakaz nie został potwierdzony.
Szersze implikacje: Otwarte źródła, chińskie modele i przyszłość AI
Afera z Cursor Composer 2 to nie tylko historia jednego modelu. To symptom większych trendów i napięć w świecie sztucznej inteligencji.
Po pierwsze, jasno pokazuje, że społeczność deweloperska domaga się nowych standardów transparentności. Wskazana została paląca potrzeba publikowania jawnych „kart modelu” (model cards) i dokumentacji, które wprost wymieniają modele bazowe, nawet jeśli mowa tylko o fine-tuningu. Chodzi o uczciwość intelektualną, która pozwala użytkownikom dokonywać świadomych wyborów.
Po drugie, sprawa rzuca światło na rosnącą dominację chińskich modeli bazowych, takich jak Kimi, Qwen czy DeepSeek, w globalnym ekosystemie open source. Są one często darmowe, potężne i łatwo dostępne. Firma z Doliny Krzemowej, taka jak Cursor, może na nich budować swoją wartość. To budzi mieszane uczucia w kontekście geopolitycznym i zmusza do pytań o długoterminową niezależność technologiczną Zachodu. Niektórzy politycy już ostrzegają przed chińską dominacją w obszarze open-source AI.
Po trzecie, kwestionuje to model biznesowy małych, zwinnych zespołów, które budują narzędzia na cudzych, otwartych fundamentach. Jeśli ich główną wartością jest tylko opakowanie i fine-tuning, jak mogą konkurować, gdy dostawcy modeli bazowych zaczną oferować podobne usługi bezpośrednio? Rynek agentów kodujących rozwija się błyskawicznie, a zaufanie jest tu kluczowym aktywem, który łatwo stracić.
Podsumowanie: Lekcja na przyszłość
Afera Cursor Composer 2 wciąż się rozwija, ale już dostarczyła ważnej lekcji dla całej branży. Legalne użycie otwartoźródłowego modelu to za mało. W erze, w której fundamentem innowacji jest współdzielona praca tysięcy badaczy i inżynierów, przejrzystość staje się nową walutą zaufania.
Cursor przyznał się do przeoczenia w kwestii atrybucji, ale nie wystosował pełnych przeprosin ani nie zrewidował szczegółowo swojej dokumentacji. To może być dla nich kosztowny błąd wizerunkowy. Dla deweloperów natomiast jest to wyraźny sygnał, by podchodzić do marketingowych deklaracji o „własnych”, „przełomowych” modelach z dużą dozą zdrowego sceptycyzmu i domagać się technicznych szczegółów.
Ostatecznie ta historia nie kończy się na Kimi czy Cursorze. To rozdział w szerszej opowieści o tym, jak budujemy etyczny i zrównoważony ekosystem AI, w którym współpraca i otwartość idą w parze z uczciwością wobec tych, którzy z tych technologii korzystają.
Świat AI wspomagającej programowanie, który wydawał się skupiony na technicznej rywalizacji, właśnie stanął w obliczu poważnego zarzutu prawnego i etycznego. Chińska firma Moonshot AI publicznie oskarżyła twórców popularnego edytora Cursor o bezprawne wykorzystanie jej flagowego, open-source'owego modelu językowego Kimi K2.5 jako fundamentu nowej usługi Cursor Composer 2. Cała sprawa wyszła na jaw dzięki dociekliwości społeczności deweloperów i postawiła pod znakiem zapytania transparentność oraz uczciwość licencyjną w szybko rozwijającej się branży narzędzi programistycznych napędzanych sztuczną inteligencją.
Spór dotyka sedna współczesnego ekosystemu AI: jak korzystać z modeli open source, gdy własny biznes osiąga skalę wartą miliardy dolarów? I co się dzieje, gdy zignoruje się drobny druk w licencji?
Od "własnego modelu" do odkrytego "Kimi K2.5 + RL"
W połowie marca zespół Cursor, startupu o wysokich przychodach, ogłosił premierę Cursor Composer 2. W materiałach przedstawiano go jako własny, zaawansowany model AI stworzony specjalnie do pomocy w kodowaniu, udoskonalony dzięki technikom reinforcement learning (RL). Entuzjastyczny komunikat nie zawierał jednak kluczowej informacji o pochodzeniu technologii.
Niedługo potem deweloper o pseudonimie @fynnso przeprowadził własne śledztwo. Analizując dane wyjściowe z API Composer 2, odkrył prawdziwy identyfikator modelu: `kimi-k2p5-rl-0317-s515-fast`. Ta nazwa, oznaczająca "Kimi K2.5 + RL", była jawnym wskazaniem na źródło modelu. To odkrycie zapoczątkowało lawinę.
Pracownicy Moonshot AI, producenta modelu Kimi K2.5, natychmiast przystąpili do weryfikacji. Po przetestowaniu API Composer 2 potwierdzili, że tokenizer – kluczowy komponent modelu językowego odpowiedzialny za przetwarzanie tekstu – jest identyczny z tym używanym w Kimi K2.5. Jeden z inżynierów Moonshot stwierdził wprost: „Ten model jest albo tym samym modelem, albo należy do tej samej rodziny. Możemy niemal potwierdzić, że to nasz model po dodatkowym treningu. Jesteśmy zszokowani, że Cursor nie uszanował naszej licencji i nie uiścił żadnych opłat”.
Licencja MIT z klauzulą dla gigantów
Aby zrozumieć zarzuty, trzeba przyjrzeć się licencji, na której udostępniono model Kimi K2.5. Choć oparta jest na popularnej i bardzo otwartej licencji MIT, Moonshot AI dodał do niej ważną modyfikację. Model jest dostępny na platformie Hugging Face dla wszystkich do celów badawczych i użytku niekomercyjnego.
Kluczowy jest jednak paragraf dotyczący użycia komercyjnego. Zgodnie z jego zapisami, jeśli produkt komercyjny korzystający z modelu osiąga ponad 100 milionów aktywnych użytkowników miesięcznie LUB generuje przychody powyżej 20 milionów dolarów miesięcznie, musi on w widocznym miejscu interfejsu użytkownika (UI) umieścić wyraźne oznaczenie „Kimi K2.5”. To właśnie ta klauzula stoi w centrum sporu.
Cursor, z rosnącą bazą płacących użytkowników profesjonalnego edytora, z dużym prawdopodobieństwem przekracza próg przychodowy określony w licencji. Mimo to w ogłoszeniu o Composer 2 zespół Cursor nie wspomniał o Kimi K2.5 ani słowem, łamiąc – według Moonshot – warunek dotyczący oznaczenia.
Yulun Du, szef pretreningu w Moonshot AI, potwierdził te zarzuty na platformie X, twierdząc, że Cursor nie tylko wykorzystał tokenizer, ale prawdopodobnie przeprowadził dotrenowanie na ich modelu bez wymaganych ustaleń czy ujawnienia tego faktu.
Reakcja Cursora: „To był błąd” i potwierdzona umowa
Pod naporem dowodów Cursor wydał oświadczenie, choć nie w formie oficjalnego komunikatu, a przez wypowiedź współzałożyciela Michaela Truella na platformie X. Truell przyznał: „To był błąd, że nie wspomnieliśmy o bazie Kimi w naszym wpisie na blogu od początku. Naprawimy to przy kolejnym modelu”. To przyznanie się do zaniedbania w kwestii transparentności.
Jednocześnie Truell przedstawił kontrargument. Stwierdził, że użycie modelu było licencjonowane, powołując się na partnerstwo z platformą Fireworks AI. Jego zdaniem umowa z Fireworks AI uprawniała Cursor do komercyjnego wykorzystania Kimi K2.5. Ta wersja zdarzeń znalazła potwierdzenie, gdy oficjalne konto Kimi należące do Moonshot AI opublikowało wpis gratulujący zespołowi Cursor i wyrażający dumę, że Kimi K2.5 stanowi fundament dla Composer 2, co potwierdziło autoryzowaną współpracę komercyjną poprzez Fireworks AI.
Potencjalne konsekwencje: od wpływu na reputację po problemy prawne
Co teraz? Dla Cursora konsekwencje mogą być wielowymiarowe. Po pierwsze, istnieje ryzyko prawne. Jeśli zarzuty Moonshot AI dotyczące naruszenia klauzuli oznaczenia się potwierdzą, Cursor może stanąć w obliczu żądań odszkodowań, naliczenia zaległych opłat licencyjnych, a w skrajnym przypadku – nawet wniosku o sądowy zakaz używania modelu Composer 2. W branży technologicznej, gdzie czas wprowadzenia produktu na rynek jest kluczowy, taka sytuacja byłaby poważnym ciosem.
Po drugie, ucierpieć może reputacja. Cała sprawa wywołała burzliwą dyskusję w społeczności deweloperów i ekspertów AI. Padają pytania o etykę wykorzystywania otwartych modeli, zwłaszcza tych pochodzących z Chin, przez zachodnie firmy o ogromnej skali. Niektórzy komentatorzy zwracają uwagę, że Cursor, konkurując z takimi firmami jak Anthropic, może opierać się na „destylowanych” lub fine-tunowanych modelach innych dostawców, co stawia pod znakiem zapytania jego długoterminową niezależność technologiczną.
Ujawnienie identyfikatora modelu przez API zostało uznane za poważne niedopatrzenie w kwestii bezpieczeństwa i kontroli. Osłabia to zaufanie do infrastruktury Cursora, która ma przecież obsługiwać wrażliwe dane i workflow programistów.
Szerszy kontekst: walka o duszę open source w AI
Ten incydent to nie tylko spór między dwiema firmami. To symptom większego napięcia w świecie AI. Z jednej strony otwarte modele, takie jak Kimi K2.5, Meta Llama czy Mistral, napędzają innowacje, pozwalając mniejszym graczom budować zaawansowane produkty. Z drugiej strony twórcy tych modeli szukają sposobów, by ich praca była szanowana, a w przypadku komercyjnego sukcesu na dużą skalę – także wynagradzana.
Licencja typu „używaj za darmo, ale oznacz nas, gdy urosniesz” staje się popularnym kompromisem. Spór Cursor vs. Moonshot będzie testem tego, jak skutecznie takie klauzule mogą być egzekwowane w globalnej, szybko zmieniającej się rzeczywistości. Czy ten przypadek zmusi inne firmy do skrupulatniejszego czytania licencji? Prawdopodobnie tak.
Co dalej?
Na razie Cursor musi uporać się z kryzysem wizerunkowym i wyjaśnić kwestię potencjalnego naruszenia klauzuli oznaczenia w licencji. Po publicznym potwierdzeniu przez Moonshot AI autoryzowanej współpracy bezpośredni konflikt dotyczący legalności użycia modelu został zażegnany. Dla użytkowników Cursora, w tym wielu programistów w Polsce, bezpośredni wpływ tej sytuacji może być minimalny, ale długofalowo sprawa może wpłynąć na tempo rozwoju i strategię doboru modeli AI w ich ulubionym edytorze.
Przypadek ten stanowi ważną lekcję: w erze AI „open source” rzadko oznacza już „bezwarunkowo wolny”. Zawsze należy czytać drobny druk, zwłaszcza gdy firma ma ambicje zostać gigantem. Dla całej branży jest to wyraźne przypomnienie, że transparentność w budowaniu technologii nie jest opcjonalna – stanowi fundament zaufania i bezpieczeństwa prawnego.
W świecie AI, gdzie każdy ogłasza przełom, czasem najgłośniejszym echem odbija się nie sam model, ale to, co ukryto drobnym drukiem. Tak właśnie stało się z Cursor Composer 2, narzędziem do kodowania, które zamiast aplauzu zebrało burzę krytyki. Chodzi o brak transparentności co do jego prawdziwego pochodzenia. Okazało się, że rozwiązanie chwalone jako własna, zaawansowana technologia Cursor, jest w istocie fine-tune'em chińskiego, open-source'owego modelu Kimi K2.5 od Moonshot AI.
Sprawa wyszła na jaw błyskawicznie, bo już w ciągu doby od premiery w marcu 2026 roku. To klasyczny przykład tego, jak społeczność deweloperów potrafi prześwietlić każdy szczegół, a firmy muszą liczyć się z konsekwencjami pominięcia kluczowej informacji.
Od głośnej premiery do szybkiego rozczarowania
Cursor, popularne środowisko programistyczne, ogłosiło Composer 2 z wielkim rozmachem. W komunikacie prasowym chwalono się, że ich nowy, własny model do kodowania przebija wydajnością samego Claude'a Opus 4.6 od Anthropic w kluczowych benchmarkach, oferując przy tym niższy koszt. To była historia, w którą łatwo było uwierzyć: mała, zwinnie rozwijająca się firma pokonuje giganta.
Entuzjazm nie trwał jednak długo. Deweloper o pseudonimie Finn odkrył w API Cursor ukryty identyfikator modelu, który jednoznacznie wskazywał na Kimi K2.5. Swoje odkrycie opublikował na platformie X, a dyskusja momentalnie przeniosła się na Hacker News. To nie były już tylko domysły – użytkownicy zaczęli analizować tokenizer i inne techniczne szczegóły, szukając podobieństw.
Potwierdzenie przyszło z najbardziej wiarygodnego źródła – od samych twórców bazy. Pracownicy Moonshot AI, chińskiej firmy stojącej za modelem Kimi, przeanalizowali dane z API Cursor i publicznie stwierdzili, że Composer 2 używa identycznego tokenizera i należy do rodziny modeli Kimi. Określili go nawet mianem „dalszo wytrenowanej” wersji ich open-source'owego dzieła.
Problem nie w użyciu, lecz w milczeniu
Tutaj zaczyna się sedno całego zamieszania. Kimi K2.5 jest dostępny na otwartej licencji, która wyraźnie wymaga jednoznacznego przypisania autorstwa (attribution). Licencja obliguje użytkownika do stwierdzenia wprost: „to jest Kimi K2.5”. W pierwotnym wpisie na blogu Cursor, ogłaszającym premierę Composer 2, nie padło ani słowo o Moonshot AI, Kimi czy jakiejkolwiek bazowej technologii. Model przedstawiono jako całkowicie własny wysiłek inżynieryjny.
Początkowo pojawiły się nawet oskarżenia, że Cursor nie tylko nie podał źródła, ale mógł też naruszyć warunki licencji lub nie uiścić należnych opłat. Sytuacja wyjaśniła się częściowo, gdy Moonshot AI wydało późniejsze oświadczenie. Firma potwierdziła, że Cursor uzyskał dostęp do modelu poprzez autoryzowaną, komercyjną umowę z platformą Fireworks AI. Nie było więc mowy o nielegalnym użyciu czy kradzieży własności intelektualnej.
Problem pozostał jednak ten sam: fundamentalny brak przejrzystości. Cursor zbudował narrację o własnym, przełomowym modelu, kompletnie pomijając fakt, że stoi na barkach olbrzyma – i to olbrzyma, który wyraźnie żądał uznania autorstwa.
Reakcja Cursor: Przyznanie się do błędu z opóźnieniem
Odpowiedź ze strony Cursor nadeszła po tym, jak dowody techniczne obiegły sieć. Współzałożyciel firmy (w doniesieniach prasowych wymieniany jako Michael Torell, Sualeh Asif lub po prostu „Robinson”) zabrał głos na platformie X. Jego oświadczenie było wyważone, ale jednoznacznie przyznawało się do winy.
„Jestem wielkim zwolennikiem open source… To był błąd, że nie wspomnieliśmy o bazie Kimi w naszym wpisie na blogu od samego początku. Naprawimy to przy kolejnym modelu” – napisał. To kluczowe zdanie przeniosło dyskusję z płaszczyzny prawnej na etyczną. Cursor nie zaprzeczał faktom technicznym, ale przyznał, że zawiódł w kwestii transparentności, która jest fundamentem w świecie open source.
Na forach dyskusyjnych Cursor społeczność programistów była podzielona. Wielu uznało, że sam fakt budowania zaawansowanego produktu na otwartej technologii jest słuszny i pragmatyczny. Jeden z użytkowników trafnie podsumował nastroje: „To, że Composer 2 to Kimi K2.5++, jest w porządku. Brak przejrzystości – już nie”.
Co tak naprawdę kryje się pod nazwą Composer 2?
Warto wyjaśnić techniczną naturę tego, co zrobił Cursor. Composer 2 nie jest zwykłym „reskinem” – czyli przepakowaniem tego samego produktu w nową oprawę. To raczej zaawansowany fine-tune, a możliwe, że także proces treningu z wykorzystaniem uczenia ze wzmocnieniem (RL), przeprowadzony na solidnej, otwartej bazie, jaką jest Kimi K2.5.
Taki proces pozwala znacznie poprawić zdolności modelu w wąskiej dziedzinie, jaką jest generowanie kodu. Efekt końcowy może być rzeczywiście lepszy od oryginału w specyficznych zadaniach, co potwierdzają benchmarki zaprezentowane przez Cursor. Firma nie skłamała co do wydajności. Jednak cała architektura bazowa, włączając w to tokenizer, pozostała niezmieniona i charakterystyczna dla rodziny modeli Kimi, co właśnie pozwoliło na tak szybką identyfikację.
Szersze konsekwencje: Lekcja dla całej branży AI
Ta z pozoru lokalna afera ma daleko idące implikacje dla sposobu, w jaki firmy technologiczne prezentują swoje osiągnięcia w erze AI.
Przejrzystość jako standard etyczny. Incydent potwierdził jasną tezę: korzystanie z open source to nie tylko prawo, ale i obowiązek informacyjny. Pominięcie przypisania autorstwa podważa zaufanie, które jest kluczowe w ekosystemie współpracy. To przestroga dla każdej firmy, która chce balansować między chronieniem własnego know-how a szanowaniem licencji, na których zbudowała swój produkt.
Rola społeczności w weryfikacji. Sytuacja pokazała też siłę oddolnego audytu. Dziś użytkownicy, deweloperzy i badacze mają narzędzia, by w ciągu kilku godzin zweryfikować marketingowe deklaracje poprzez analizę API, benchmarki czy tokenizery. Ogłoszenie premiery modelu to dopiero początek prawdziwego testu wiarygodności.
Geopolityczny wymiar open source. Sprawa nieoczekiwanie uwypukliła także trend geopolityczny. Chińskie firmy, takie jak Moonshot AI, stały się potężnymi graczami w dystrybucji zaawansowanych modeli AI. To komplikuje narrację o technologicznej supremacji Zachodu i rodzi pytania o długoterminowe konsekwencje takiej „dyplomacji open-source”.
Wpływ na praktyki rynkowe. Finalnie incydent może wymusić zmianę praktyk przy wprowadzaniu nowych modeli na rynek. Presja będzie rosła, by obok spektakularnych wykresów wydajności w komunikacie znalazło się również jasne określenie pochodzenia technologii. Wydajność przestanie być jedynym wyznacznikiem sukcesu; uczciwość i zgodność z duchem współpracy staną się równie istotne.
Podsumowanie: Wartość prawdy w erze marketingu
Sprawa Cursor Composer 2 to coś więcej niż chwilowa burza w mediach społecznościowych. To studium przypadku na temat tego, co naprawdę cenią deweloperzy i zaawansowani użytkownicy. Oczekują przełomów, ale wymagają szacunku dla otwartej współpracy, na której zbudowano współczesny ekosystem oprogramowania.
Cursor popełnił błąd, pomijając kluczową informację, ale jego późniejsza reakcja pokazuje, że lekcja została odrobiona. Dla reszty branży powinien to być wyraźny sygnał: budowanie na open source to mocna strona, a nie wstydliwy sekret. Szczerość co do pochodzenia technologii nie umniejsza wartości dopracowanego fine-tune'u czy wygodnego interfejsu – wręcz przeciwnie, buduje zaufanie i wiarygodność, które są o wiele trudniejsze do zdobycia niż kilka punktów procentowych w benchmarku. W dłuższej perspektywie to właśnie to zaufanie decyduje o sukcesie lub porażce.
Nowy model kodujący Cursor Composer 2 z miejsca wskoczył na wysokie pozycje w benchmarkach, bijąc nawet Claude Opus przy znacznie niższych kosztach. Szybko okazało się jednak, że za tym „własnym, najwyższej klasy modelem AI” firmy Cursor stoi inna, potężna technologia. Wszystko przez ujawniony w API identyfikator: kimi-k2p5-rl-0317. To bezpośrednie odniesienie do Kimi K2.5, flagowego modelu chińskiej firmy Moonshot AI.
Sprawa wywołała gorącą dyskusję w środowisku deweloperów. Z jednej strony mamy świetne narzędzie, które faktycznie działa. Z drugiej – pytania o przejrzystość i uznanie dla prawdziwego źródła innowacji. Szczerze mówiąc, to jeden z ciekawszych technologicznych zwrotów akcji ostatnich miesięcy.
Od premiery do kontrowersji: jak odkryto prawdziwe źródło
Cursor ogłosił Composer 2 w marcu 2026 roku. Marketingowo przedstawiano go jako własny model klasy „frontier”, stworzony specjalnie do złożonych, wieloetapowych zadań programistycznych. Model miał być dostępny w edytorze Cursor oraz w wersji alfa nowego interfejsu o nazwie „Glass”.
Już w ciągu 24 godzin od premiery deweloperzy przyglądający się odpowiedziom API odkryli prawdę. W logach i odpowiedziach systemu pojawiał się wewnętrzny identyfikator modelu, taki jak kimi-k2p5-rl-0317-s515-fast. To był jasny sygnał, że podstawą jest Kimi K2.5 od Moonshot AI. Plotki o braku przypisania autorstwa chińskiemu źródłu zaczęły krążyć natychmiast.
Firma Cursor początkowo nie komentowała sprawy bezpośrednio w komunikacji marketingowej. Potwierdzenie przyszło później, między innymi poprzez wypowiedzi pracowników. Lee Robinson z Cursor wspomniał, że tylko około jednej czwartej mocy obliczeniowej wydanej na finalny model pochodziło z bazowego modelu Kimi, a reszta została poświęcona na własne procesy treningowe Cursor.
Ostatecznie Moonshot AI publicznie potwierdził, że Kimi K2.5 stanowi fundament pod Composer 2, a wszystko odbywa się w ramach autoryzowanej współpracy komercyjnej poprzez platformę Fireworks. Kluczowy okazał się też zapis z licencji Kimi K2.5, który wymaga wyraźnego oznaczenia „Kimi K2.5” w interfejsie użytkownika produktów komercyjnych, jeśli przekraczają one próg 100 milionów aktywnych użytkowników miesięcznie lub 20 milionów dolarów miesięcznego przychodu.
Composer 2 vs. konkurencja: liczby nie kłamią
Niezależnie od źródła, wyniki modelu są imponujące. Benchmarki kodowania wyraźnie pokazują jego siłę. W CursorBench osiąga 61,3 punktu, w Terminal-Bench 2.0 – 61,7, a w SWE-bench Multilingual aż 73,7. To pozycjonuje go przed takimi gigantami jak Claude Opus.
Co ważne, ten wynik osiągany jest przy znacznie niższym koszcie. Cursor celowo trenował model wyłącznie na danych kodowych, aby wyspecjalizować go w rozwiązywaniu złożonych, wieloetapowych problemów programistycznych. Model wspiera kontekst o długości 256 tysięcy tokenów.
Jak stwierdził współzałożyciel Cursor, Aman Sanger, model ma bardzo konkretne zastosowanie: „Nie pomoże ci rozliczyć podatków. Nie będzie potrafił pisać wierszy”. To narzędzie dla deweloperów, a nie uniwersalny asystent.
Prawdziwym przełomem jest cena. Spójrzmy na porównanie kosztów za milion tokenów:
Composer 2 (standardowy): 0,50 $ za wejście / 2,50 $ za wyjście.
GPT-4o: od 2,50 $ / 15,00 $ do 5,00 $ / 22,50 $, w zależności od długości kontekstu.
Różnica jest kolosalna, zwłaszcza dla firm intensywnie korzystających z AI. Composer 2 oferuje podobną lub lepszą wydajność w zadaniach kodowych za ułamek ceny najdroższej konkurencji.
Kim jest Kimi K2.5, czyli potęga chińskiego AI w tle
Aby zrozumieć, z czym tak naprawdę mamy do czynienia, trzeba poznać model bazowy. Kimi K2.5 to chiński model open-weights Moonshot AI, jednej z czołowych chińskich firm zajmujących się sztuczną inteligencją.
To potężna jednostka o architekturze Mixture of Experts (MoE) z 1 bilionem parametrów całkowitych i 32 miliardami parametrów aktywnych. Jego działanie ma być nawet do ośmiu razy tańsze niż Claude Opus. Co ciekawe, oferuje kompatybilność z OpenAI API, co znacząco ułatwia integrację. Model jest multimodalny – obsługuje tekst, obraz, audio i wideo, oferuje tzw. „długie myślenie” (long-thinking) oraz możliwość wywoływania funkcji (tool calling).
Deweloperzy mogą uzyskać do niego dostęp bezpośrednio, bez pośrednictwa Cursor. Wystarczy klucz API z platformy Moonshot (platform.moonshot.cn), użycie bazowego URL https://api.moonshot.cn/v1 i wskazanie nazwy modelu jako kimi-k2.5. To pokazuje, że Cursor nie jest jedyną drogą do tej technologii, ale z pewnością dostarcza ją w formie zoptymalizowanej pod kodowanie.
Burza w społeczności: marketing a rzeczywistość
Odkrycie prawdziwej natury Composer 2 wywołało żywiołową reakcję społeczności deweloperskiej. Komentarze krążyły wokół tematu przejrzystości. „Cursor Composer 2 to po prostu Kimi K2.5 z RL” – pisali jedni. Inni dodawali: „Bycie KimiK2.5++ jest w porządku, brak transparentności już nie”.
Warto przypomnieć, że to nie pierwszy raz, gdy Cursor buduje na cudzej technologii. Dyskusja toczyła się też wokół szerszych tematów: rosnącej roli otwartych i półotwartych modeli, ewentualnej reakcji firmy Anthropic (twórcy Claude) na tak bezpośrednie porównania, oraz wartości, jaką takie narzędzie wnosi do własnych, zamkniętych baz kodu w porównaniu do bardziej „agentowych” edytorów.
Wiele osób podkreślało, że finalny produkt jest doskonały i działa znakomicie. Kontrowersje dotyczyły głównie warstwy komunikacyjnej i marketingowego nazywania modelu „własnym”. W świecie open source i współpracy korporacyjnej jasne przypisanie autorstwa jest często kluczowe dla zaufania.
Wnioski: nowa era współpracy i specjalizacji
Sprawa Cursor Composer 2 jest doskonałym studium przypadku dla współczesnego ekosystemu AI. Pokazuje wyraźnie kilka trendów. Po pierwsze, era monolitycznych, samodzielnie budowanych od zera modeli przez każdą firmę może się kończyć. Przyszłość leży w specjalizacji i fine-tuningu potężnych, ogólnych modeli bazowych, często pochodzących od wąskiej grupy liderów.
Po drugie, granice geograficzne w technologii AI są coraz bardziej przepuszczalne. Zachodni produkt, który staje się hitem wśród deweloperów, może mieć serce zaprojektowane i wytrenowane w Chinach. To dowód na globalizację zaawansowanych badań.
Po trzecie, społeczność techniczna jest niezwykle czujna. Marketingowe narracje są weryfikowane w ciągu godzin poprzez analizę logów, odpowiedzi API i porównania benchmarków. Przejrzystość staje się walutą, za którą płaci się zaufaniem użytkowników.
Cursor Composer 2, będący w istocie fine-tune'em Kimi K2.5, pozostaje niezwykle atrakcyjnym narzędziem. Oferuje najwyższą klasę możliwości w zadaniach kodowych za bezprecedensowo niską cenę. Dla deweloperów i firm ta efektywność kosztowa i wydajność mogą być ważniejsze niż korporacyjne pochodzenie modelu. Ostatecznie w kodzie liczy się wynik. A ten, jak na razie, jest znakomity. Cała sytuacja służy jednak jako przypomnienie, że w erze współzależnych modeli AI uczciwość wobec użytkownika co do źródeł technologii jest równie ważna, co same osiągi.
Ostatnie aktualizacje Kimi Code CLI, terminalowego asystenta AI od Moonshot AI, mocno stawiają na kontrolę i przejrzystość. Zamiast agenta działającego jak „czarna skrzynka”, użytkownicy otrzymują narzędzia do zatwierdzania jego planów, śledzenia każdego kroku i sprawnego zarządzania kodem. To wyraźny sygnał, że rozwój tego typu narzędzi idzie w stronę większej współpracy człowieka z AI, a nie pełnej autonomii.
Kluczowe nowości pojawiły się w wersjach 1.7.0, 1.15.0, a zwłaszcza 1.12.0 z lutego 2026 roku. Wprowadzają one tryb planowania, dedykowane polecenie do wizualizacji sesji oraz szereg usprawnień w panelach zatwierdzania i pracy z plikami. Brzmi technicznie? W praktyce to zmiana, która może znacząco przyspieszyć pracę i zwiększyć pewność podczas korzystania z asystenta.
Tryb planowania: najpierw strategia, potem wykonanie
Najważniejszą nowością jest tryb planowania. Dotąd agent mógł od razu przystąpić do modyfikacji plików czy uruchamiania komend. Teraz, po aktywacji trybu (skrótem Shift+Tab lub komendą /plan), jego możliwości są czasowo ograniczone wyłącznie do narzędzi odczytu: przeglądania katalogów (Glob), wyszukiwania w plikach (Grep) i czytania plików (ReadFile).
W tym trybie agent analizuje zadanie, a następnie tworzy ustrukturyzowany plan, który zapisuje w specjalnym pliku. Ten plan to nie luźna notatka, lecz konkretna lista kroków do wykonania. Dopiero po jego stworzeniu agent prosi użytkownika o zatwierdzenie, prezentując plan w specjalnym panelu. Użytkownik może go zaakceptować, odrzucić lub – jak pokazują najnowsze zapowiedzi – zażądać jego edycji. Agent będzie wtedy modyfikował tylko odpowiednie sekcje planu, zamiast przepisywać go od zera.
To podejście eliminuje element zaskoczenia. Zamiast sprawdzać historię poleceń po fakcie, wiesz z góry, co agent zamierza zrobić. Jest to szczególnie cenne przy bardziej złożonych refaktoryzacjach czy migracjach, gdzie niechciana zmiana mogłaby zepsuć projekt.
kimi vis: interaktywna wizualizacja sesji
Drugi filar aktualizacji to nowe polecenie kimi vis. Uruchamia ono interaktywny dashboard w przeglądarce, służący do dogłębnej inspekcji śladów sesji. To potężne narzędzie do debugowania i zrozumienia sposobu działania agenta.
Dashboard pozwala przejrzeć chronologię zdarzeń w sesji (timeline), przyjrzeć się pełnemu kontekstowi rozmowy z modelem (context viewer) oraz analizować statystyki użycia. Co praktyczne, z poziomu wizualizacji można też otworzyć katalog sesji czy skopiować jego ścieżkę. W połączeniu z możliwością eksportu i importu całej sesji do pliku ZIP, kimi vis staje się narzędziem do archiwizacji, dzielenia się przykładowymi sesjami lub analizy problematycznych przypadków.
To kolejny krok w demistyfikacji działania AI. Dzięki wizualizacji możesz zobaczyć, jakie narzędzia były wywoływane, w jakiej kolejności i z jakimi argumentami. Jeśli agent podjął złą decyzję, łatwiej zrozumieć dlaczego.
Usprawnione panele i skróty klawiszowe
Aby proces zatwierdzania planów i odpowiadania na pytania agenta był płynny, znacznie przeprojektowano interfejs w trybie shell. W wersji 1.15.0 wprowadzono szybkie wybieranie opcji za pomocą klawiszy numerycznych (1-5) w panelach pytań i zatwierdzeń.
Dodano też nawigację „zakładkową” dla paneli z wieloma pytaniami. Za pomocą strzałek lewo/prawo lub klawisza Tab można przełączać się między pytaniami, co jest bardzo intuicyjne. Panel wizualnie wskazuje, które pytania mają już przypisaną odpowiedź, które jest bieżące, a które oczekują na reakcję. Stan ten jest przywracany po powrocie do danego pytania.
Może wydawać się to drobnostką, ale ma ogromny wpływ na ergonomię. Praca z agentem przestaje być walką z interfejsem, a staje się płynną interakcją. Usunięcie prefiksu z nazwą użytkownika z promptu również uprościło i oczyściło widok terminala.
Lepsza praca z plikami i zasobami
Obsługa plików została dopracowana w kilku obszarach. Po pierwsze, udoskonalono mechanizm wzmiankowania plików za pomocą @. W interfejsie webowym (a koncepcja ta jest kluczowa dla całego ekosystemu) po naciśnięciu @ pojawia się menu z autouzupełnianiem, pozwalając szybko odnosić się do załączonych plików czy plików w obszarze roboczym.
Co ważne, indeks tych plików jest teraz odświeżany po zmianie sesji lub gdy pliki w workspace ulegną zmianie, co eliminuje problem nieaktualnych sugestii. W wersji 1.12.0 dodano też wsparcie dla osadzonej treści zasobów w trybie ACP (Agent Communication Protocol). To techniczna, ale istotna zmiana, która zapewnia, że gdy używamy Kimi z edytorami takimi jak Zed, Neovim czy Emacs, odwołania do plików za pomocą @ poprawnie dołączają ich zawartość do kontekstu.
Kontekst i moc modelu K2.5
Warto pamiętać, że Kimi Code CLI to tylko klient. Jego możliwości są bezpośrednio powiązane z modelem językowym, z którym współpracuje. Obecnie jest to głównie Kimi K2.5, potężny model o architekturze Mixture-of-Experts (MoE).
K2.5 ma imponujące parametry: 1 bilion parametrów całkowitych, z czego 32 miliardy są aktywne podczas inferencji. Jego skuteczność w zadaniach inżynierii oprogramowania potwierdza wynik 92,3% w OCRBench – benchmarku do oceny zdolności wizualnego kodowania. Co kluczowe dla programistów, oferuje tzw. „thinking mode” (tryb myślenia), który pozwala modelowi na dłuższe, wewnętrzne rozumowanie przed podaniem odpowiedzi. W kontekście CLI model ten jest nie tylko potężny, ale i relatywnie tani, co czyni go konkurencyjnym wobec rozwiązań takich jak Claude Code.
Podsumowanie: więcej kontroli, mniej niespodzianek
Ostatnie aktualizacje Kimi Code CLI jasno wyznaczają kierunek: uczynienie AI-assisted coding procesem bardziej przewidywalnym, kontrolowanym i przejrzystym. Tryb planowania oddaje inicjatywę strategiczną w ręce użytkownika, narzędzie kimi vis daje wgląd w „myślenie” agenta, a dopracowane panele i obsługa plików usuwają bariery w codziennej interakcji.
To nie jest już tylko narzędzie do szybkiego generowania kodu. To coraz bardziej dojrzała platforma do współpracy, w której AI działa jak starannie nadzorowany partner, a nie nieprzewidywalny automat. Dla programistów, którzy potrzebują nie tylko szybkości, ale też pewności i możliwości audytu zmian, te funkcje mogą być decydującym argumentem.
Narzędzia typu AI agent w terminalu stają się coraz bardziej zaawansowane, a najnowsza aktualizacja Kimi Code CLI to wyraźny tego dowód. Wersja 1.19.0 wprowadza kluczowe funkcje, które mogą zmienić sposób pracy z kodującym agentem. To nie tylko kosmetyczne poprawki, ale zmiany zwiększające kontrolę i zrozumienie działania całego systemu.
Kimi Code CLI od Moonshot AI to narzędzie terminalowe, które działa jak interaktywny asystent programistyczny. Łączy w sobie chat z modelem Kimi K2.5, możliwość edycji kodu, wykonywania poleceń systemowych oraz integracji z IDE (takimi jak Zed) przez protokół MCP. Teraz, dzięki nowym funkcjom, staje się jeszcze bardziej transparentnym i przewidywalnym partnerem w pracy.
Nowe narzędzia i komendy slash
Najważniejszą nowością jest wprowadzenie nowych narzędzi i komend slash. To rozwiązanie odpowiada na potrzebę efektywnego zarządzania projektem i kodem. Agent może teraz korzystać z potężnych narzędzi read-only, takich jak: ** Glob – przeglądanie plików w katalogu roboczym.** Grep – przeszukiwanie zawartości plików.
ReadFile – odczytywanie konkretnych plików.
Ponadto wprowadzono nowe komendy slash, w tym /export i /import, które pozwalają na eksport i import historii sesji do plików Markdown. Dzięki temu programista ma lepszy wgląd w strukturę projektu i może łatwiej zarządzać kontekstem swojej pracy.
W praktyce oznacza to, że gdy poprosisz agenta o „dodanie funkcji logowania”, może on najpierw przejrzeć strukturę projektu za pomocą Glob, sprawdzić istniejące endpointy używając Grep, a następnie zaproponować, które pliki trzeba zmodyfikować i jaką logikę zaimplementować. Użytkownik może zaakceptować lub odrzucić ten tok myślenia, mając pełny wgląd w sytuację.
Stabilność i płynność interakcji
Aktualizacja 1.19.0 to nie tylko nowe funkcje. Zawiera też kluczowe poprawki stabilności, które wpływają na płynność pracy:
Naprawa zarządzania stanem streamowania sesji w interfejsie webowym: Poprawiono błędy związane z referencjami do wartości null podczas resetowania stanu. To techniczna, ale ważna zmiana, która zapobiega niespodziewanym awariom interfejsu.
Zachowywanie poleceń slash przy przełączaniu sesji: Wcześniej, podczas szybkiego przełączania się między sesjami, wpisane polecenie (np. /help) mogło na chwilę zniknąć z promptu. Teraz pozostaje na swoim miejscu, co poprawia komfort pracy.
Te poprawki pokazują, że rozwój Kimi Code CLI idzie w parze z dbałością o detale i wygodę użytkownika.
Kontekst: Kimi Code CLI na tle konkurencji
Aby zrozumieć znaczenie tej aktualizacji, warto spojrzeć na szerszy kontekst. Kimi Code CLI to jedna z kilku terminalowych „powłok” dla asystentów AI, obok takich narzędzi jak Claude Code czy Gemini CLI. Jego przewagami są niski koszt korzystania z API modelu Kimi K2.5 oraz integracja z popularnymi edytorami kodu.
Sam model Kimi K2.5 to model typu Mixture of Experts (MoE). Choć nie oferuje tak ogromnego okna kontekstowego jak niektóre alternatywy (np. 1 milion tokenów), to jego wydajność i niski koszt czynią go atrakcyjnym wyborem do codziennego „vibe codingu” i zadań deweloperskich.
Nowe funkcje z wersji 1.19.0 są odpowiedzią na ewoluujące potrzeby rynku. Narzędzia do odczytu bezpośrednio rozwiązują problem efektywnego przeszukiwania i analizy kodu, na który często wskazywała społeczność. Komendy /export i /import wychodzą naprzeciw potrzebie archiwizacji i udostępniania sesji, co jest kluczowe w profesjonalnych zastosowaniach.
Co to oznacza dla programistów?
Wprowadzenie nowych narzędzi i komend to coś więcej niż tylko dodanie nowych funkcji. To krok w kierunku bardziej efektywnej współpracy.
Dla programisty praca z Kimi Code CLI staje się relacją z wydajnym partnerem. Można pozwolić agentowi na wykonanie żmudnej pracy, mając jednocześnie do dyspozycji lepsze narzędzia, aby nadać jej kierunek i zrozumieć kontekst. Znacznie zwiększa to efektywność interakcji.
Podsumowanie
Wydanie Kimi Code CLI w wersji 1.19.0 to znaczący krok w ewolucji terminalowych asystentów AI. Poprzez wprowadzenie nowych narzędzi do odczytu i komend zarządzania sesjami, narzędzie stawia na wydajność i kontrolę użytkownika. Funkcje te odpowiadają na realne wyzwania związane z używaniem autonomicznych agentów w codziennej pracy programistycznej, oferując praktyczne rozwiązania.
W połączeniu z niskim kosztem użycia, integracjami z IDE i wsparciem dla protokołów takich jak MCP, Kimi Code CLI umacnia swoją pozycję jako dojrzałe narzędzie w ekosystemie AI dla deweloperów. Dynamiczne tempo rozwoju i reagowanie na feedback użytkowników to dobry prognostyk dla każdego, kto szuka sprawnego i przewidywalnego asystenta w terminalu.
Firma Moonshot AI wydała nową wersję swojego terminalowego asystenta AI dla programistów. Kimi Code CLI 1.12.0 skupia się na zwiększeniu stabilności i poszerzeniu funkcjonalności w kluczowych obszarach: trybie Shell, rdzeniu (Core) oraz integracji z edytorami poprzez ACP. Wydanie nie wprowadza rewolucyjnych zmian, ale konsekwentnie eliminuje znane błędy i dodaje przydatne usprawnienia.
Kluczowe poprawki w trybie ACP
Tryb Agent Client Protocol (ACP) służy do integracji Kimi CLI z edytorami kodu i IDE, takimi jak Zed czy Neovim. To właśnie tutaj pojawiła się jedna z najważniejszych poprawek w tej wersji.
ACP obsługuje teraz zasoby osadzone (embedded resource content). W praktyce oznacza to, że gdy w edytorze używasz referencji do pliku (np. poprzez @ w Zed), Kimi CLI poprawnie zinterpretuje tę informację i włączy treść pliku do kontekstu. Poprawka rozwiązuje konkretny problem, w którym Zed ACP nie rozpoznawał obsługiwanych plików, co utrudniało naturalną współpracę między edytorem a agentem.
Ta zmiana jest istotna dla codziennej pracy. Agent, otrzymując pełną treść referowanego pliku, może precyzyjniej odpowiadać na pytania dotyczące konkretnych fragmentów kodu lub sugerować modyfikacje. Wspiera to filozofię „vibe coding”, czyli wykonywania zadań programistycznych poprzez rozmowę w języku naturalnym.
Shell: większa stabilność
Tryb Shell Kimi CLI pozwala na bezpośrednią interakcję z agentem w terminalu, z integracją z Zsh i możliwością przełączania się między funkcjonalnościami. Wersja 1.12.0 wzmacnia jego stabilność.
Naprawiono istotny błąd powodujący crash aplikacji, który występował, gdy dane w schowku (clipboard) miały wartość `None`. Eliminacja takich błędów sprawia, że codzienne korzystanie z CLI jest mniej frustrujące i bardziej przewidywalne.
Usprawnienia rdzenia (Core)
Rdzeń Kimi CLI, który zarządza komunikacją z modelami AI, również został zoptymalizowany. Zmiany dotyczą poprawy ogólnej niezawodności i kompatybilności z zewnętrznymi dostawcami (providerami) API, choć szczegóły implementacyjne mogą ewoluować.
Web: odporne połączenia
Komponent Web, czyli interfejs przeglądarkowy dostępny przez polecenie kimi web, został usprawniony pod kątem odporności na problemy sieciowe.
Zaimplementowano automatyczną logikę ponawiania prób (retry) dla inicjalizacji sesji. Jeśli początkowe połączenie nie powiedzie się, system spróbuje połączyć się ponownie, co zwiększa szansę na poprawne rozpoczęcie pracy bez konieczności ręcznej interwencji użytkownika.
Kimi CLI w szerszym kontekście: nie tylko agent
Kimi Code CLI od Moonshot AI to open-source’owy terminalowy agent AI stworzony do zadań związanych z wytwarzaniem oprogramowania. To nie tylko narzędzie do rozmowy o kodzie. Jak przypomniano w dokumentacji: „Kimi Code CLI is not only a coding agent, but also a shell”.
Narzędzie obsługuje trzy główne tryby pracy:
Interaktywny CLI (kimi) do czatu w języku naturalnym i wykonywania poleceń powłoki.
Interfejs przeglądarkowy (kimi web) z zarządzaniem sesjami, referencjami do plików i podświetlaniem składni (syntax highlighting).
Integrację z IDE (kimi --acp) poprzez Agent Client Protocol działający jako usługa.
Jako projekt open-source, Kimi Code CLI rozwija się dynamicznie dzięki zgłoszeniom społeczności. Poprawka dla ACP związana z zasobami osadzonymi jest przykładem reakcji na błędy zgłoszone przez użytkowników edytora Zed. Projekt cieszy się dużym zainteresowaniem, gromadząc tysiące gwiazdek w serwisie GitHub.
Dlaczego te poprawki są istotne dla WebDev i DevOps
Wydanie 1.12.0 trafia w potrzeby praktyków web developmentu i DevOps. Stabilność w trybie Shell jest kluczowa dla automatyzacji i skryptowania. Poprawki w Core zapewniają, że integracja z modelami AI działa bez zakłóceń, co stanowi fundament nowoczesnego workflow opartego na sztucznej inteligencji.
Obsługa zasobów osadzonych w ACP bezpośrednio wspiera pracę w edytorach, gdzie szybkie odwołania do plików są codziennością. Z kolei wzmocnienie komponentu Web sprawia, że korzystanie z interfejsu przeglądarkowego jest bardziej niezawodne, nawet w środowiskach z niestabilnym łączem.
Wnioski: krok w stronę niezawodnego środowiska
Wersja Kimi Code CLI 1.12.0 to kolejny krok w ewolucji tego narzędzia. Twórcy skupili się na eliminowaniu błędów i zwiększaniu odporności systemu. Takie podejście jest kluczowe dla użytkowników, którzy na co dzień wykorzystują CLI w swojej pracy, ponieważ bezpośrednio przekłada się na komfort i wydajność.
Naprawa błędów krytycznych, usprawnienia w API oraz wzmocnienie logiki połączeń to zmiany ukierunkowane na praktyczne scenariusze użycia. Pokazują one, że rozwój projektu jest ściśle powiązany z realnymi potrzebami społeczności oraz wymaganiami integracji z innymi elementami ekosystemu programistycznego.