Platforma Windsurf wprowadziła funkcję o nazwie Adaptacyjny Router Modeli. Jest to mechanizm, który automatycznie wybiera model AI najlepiej dopasowany do konkretnego zadania programistycznego. Rozwiązanie to ma pomóc użytkownikom lepiej wykorzystywać miesięczne limity tokenów i usprawnić codzienną pracę z kodem.
Adaptacyjny router modeli: Zarządzanie zasobami AI
Adaptacyjny Router Modeli analizuje zadania zlecane asystentowi Cascade i dobiera do nich odpowiedni model. System ten zapobiega wykorzystywaniu zaawansowanych i kosztownych modeli do prostych operacji, które mogą zostać wykonane przez tańsze jednostki. Dzięki temu programiści korzystający z planów Pro, Max lub Teams mogą rzadziej przekraczać swoje limity subskrypcyjne.
Funkcja jest dostępna dla użytkowników indywidualnych oraz zespołów w planach samoobsługowych. Windsurf ustawił ją jako opcję domyślną. Przez najbliższe dwa tygodnie obowiązują również niższe stawki za korzystanie z routera po wyczerpaniu limitu: 0,50 USD za 1 milion tokenów wejściowych, 2 USD za 1 milion tokenów wyjściowych oraz 0,10 USD za 1 milion tokenów odczytu z pamięci podręcznej (cache).
Transparentność kosztów i monitorowanie zużycia
Wraz z nową funkcją zmienił się interfejs wyboru modelu. W menu wyboru przy każdej opcji widnieje teraz dokładny cennik za tokeny wejściowe, wyjściowe oraz odczyt z cache. Pozwala to sprawdzić koszt operacji przed wysłaniem zapytania do AI.
W oknie kontekstu pojawił się licznik czasu pamięci podręcznej, który pokazuje status wykorzystania mechanizmu optymalizacji kosztów. Dodatkowo każda odpowiedź asystenta zawiera teraz informację o liczbie zużytych tokenów. Te dane pozwalają na bieżąco kontrolować wydatki i pozostały limit w ramach abonamentu.
Usunięcie dziennych limitów w planie Max
Windsurf zmienił zasady korzystania z planu Max, usuwając z niego dzienne ograniczenia. Wcześniej użytkownicy tej subskrypcji, mimo posiadania miesięcznej puli, byli ograniczani dobowymi limitami. Obecnie mogą oni wykorzystać cały dostępny limit w dowolnym czasie, co ułatwia pracę przy intensywnych projektach wymagających wielu godzin ciągłego kodowania.
Rozwój platformy Windsurf
Windsurf rozwija asystenta Cascade, który zajmuje się pisaniem i naprawianiem kodu oraz planowaniem kolejnych etapów pracy. Wprowadzenie adaptacyjnego routera modeli ma sprawić, że korzystanie z narzędzi AI stanie się bardziej przewidywalne pod względem kosztów.
Firma planuje dalsze aktualizacje systemu routingu. Algorytm dobierający modele ma być rozwijany, aby w przyszłości jeszcze dokładniej dopasowywać moc obliczeniową AI do potrzeb programistów.
W świecie sztucznej inteligencji doszło do poważnego wycieku informacji, który może zwiastować zmianę na szczycie rankingu modeli. Z wewnętrznych dokumentów firmy Anthropic wynika, że trwają prace nad modelem o kryptonimie Claude Mythos, który ma być znaczącym skokiem jakościowym w stosunku do obecnej flagowej oferty Claude 3 Opus. Materiały, obejmujące m.in. wersje robocze wpisów na bloga, trafiły do sieci w wyniku błędu konfiguracji systemu CMS.
Dokumenty opisują model jako „znaczącą zmianę” i rozwiązanie „dużo większe oraz inteligentniejsze” od linii Opus. Co konkretnie ma go wyróżniać? Przede wszystkim znacznie wyższe wyniki w kluczowych benchmarkach dotyczących tworzenia kodu, rozumowania akademickiego oraz – co budzi największe emocje – cyberbezpieczeństwa. Szkolenie modelu zostało już zakończone, a firma określa go jako „najpotężniejszy model AI, jaki kiedykolwiek opracowaliśmy”.
Nieplanowane ujawnienie i bezpieczeństwo na pierwszym miejscu
Sam wyciek to historia o ludzkim błędzie. Domyślne ustawienie systemu do zarządzania treścią sprawiło, że blisko 3 tysiące nieopublikowanych materiałów stało się publicznie dostępnych. Poinformowana o sytuacji firma Anthropic natychmiast zabezpieczyła dane, potwierdzając jednocześnie autentyczność przecieku jako „wczesnych wersji roboczych”.
Reakcja firmy na całą sytuację jest wymowna. Z dokumentów wynika, że planowany rollout Claude Mythos ma być niezwykle ostrożny i skupiony na bezpieczeństwie. Model ma trafić najpierw do wąskiej grupy testerów (early adopters), szczególnie w kontekście oceny ryzyk cybernetycznych. W jednym z ujawnionych fragmentów czytamy, że firma chce działać ze szczególną ostrożnością i zrozumieć zagrożenia, jakie stwarza nowy model. To podejście nie bierze się znikąd – wcześniej firma zidentyfikowała przypadki, w których hakerzy wykorzystywali Claude Code do ataków na firmy technologiczne i banki.
Potencjalne zmiany na rynku AI i w pracy deweloperów
Gdyby potencjał nowego modelu potwierdził się w rzeczywistych zastosowaniach, mógłby on istotnie zachwiać pozycją głównych graczy, takich jak OpenAI czy Google. Przewaga w obszarach kluczowych dla przedsiębiorstw – takich jak generowanie i audyt kodu czy zaawansowane rozumowanie – jest właśnie tym, o co toczy się najcięższa walka.
Dla świata web developmentu, DevOps i hostingu zapowiadane możliwości są dwuznaczne. Z jednej strony model zdolny do błyskawicznego wykrywania podatności w kodzie może zrewolucjonizować narzędzia do bezpiecznego wdrażania aplikacji i zarządzania infrastrukturą. Z drugiej strony ta sama zdolność rodzi poważne obawy dotyczące tzw. podwójnego zastosowania (dual-use). Claude Mythos mógłby równie skutecznie służyć do automatycznego znajdowania luk, które następnie byłyby wykorzystywane w atakach. To stawia przed społecznością pytanie o nową granicę w wyścigu zbrojeń między AI ofensywnym a defensywnym.
Co dalej z nowym modelem?
Choć wyciek ujawnił karty, pełny obraz możliwości Claude Mythos poznamy dopiero, gdy model zostanie oficjalnie udostępniony. Strategia Anthropic, polegająca na bardzo stopniowym wprowadzaniu technologii, wydaje się rozsądna, biorąc pod uwagę jej potencjalną siłę rażenia. Firma zdaje się świadomie wybierać ścieżkę odpowiedzialności, nawet jeśli oznacza to wolniejsze tempo niż u konkurencji.
Jedno jest pewne: wyścig o tworzenie najbardziej zaawansowanych i jednocześnie bezpiecznych modeli sztucznej inteligencji wchodzi w nową fazę. Jeśli doniesienia się potwierdzą, to nie tylko rankingi benchmarków, ale też praktyczne narzędzia dla programistów i specjalistów IT mogą wkrótce wyglądać inaczej. Ostatecznie jednak to nie rekordy w testach, a realny, kontrolowany wpływ na bezpieczeństwo cyfrowe okaże się prawdziwym sprawdzianem dla nowego lidera.
Wyciek prawie 3000 wewnętrznych dokumentów z systemów Anthropic wstrząsnął światem AI. Nie chodziło jednak o kolejną drobną usterkę. W publicznym cache'u znalazły się plany dotyczące czegoś, co może zmienić układ sił: nowego, najpotężniejszego modelu o kryptonimie Capybara i roboczej nazwie Claude Mythos. Plotki, które od miesięcy krążyły w społeczności, nagle zyskały twarde potwierdzenie. I choć to tylko szkic, a nie oficjalna premiera, ujawnione szczegóły pozwalają mówić o potencjalnym skoku generacyjnym.
Sprawę ujawnił błąd konfiguracji w wewnętrznym systemie zarządzania treścią firmy, co zostało przeanalizowane przez zewnętrzne redakcje. To właśnie tam, między wierszami dokumentów, ukryta była informacja o czymś większym niż Claude Opus.
Nowa hierarchia: Mythos góruje nad Opus
Anthropic od dawna buduje swoją ofertę wokół trójstopniowej drabiny modeli. Na szczycie stał dotąd Claude Opus, niżej Sonnet, a na dole Haiku. To przejrzysty podział, który klienci już poznali i polubili. Wyciek ujawnił jednak, że firma szykuje czwarty, najwyższy poziom. I nie będzie to drobna aktualizacja.
Claude Mythos, wewnętrznie nazywany Capybara (od największego gryzonia na świecie), ma zająć pozycję wyraźnie powyżej obecnego topowego modelu Opus. Przeanalizowane dokumenty nie pozostawiają wątpliwości: model „uzyskuje dramatycznie wyższe wyniki”. To sformułowanie, które pada w kontekście kluczowych benchmarków. Szczególnie mocno podkreślane są trzy dziedziny: kodowanie, rozumowanie akademickie oraz – co budzi największe emocje – cyberbezpieczeństwo.
Co to oznacza w praktyce? Jeśli wierzyć szkicom, Capybara może oferować wsparcie programistyczne na poziomie nieosiągalnym dla obecnych asystentów. Reasoning, czyli zdolność do logicznego wnioskowania w skomplikowanych problemach akademickich, również ma wejść na nowy poziom. Ale to trzecia umiejętność rzuca najdłuższy cień.
Cyberbezpieczeństwo: obosieczny miecz Capybary
To właśnie tutaj wyciek staje się najbardziej niepokojący. Jeden z dokumentów zawiera zdanie, które zapada w pamięć: model jest opisywany jako znacznie bardziej zaawansowany pod względem możliwości cybernetycznych. W świecie, który dopiero uczy się żyć z zagrożeniami ze strony AI, taka deklaracja brzmi jak ostrzeżenie.
Anthropic zdaje się być tego w pełni świadomy. Firma w ujawnionych materiałach podkreśla potrzebę działania „z dodatkową ostrożnością”. Chce dokładnie zrozumieć związane z tym ryzyka, szczególnie w obszarze cybersecurity. Dlaczego? Aby pomóc obrońcom – specjalistom od bezpieczeństwa IT – przygotować się na potencjalną nową falę ataków napędzanych przez sztuczną inteligencję tej klasy.
To niezwykle odpowiedzialne, ale i strategiczne podejście. Zamiast wypuszczać potencjalnie niebezpieczne narzędzie na otwarty rynek, Anthropic planuje, według dokumentów, udostępnić je najpierw wąskiej grupie ekspertów od cyberbezpieczeństwa. Ma to na celu wzmocnienie ich pozycji w wyścigu zbrojeń z przestępcami, którzy z pewnością też będą chcieli wykorzystać podobną technologię.
Status projektu: testy tak, publiczny release nie
Co teraz z samym modelem? Według wyciekłego szkicu wpisu na blogu, model o nazwach Claude Mythos/Capybara istnieje. Anthropic publicznie potwierdził testy nowego, przełomowego modelu z klientami w ramach early access, ale nie użył konkretnych nazw „Mythos” czy „Capybara”. Z dokumentów wynika, że model ukończył fazę treningową, co sugeruje zaawansowany etap rozwoju. Jednak kluczowa informacja brzmi: firma podkreśla niezwykle ostrożne podejście i brak sztywnego harmonogramu publicznej premiery.
To ważne rozróżnienie. Model nie jest gotowym produktem czekającym na półce. Jest raczej potężnym narzędziem badawczym i strategicznym, które zostanie najpierw użyte w kontrolowanym środowisku. Dostęp, jak wynika z przecieków, ma być ograniczony początkowo do zaufanych organizacji i specjalistów od cyberbezpieczeństwa. To środowisko, w którym ryzykiem można lepiej zarządzać, a korzyści – dokładnie zmierzyć.
Taka strategia przypomina nieco podejście do zaawansowanych technologii w sektorze obronnym. Najpierw trafiają one do jednostek specjalnych, zanim – o ile w ogóle – staną się powszechnie dostępne. Anthropic zdaje się traktować zaawansowane zdolności cybernetyczne AI z podobną powagą.
Co to znaczy dla rynku i przyszłości AI?
Wyciek o Claude Mythos, nawet będący jedynie szkicem, jasno pokazuje kierunek, w którym zmierza wyścig gigantów AI. Nie chodzi już tylko o to, kto napisze lepszy wiersz lub podsumuje artykuł. Kluczowa walka toczy się o twarde, praktyczne umiejętności: tworzenie kodu, rozwiązywanie złożonych problemów naukowych i operacje w cyberprzestrzeni.
Fakt, że Anthropic priorytetowo traktuje cyberbezpieczeństwo, jest znaczący. Pokazuje, że liderzy branży zaczynają postrzegać potęgę swoich modeli nie tylko przez pryzmat korzyści, ale i nieodłącznych zagrożeń. Responsible AI przestaje być pustym hasłem z broszury marketingowej, a staje się centralnym elementem strategii wdrażania.
Pojawienie się nowego poziomu „Mythos” powyżej „Opus” stawia też pytanie o przyszłość oferty Anthropic. Czy to jednorazowy, superzaawansowany projekt do wąskich zastosowań? Czy może zapowiedź nowej, stałej linii produktów, która na zawsze podniesie poprzeczkę? Odpowiedź na to pytanie będzie kształtować nie tylko przyszłość samej firmy, ale i oczekiwania wszystkich użytkowników zaawansowanej sztucznej inteligencji.
Podsumowanie: między potencjałem a ostrożnością
Historia Claude'a Mythos to na razie opowieść złożona z przecieków, potwierdzonych testów i daleko idącej ostrożności. Capybara, jak na największego gryzonia przystało, ma być potężna, ale jej siła budzi respekt nawet u twórców. Dramatycznie lepsze kodowanie i reasoning to obietnica kolejnej rewolucji w produktywności. Jednak to bezprecedensowe zdolności w dziedzinie cyberbezpieczeństwa czynią z tego modelu obiekt zarówno ogromnych nadziei, jak i głębokich obaw.
Strategia Anthropic – najpierw testy z obrońcami, potem ewentualnie szersze wdrożenie – wydaje się rozsądnym, choć niepozbawionym wyzwań podejściem do technologii o tak dużej sile rażenia. Wyciek, choć niezamierzony, postawił firmę i całą branżę przed ważną publiczną dyskusją na temat granic i odpowiedzialności. Zanim Capybara pokaże pełnię swoich możliwości, świat ma szansę przygotować się na jej nadejście. A to może być najcenniejszym efektem całego tego zamieszania.
Nowy model kodujący Cursor Composer 2 z miejsca wskoczył na wysokie pozycje w benchmarkach, bijąc nawet Claude Opus przy znacznie niższych kosztach. Szybko okazało się jednak, że za tym „własnym, najwyższej klasy modelem AI” firmy Cursor stoi inna, potężna technologia. Wszystko przez ujawniony w API identyfikator: kimi-k2p5-rl-0317. To bezpośrednie odniesienie do Kimi K2.5, flagowego modelu chińskiej firmy Moonshot AI.
Sprawa wywołała gorącą dyskusję w środowisku deweloperów. Z jednej strony mamy świetne narzędzie, które faktycznie działa. Z drugiej – pytania o przejrzystość i uznanie dla prawdziwego źródła innowacji. Szczerze mówiąc, to jeden z ciekawszych technologicznych zwrotów akcji ostatnich miesięcy.
Od premiery do kontrowersji: jak odkryto prawdziwe źródło
Cursor ogłosił Composer 2 w marcu 2026 roku. Marketingowo przedstawiano go jako własny model klasy „frontier”, stworzony specjalnie do złożonych, wieloetapowych zadań programistycznych. Model miał być dostępny w edytorze Cursor oraz w wersji alfa nowego interfejsu o nazwie „Glass”.
Już w ciągu 24 godzin od premiery deweloperzy przyglądający się odpowiedziom API odkryli prawdę. W logach i odpowiedziach systemu pojawiał się wewnętrzny identyfikator modelu, taki jak kimi-k2p5-rl-0317-s515-fast. To był jasny sygnał, że podstawą jest Kimi K2.5 od Moonshot AI. Plotki o braku przypisania autorstwa chińskiemu źródłu zaczęły krążyć natychmiast.
Firma Cursor początkowo nie komentowała sprawy bezpośrednio w komunikacji marketingowej. Potwierdzenie przyszło później, między innymi poprzez wypowiedzi pracowników. Lee Robinson z Cursor wspomniał, że tylko około jednej czwartej mocy obliczeniowej wydanej na finalny model pochodziło z bazowego modelu Kimi, a reszta została poświęcona na własne procesy treningowe Cursor.
Ostatecznie Moonshot AI publicznie potwierdził, że Kimi K2.5 stanowi fundament pod Composer 2, a wszystko odbywa się w ramach autoryzowanej współpracy komercyjnej poprzez platformę Fireworks. Kluczowy okazał się też zapis z licencji Kimi K2.5, który wymaga wyraźnego oznaczenia „Kimi K2.5” w interfejsie użytkownika produktów komercyjnych, jeśli przekraczają one próg 100 milionów aktywnych użytkowników miesięcznie lub 20 milionów dolarów miesięcznego przychodu.
Composer 2 vs. konkurencja: liczby nie kłamią
Niezależnie od źródła, wyniki modelu są imponujące. Benchmarki kodowania wyraźnie pokazują jego siłę. W CursorBench osiąga 61,3 punktu, w Terminal-Bench 2.0 – 61,7, a w SWE-bench Multilingual aż 73,7. To pozycjonuje go przed takimi gigantami jak Claude Opus.
Co ważne, ten wynik osiągany jest przy znacznie niższym koszcie. Cursor celowo trenował model wyłącznie na danych kodowych, aby wyspecjalizować go w rozwiązywaniu złożonych, wieloetapowych problemów programistycznych. Model wspiera kontekst o długości 256 tysięcy tokenów.
Jak stwierdził współzałożyciel Cursor, Aman Sanger, model ma bardzo konkretne zastosowanie: „Nie pomoże ci rozliczyć podatków. Nie będzie potrafił pisać wierszy”. To narzędzie dla deweloperów, a nie uniwersalny asystent.
Prawdziwym przełomem jest cena. Spójrzmy na porównanie kosztów za milion tokenów:
Composer 2 (standardowy): 0,50 $ za wejście / 2,50 $ za wyjście.
GPT-4o: od 2,50 $ / 15,00 $ do 5,00 $ / 22,50 $, w zależności od długości kontekstu.
Różnica jest kolosalna, zwłaszcza dla firm intensywnie korzystających z AI. Composer 2 oferuje podobną lub lepszą wydajność w zadaniach kodowych za ułamek ceny najdroższej konkurencji.
Kim jest Kimi K2.5, czyli potęga chińskiego AI w tle
Aby zrozumieć, z czym tak naprawdę mamy do czynienia, trzeba poznać model bazowy. Kimi K2.5 to chiński model open-weights Moonshot AI, jednej z czołowych chińskich firm zajmujących się sztuczną inteligencją.
To potężna jednostka o architekturze Mixture of Experts (MoE) z 1 bilionem parametrów całkowitych i 32 miliardami parametrów aktywnych. Jego działanie ma być nawet do ośmiu razy tańsze niż Claude Opus. Co ciekawe, oferuje kompatybilność z OpenAI API, co znacząco ułatwia integrację. Model jest multimodalny – obsługuje tekst, obraz, audio i wideo, oferuje tzw. „długie myślenie” (long-thinking) oraz możliwość wywoływania funkcji (tool calling).
Deweloperzy mogą uzyskać do niego dostęp bezpośrednio, bez pośrednictwa Cursor. Wystarczy klucz API z platformy Moonshot (platform.moonshot.cn), użycie bazowego URL https://api.moonshot.cn/v1 i wskazanie nazwy modelu jako kimi-k2.5. To pokazuje, że Cursor nie jest jedyną drogą do tej technologii, ale z pewnością dostarcza ją w formie zoptymalizowanej pod kodowanie.
Burza w społeczności: marketing a rzeczywistość
Odkrycie prawdziwej natury Composer 2 wywołało żywiołową reakcję społeczności deweloperskiej. Komentarze krążyły wokół tematu przejrzystości. „Cursor Composer 2 to po prostu Kimi K2.5 z RL” – pisali jedni. Inni dodawali: „Bycie KimiK2.5++ jest w porządku, brak transparentności już nie”.
Warto przypomnieć, że to nie pierwszy raz, gdy Cursor buduje na cudzej technologii. Dyskusja toczyła się też wokół szerszych tematów: rosnącej roli otwartych i półotwartych modeli, ewentualnej reakcji firmy Anthropic (twórcy Claude) na tak bezpośrednie porównania, oraz wartości, jaką takie narzędzie wnosi do własnych, zamkniętych baz kodu w porównaniu do bardziej „agentowych” edytorów.
Wiele osób podkreślało, że finalny produkt jest doskonały i działa znakomicie. Kontrowersje dotyczyły głównie warstwy komunikacyjnej i marketingowego nazywania modelu „własnym”. W świecie open source i współpracy korporacyjnej jasne przypisanie autorstwa jest często kluczowe dla zaufania.
Wnioski: nowa era współpracy i specjalizacji
Sprawa Cursor Composer 2 jest doskonałym studium przypadku dla współczesnego ekosystemu AI. Pokazuje wyraźnie kilka trendów. Po pierwsze, era monolitycznych, samodzielnie budowanych od zera modeli przez każdą firmę może się kończyć. Przyszłość leży w specjalizacji i fine-tuningu potężnych, ogólnych modeli bazowych, często pochodzących od wąskiej grupy liderów.
Po drugie, granice geograficzne w technologii AI są coraz bardziej przepuszczalne. Zachodni produkt, który staje się hitem wśród deweloperów, może mieć serce zaprojektowane i wytrenowane w Chinach. To dowód na globalizację zaawansowanych badań.
Po trzecie, społeczność techniczna jest niezwykle czujna. Marketingowe narracje są weryfikowane w ciągu godzin poprzez analizę logów, odpowiedzi API i porównania benchmarków. Przejrzystość staje się walutą, za którą płaci się zaufaniem użytkowników.
Cursor Composer 2, będący w istocie fine-tune'em Kimi K2.5, pozostaje niezwykle atrakcyjnym narzędziem. Oferuje najwyższą klasę możliwości w zadaniach kodowych za bezprecedensowo niską cenę. Dla deweloperów i firm ta efektywność kosztowa i wydajność mogą być ważniejsze niż korporacyjne pochodzenie modelu. Ostatecznie w kodzie liczy się wynik. A ten, jak na razie, jest znakomity. Cała sytuacja służy jednak jako przypomnienie, że w erze współzależnych modeli AI uczciwość wobec użytkownika co do źródeł technologii jest równie ważna, co same osiągi.