Sprawa, która zaczęła się od dociekliwych pytań użytkowników, przerodziła się w pełnowymiarowy skandal w świecie AI do kodowania. Chodzi o Cursor Composer 2, model reklamowany jako autorski, wewnętrzny przełom startupu Cursor. Okazuje się jednak, że pod maską kryje się fine-tuning otwartoźródłowego modelu chińskiej firmy Moonshot AI – Kimi K2.5. Brak przejrzystości, a nie sam fakt użycia open source’u, wywołał burzę.
Społeczność deweloperska czuje się oszukana, a debata wykracza daleko poza pojedynczy produkt. Dotyka fundamentalnych kwestii etyki w AI, transparentności w biznesie opartym na otwartych modelach oraz rosnącej roli chińskich modeli bazowych w globalnym ekosystemie.
Od podejrzeń do twardych dowodów: Linia czasu afery
Wszystko zaczęło się subtelnie, od obserwacji samych użytkowników. Podejrzenia wyszły na jaw w marcu 2026 roku, gdy niektórzy z nich zauważyli, że odpowiedzi generowane przez Composer 2 wykazują zadziwiające podobieństwa do modelu Kimi K2.5. Chodziło o specyficzną strukturę rozumowania, sposób formułowania odpowiedzi i charakterystyczne wzorce znane z narzędzi Moonshot AI. To były jednak tylko przeczucia.
Prawdziwy przełom nastąpił 19 marca 2026 roku za sprawą programisty znanego jako Fynn. To on przeprowadził techniczną analizę zapytań API. Metoda była prosta, ale skuteczna: przekierował ruch z Cursor IDE na lokalny serwer, który pełnił rolę bazowego adresu URL dla OpenAI. To pozwoliło mu zajrzeć za kulisy komunikacji.
Efekt? Ukryty identyfikator modelu w żądaniach Composer 2 bezpośrednio wskazywał na Kimi K2.5 z dodatkowym fine-tuningiem metodą RL (Reinforcement Learning). To nie były domysły, a twardy, powtarzalny dowód. Dwa dni później, 21 marca, na YouTube pojawiły się szczegółowe analizy, które opisały cały proces premiery. Cursor promował wtedy Composer 2 jako własny model, który ma przewyższać nawet wiodące rozwiązania Anthropic, takie jak Claude 3.5 Sonnet, w benchmarkach kodowania, będąc jednocześnie tańszym. O bazie Kimi nie padło ani słowo.
Niepodważalne dowody techniczne: Tokenizer i identyfikatory
Co konkretnie udowodniono? Przede wszystkim zgodność tokenizera. Tokenizer to kluczowy komponent modelu językowego, który dzieli tekst na jednostki. Jak potwierdzili później pracownicy Moonshot AI, tokenizer użyty w Composer 2 jest identyczny z tym, którego używa Kimi K2.5. To jak znalezienie tego samego odcisku palca na dwóch różnych narzędziach – mocny dowód na wspólne pochodzenie.
Dodatkowo analiza API ujawniła ukryty model ID, jednoznacznie powiązany z Kimi. Cursor przedstawiał wyniki benchmarków, wskazując na duże ulepszenia, na przykład +21,5% w Terminal Bench. Jednak gdy przyjrzeć się surowym danym, okazało się, że benchmarki te znacząco różniły się od tych używanych dla Kimi, a ogólny wzrost wydajności był znaczący (np. wynik 61,3 vs. 44,2 w CursorBench). Sugerowało to, że lwia część możliwości modelu pochodziła nie tylko z zaawansowanej, otwartoźródłowej bazy od Moonshot, ale także z własnego treningu Cursor, który pochłonął większość użytej mocy obliczeniowej.
Warto zaznaczyć, że poprzednia wersja, Composer 1 (lub 1.5), opierała się na innym modelu – Qwen. Dopiero Composer 2 w pełni przesiadł się na Kimi, co czyniło brak wzmianki o tym fakcie jeszcze bardziej rażącym.
Reakcje kluczowych graczy: Przyznanie się i partnerstwo

Po ujawnieniu sprawy Cursor nie mógł już milczeć. Lee Robinson, wiceprezes ds. edukacji deweloperów w Cursor, odniósł się do sprawy na platformie X (dawniej Twitter). Jego komentarz był połączeniem przyznania się do błędu i potwierdzenia legalności działań. „Jestem wielkim zwolennikiem open source… To był błąd, że nie wspomnieliśmy o bazie Kimi w naszym wpisie na blogu od samego początku. Naprawimy to przy kolejnym modelu” – napisał. Jednocześnie podkreślił, że zespół Moonshot AI potwierdził, iż użycie było licencjonowane.
To ostatnie to kluczowy punkt. Moonshot AI/Kimi oficjalnie potwierdzili istnienie partnerskiej, autoryzowanej umowy handlowej pomiędzy Cursor a nimi, zawartej za pośrednictwem platformy Fireworks AI. Z prawnego punktu widzenia Cursor prawdopodobnie nie złamał licencji Kimi K2.5, o ile ta dopuszcza komercyjne użycie. Problem leżał jednak w warstwie etycznej i wizerunkowej, a nie prawnej.
Wściekłość społeczności: Dlaczego deweloperzy poczuli się oszukani?
Reakcja społeczności była szybka i pełna oburzenia. Na forach i w komentarzach podkreślano jeden główny zarzut: brak transparentności. Użytkownicy płacili za funkcjonalność w Cursor IDE, wierząc, że finansują rozwój przełomowego, autorskiego modelu startupu. Tymczasem, jak to ujął jeden z komentatorów na YouTube, okazało się, że „Cursor opakowuje open source i odsprzedaje go” w swoim forku VS Code.
Problemem nie było więc użycie otwartego modelu – to powszechna praktyka. Chodziło o stworzenie wrażenia czegoś zupełnie nowego, zbudowanego samodzielnie od zera. To podważa zaufanie. Jeśli deweloperzy nie mogą ufać opisom technologii, na której polegają w codziennej pracy, na czym ma się opierać cały rynek narzędzi AI do kodowania?
Na forum Hacker News pojawiły się nawet spekulacje, czy gigant AI, Anthropic, nie zdecyduje się na zablokowanie Cursor na swoich platformach. Powód? Moonshot AI, twórca Kimi, figuruje na liście firm związanych z tzw. „kampanią ataków destylacyjnych” (distillation attack campaign), obok OpenAI i xAI. Jak dotąd (stan na koniec marca 2026) żaden taki zakaz nie został potwierdzony.
Szersze implikacje: Otwarte źródła, chińskie modele i przyszłość AI
Afera z Cursor Composer 2 to nie tylko historia jednego modelu. To symptom większych trendów i napięć w świecie sztucznej inteligencji.
Po pierwsze, jasno pokazuje, że społeczność deweloperska domaga się nowych standardów transparentności. Wskazana została paląca potrzeba publikowania jawnych „kart modelu” (model cards) i dokumentacji, które wprost wymieniają modele bazowe, nawet jeśli mowa tylko o fine-tuningu. Chodzi o uczciwość intelektualną, która pozwala użytkownikom dokonywać świadomych wyborów.
Po drugie, sprawa rzuca światło na rosnącą dominację chińskich modeli bazowych, takich jak Kimi, Qwen czy DeepSeek, w globalnym ekosystemie open source. Są one często darmowe, potężne i łatwo dostępne. Firma z Doliny Krzemowej, taka jak Cursor, może na nich budować swoją wartość. To budzi mieszane uczucia w kontekście geopolitycznym i zmusza do pytań o długoterminową niezależność technologiczną Zachodu. Niektórzy politycy już ostrzegają przed chińską dominacją w obszarze open-source AI.
Po trzecie, kwestionuje to model biznesowy małych, zwinnych zespołów, które budują narzędzia na cudzych, otwartych fundamentach. Jeśli ich główną wartością jest tylko opakowanie i fine-tuning, jak mogą konkurować, gdy dostawcy modeli bazowych zaczną oferować podobne usługi bezpośrednio? Rynek agentów kodujących rozwija się błyskawicznie, a zaufanie jest tu kluczowym aktywem, który łatwo stracić.
Podsumowanie: Lekcja na przyszłość
Afera Cursor Composer 2 wciąż się rozwija, ale już dostarczyła ważnej lekcji dla całej branży. Legalne użycie otwartoźródłowego modelu to za mało. W erze, w której fundamentem innowacji jest współdzielona praca tysięcy badaczy i inżynierów, przejrzystość staje się nową walutą zaufania.
Cursor przyznał się do przeoczenia w kwestii atrybucji, ale nie wystosował pełnych przeprosin ani nie zrewidował szczegółowo swojej dokumentacji. To może być dla nich kosztowny błąd wizerunkowy. Dla deweloperów natomiast jest to wyraźny sygnał, by podchodzić do marketingowych deklaracji o „własnych”, „przełomowych” modelach z dużą dozą zdrowego sceptycyzmu i domagać się technicznych szczegółów.
Ostatecznie ta historia nie kończy się na Kimi czy Cursorze. To rozdział w szerszej opowieści o tym, jak budujemy etyczny i zrównoważony ekosystem AI, w którym współpraca i otwartość idą w parze z uczciwością wobec tych, którzy z tych technologii korzystają.


Dodaj komentarz