Kategoria: Aktualności IT

  • Nowa Wersja OpenCode v1.2.21: Lepsze Narzędzie Edycji, Naprawy Gita Na Windowsie i Przyspieszenie

    Nowa Wersja OpenCode v1.2.21: Lepsze Narzędzie Edycji, Naprawy Gita Na Windowsie i Przyspieszenie

    Środowisko programistyczne OpenCode, open-source’owy asystent AI do kodowania, otrzymało właśnie znaczącą aktualizację oznaczoną numerem 1.2.21. Wydanie, które pojawiło się 7 marca 2026 roku, to nie tylko lista poprawek błędów, ale pakiet konkretnych ulepszeń, które dotyczą kluczowych obszarów pracy dewelopera: edycji kodu, integracji z Gitem, wydajności terminala i stabilności interfejsu użytkownika. Co najważniejsze, jest to owoc pracy społeczności współtwórców.

    Rewolucja w edytorze: Obsługa zakończeń linii

    Jedna z najbardziej docenianych zmian pochodzi od współtwórcy o pseudonimie @ranqn. Dotyczy ona podstawowego narzędzia – edytora. Poprzednie wersje mogły podczas modyfikacji plików niechcący zmieniać ich oryginalne zakończenia linii (line endings), czyli sekwencje znaków LF (Linux/macOS) lub CRLF (Windows).

    • Dlaczego to takie ważne? Mieszanie stylów zakończeń linii w jednym repozytorium to prosta droga do bałaganu w historii Gita. Każda pozornie nieistotna zmiana w tych niewidzialnych znakach jest traktowana jako modyfikacja całej linii. To psuje diff, utrudnia merge i potrafi zirytować zespół. Teraz OpenCode v1.2.21 zachowuje oryginalne zakończenia linii podczas każdej edycji wykonanej przez agenta AI. To fundamentalna poprawka dla integralności plików i czystości commitów, szczególnie w projektach wieloplatformowych.

    Koniec z problemami Gita w środowisku Windows

    Dla deweloperów pracujących na Windowsie to prawdopodobnie najważniejsza zmiana w tym wydaniu. W OpenCode naprawiono błąd w rozpoznawaniu ścieżek do zmodyfikowanych plików, który występował przy pracy z różnymi emulacjami powłoki uniksowej.

    Konkretnie chodzi o poprawne działanie z Git Bash, MSYS2 oraz Cygwin. Wcześniej ścieżki zwracane przez te narzędzia mogły być błędnie interpretowane przez rdzeń OpenCode, co prowadziło do nieprawidłowego działania komend Gita, szczególnie tych związanych ze stagingiem (git add) czy sprawdzaniem statusu. Utrudniało to, a czasem wręcz uniemożliwiało, sprawne zarządzanie kontrolą wersji.

    • Dla kogo to zmiana? Dla każdego, kto na Windowsie łączy pracę w terminalu OpenCode z lokalnym Gitem przez wspomniane emulatory. Poprawka bezpośrednio wpływa na płynność workflow DevOps, gdzie szybkie i poprawne operacje na repozytorium są kluczowe.

    Usprawnienia wydajności i inicjalizacji projektów

    Wydanie przynosi też kilka innych, wartych uwagi usprawnień „pod maską”. Zoptymalizowano ładowanie historii sesji i innych zasobów, co przekłada się na szybsze rozpoczynanie pracy nad projektami, do których zaproszono nas poprzez link.

    Dodano też nowe API do inicjalizacji repozytorium Git w projekcie (`project git init API`). To uproszczenie ma na celu automatyzację i usprawnienie procesu zakładania nowego projektu pod kontrolą wersji, co jest szczególnie przydatne przy szybkim prototypowaniu czy rozpoczynaniu nowych zadań z poziomu asystenta AI.

    Dodatkowo aplikacja lepiej loguje stack trace przy niepowodzeniach walidacji schematów, co ułatwia debugowanie.

    Ulepszenia interfejsu użytkownika: TUI i Desktop

    Wersja 1.2.21 nie pomija interfejsów. W trybie tekstowym (TUI) naprawiono błędy związane z eksportem, co zapewnia bardziej przewidywalne działanie komend. Dodano też wizualizację interaktywnej osi czasu, która ułatwi nawigację po historii sesji.

    W wersji desktopowej poprawki są jeszcze szersze:

    • Stabilność sesji: Dodano zabezpieczenie przed błędami w sytuacjach, gdy nagłówek sesji próbował odwołać się do pustych opcji.
    • Lepsza nawigacja: Zakładka drzewa plików jest teraz poprawnie przywracana po ponownym otwarciu projektu.
    • Poprawki przewijania: Rozwiązano problemy ze scrollowaniem zawartości plików oraz ustalono maksymalną szerokość dla komponentu osi czasu.
    • Poprawione menu: Usunięto problematyczną logikę warunkowego montowania, która powodowała błędne pozycjonowanie menu bocznych i tooltipów.
    • Dopracowanie animacji: Dodano animację wysuwania sidebaru, subtelniejsze linie podziału oraz lepsze komunikaty dla pustych stanów w panelu przeglądu i drzewie plików.
    • Autokorekta w Safari: Dla użytkowników Safari wprowadzono rozróżnienie: autokorekta jest włączona w trybie normalnym, ale wyłączona w terminalu, gdzie mogłaby przeszkadzać.

    Ciekawym detalem jest też uniezależnienie skrótu klawiszowego auto-akceptacji od konfiguracji uprawnień. Dzięki @luisfelipesena określony skrót będzie działał zawsze, co daje użytkownikowi pełną kontrolę nad tą często używaną funkcją.

    OpenCode: Kontekst dla deweloperów webowych, AI i DevOps

    Dla tych, którzy nie śledzą projektu na co dzień, warto przypomnieć, czym jest OpenCode. To otwartoźródłowy agent AI do kodowania, działający w terminalu, jako plugin do IDE lub jako samodzielna aplikacja desktopowa. Jego silną stroną jest integracja z Language Server Protocol (LSP), które są automatycznie ładowane dla modeli językowych (LLM), zapewniając podpowiedzi i analizę kodu na wysokim poziomie.

    Wspiera wielu dostawców modeli AI (przez AI SDK i Models.dev), w tym modele uruchamiane lokalnie, co czyni go niezwykle uniwersalnym narzędziem do tak zwanego „vibe coding” – programowania wspomaganego przez płynną interakcję z AI. Jego wydajność i nacisk na integrację z Gitem oraz środowiskiem terminala czynią go też ciekawym wyborem dla osób zajmujących się hostingiem i DevOps.

    Podsumowanie: Stabilność, kompatybilność, wydajność

    Wydanie OpenCode v1.2.21 to przede wszystkim aktualizacja nastawiona na solidność i wygodę codziennej pracy. Nie znajdziemy tu może rewolucyjnych funkcji, ale za to szereg konkretnych poprawek, które razem znacząco podnoszą komfort użytkowania.

    Naprawa obsługi zakończeń linii i ścieżek Gita na Windowsie eliminuje źródła frustracji w podstawowych procesach pracy. Liczne poprawki w interfejsach desktopowym i TUI sprawiają, że aplikacja staje się bardziej dopracowana i przewidywalna.

    To wydanie jest doskonałym przykładem rozwoju napędzanego przez społeczność. Praca nad takimi detalami jak autokorekta w Safari, animacje sidebaru czy pozycjonowanie tooltipów pokazuje, że projekt dojrzewa, skupiając się nie tylko na „wielkich” funkcjach, ale też na praktycznym komforcie pracy. Dla każdego, kto używa OpenCode do codziennego developmentu, eksperymentów z AI czy zarządzania infrastrukturą, aktualizacja do wersji 1.2.21 jest zdecydowanie warta uwagi.

  • Claude otwiera milion tokenów dla wszystkich i obniża ceny. Era długiego kontekstu właśnie się zaczęła

    Claude otwiera milion tokenów dla wszystkich i obniża ceny. Era długiego kontekstu właśnie się zaczęła

    To była ostatnia bariera, którą musieli pokonać deweloperzy pracujący z ogromnymi dokumentami. Do tej pory, gdy chcieli przesłać do Claude'a duży fragment kodu, obszerny raport lub wieloletni kontrakt, musieli liczyć się z dodatkową opłatą. Od 5 lutego 2026 roku dla modelu Opus 4.6 i od 12 sierpnia dla modelu Sonnet 4 to już przeszłość. Anthropic ogłosiło, że okno kontekstowe (context window) o wielkości 1 miliona tokenów przechodzi do fazy general availability. Co to znaczy? Po prostu teraz każdy może z niego korzystać, płacąc standardową stawkę. To nie tylko aktualizacja cennika, ale fundamentalna zmiana w dostępie do mocy obliczeniowej AI.

    Szczególnie interesująco wygląda porównanie z konkurencją. Teraz flagowe modele Anthropic oferują pełny milion tokenów w tej samej cenie. To istotny ruch strategiczny w wyścigu, który toczy się nie tylko o jakość odpowiedzi, ale także o ekonomię skalowania.

    Co tak naprawdę zmienia się w cenniku?

    Najprościej mówiąc, zniknął mechanizm, który podnosił koszty pracy z naprawdę dużymi zbiorami danych. Wcześniej każde zapytanie przekraczające 200 tysięcy tokenów było objęte specjalną, wyższą stawką.

    Teraz to się skończyło. Standardowe ceny obowiązują w całym zakresie miliona tokenów. Przeliczmy to na konkretny przykład. Jeśli jako programista chcesz przeanalizować repozytorium kodu o objętości 900 tysięcy tokenów, zapłacisz dokładnie tyle samo za token, co za analizę małego skryptu na 9 tysięcy tokenów. Ta linearyzacja kosztów to ogromna ulga dla budżetów projektowych. Nowe, ujednolicone ceny wyglądają następująco:

    • Claude Opus 4.6: 5 dolarów za milion tokenów wejściowych (input) / 25 dolarów za milion tokenów wyjściowych (output).

    Funkcja jest już powszechnie dostępna. Możesz z niej korzystać bezpośrednio przez platformę Claude.

    Nie tylko tokeny. Równoległe wzmocnienie możliwości

    Sam milion tokenów to nie wszystko. Razem z tą zmianą przyszło znaczące usprawnienie w przetwarzaniu multimediów. To często pomijany, ale kluczowy aspekt dla wielu firm.

    Wyobraź sobie możliwość przesłania całego, wielostronicowego raportu rocznego, zestawu projektów architektonicznych lub dokumentacji technicznej z setkami diagramów. Workflow, które wcześniej wymagały żmudnego dzielenia dokumentów na części, nagle stają się proste i płynne. To bezpośrednio otwiera drogę do automatyzacji procesów, które dotąd były zbyt uciążliwe, by w ogóle je rozważać.

    Kolejna techniczna bariera również padła. Dotąd zapytania z długim kontekstem mogły mieć ograniczoną przepustowość (throughput). Teraz na całe okno miliona tokenów obowiązują standardowe limity przepustowości konta (rate limits). To oznacza większą przewidywalność i płynność w aplikacjach wymagających intensywnej komunikacji z API.

    Mapa możliwości: jak Claude wypada na tle konkurencji?

    Mapa możliwości: jak Claude wypada na tle konkurencji?

    Gdy spojrzymy na rynek, panorama możliwości kontekstowych staje się jasna. Oto jak obecnie wyglądają maksymalne rozmiary okien w głównych modelach:

    ModelMaksymalny kontekst
    Claude Opus 4.61 000 000 tokenów
    Claude Sonnet 41 000 000 tokenów
    Gemini1 000 000 tokenów
    GPT-4o128 000 tokenów

    Widać wyraźnie, że pod względem czystego limitu Anthropic i Google są w tej samej lidze, znacznie wyprzedzając obecną ofertę OpenAI. Jednak kluczową różnicą, którą wnosi dzisiejsza aktualizacja, jest model cenowy. Usunięcie dopłaty za długi kontekst stawia Anthropic w innej pozycji. Chodzi o demokratyzację dostępu. Nie wystarczy mieć technologii – trzeba też pozwolić ludziom z niej korzystać bez obaw o niespodziewany rachunek.

    Prawdziwe życie, prawdziwe zastosowania. Co to zmienia dla Ciebie?

    Te liczby brzmią abstrakcyjnie, ale ich wpływ na codzienną pracę jest bardzo konkretny. Oto scenariusze, które z kosztownych eksperymentów stają się teraz opłacalnymi, rutynowymi procedurami.

    Dla programistów to przełom. Analiza całego, dużego repozytorium kodu naraz przestaje być ekstrawagancją. Możesz wrzucić cały projekt i poprosić Claude'a o audyt bezpieczeństwa, sugestie refaktoryzacji lub wyjaśnienie architektury. Efekt? Mniej wymuszonych "czystek" w historii rozmowy. Kontekst dłużej pozostaje spójny, a AI lepiej pamięta, o czym rozmawialiście na samym początku, co jest bezcenne przy złożonym debugowaniu czy planowaniu nowych funkcji.

    W świecie prawnym, biznesowym i analitycznym zmiana jest równie duża. Analiza wieloletnich kontraktów, połączenie danych finansowych z raportami zarządu czy przetworzenie transkrypcji z wielomiesięcznych spotkań – to wszystko mieści się teraz w jednym, spójnym zapytaniu. Model nie traci wątku, ponieważ nie musisz dzielić materiału na fragmenty. To prowadzi do głębszej, bardziej wnikliwej analizy.

    Bardzo ciekawą kategorią są tzw. agent traces, czyli ślady działania autonomicznych agentów AI. Takie agenty, wykonując zadania, generują gigantyczne ilości logów, decyzji i kontekstu wewnętrznego. Dzięki milionowi tokenów cały ten "ciąg myślowy" agenta może być zachowany i przeanalizowany, co pozwala na lepsze debugowanie ich działań i tworzenie bardziej niezawodnych automatyzacji.

    Wnioski: nowy standard dostępności

    Ogłoszenie Anthropic to coś więcej niż zwykła aktualizacja produktu. To wyraźny sygnał rynkowy, że era długiego kontekstu nie jest już fazą beta ani niszową funkcją dla wybranych. Stała się standardem, na który mogą liczyć wszyscy użytkownicy. Usunięcie premii cenowej jest tu kluczowym gestem – pokazuje, że firma chce, aby ta moc była używana powszechnie, a nie tylko w najbardziej budżetowych projektach.

    Otwiera to furtkę do nowej generacji aplikacji – takich, które nie boją się dużych zbiorów danych, kompleksowych dokumentów i długich, wieloetapowych interakcji. Presja konkurencyjna jest oczywista, a korzyść odniosą przede wszystkim deweloperzy, firmy i użytkownicy końcowi, którzy zyskują potężniejsze i bardziej ekonomiczne narzędzia. Walka toczy się teraz nie tylko o to, który model jest mądrzejszy, ale także o to, który jest bardziej użyteczny w realnych, skomplikowanych zadaniach. A użyteczność w świecie AI często zaczyna się od prostego pytania: „Czy mogę wrzucić tam cały mój problem naraz?”. Dzięki najnowszej aktualizacji Claude'a odpowiedź brzmi: tak.