Claude Code otrzymuje nowe wskaźniki myślenia i kontrolę cachowania promptów

Claude Code otrzymuje nowe wskaźniki myślenia i kontrolę cachtowania promptów

Najnowsza aktualizacja Claude Code, oznaczona wersją 2.1.109, wprowadza znaczące ulepszenia interfejsu użytkownika, które poprawiają komunikację procesu rozumowania modelu. Główną nowością jest rotujący wskaźnik postępu, który zastępuje statyczne komunikaty „thinking…”, oferując programistom dynamiczną informację zwrotną podczas długich operacji myślowych. Ta aktualizacja jest częścią szerszego cyklu wydań, który wprowadza także nowe funkcje optymalizujące pracę z API.

Wersja 2.1.109, wydana w połowie kwietnia 2026 roku, ma na celu zwiększenie przewidywalności, wydajności i bezpieczeństwa środowiska deweloperskiego. Oprócz nowego wskaźnika myślenia, użytkownicy zyskali ulepszoną discoverability komend slash oraz zaawansowane opcje zarządzania cachtowaniem promptów. Wprowadzono również optymalizacje zużycia pamięci przy operacjach na plikach oraz poprawioną obsługę błędów limitów API.

Kluczowe zmiany w najnowszej aktualizacji

  • Ulepszony wskaźnik myślenia: Nowy, rotujący wskaźnik z dynamicznymi komunikatami typu „still thinking”, „thinking more” i „almost done thinking” zapewnia lepszą informację zwrotną podczas długich procesów rozumowania modelu, zastępując dawny, statyczny spinner.
  • Optymalizacje wydajności: Poprawki obejmują redukcję niekontrolowanego wzrostu zużycia pamięci (RSS) podczas przetwarzania wielu obrazów w sesji oraz usprawnienia działania komendy /resume w przypadku dużych sesji.
  • Nowe narzędzie rekapitulacji: Dodano funkcję podsumowującą kontekst sesji, co ułatwia nawigację w długich i złożonych konwersacjach z Claudem.

Dlaczego lepsze wskaźniki myślenia mają znaczenie

Poprzedni, statyczny komunikat „thinking…” często powodował frustrację. Podczas rozbudowanych operacji rozumowania, które mogą trwać dłużej, użytkownik nie miał informacji, czy proces przebiega, czy może uległ zawieszeniu. Nowy system, który automatycznie przełącza się między komunikatami wskazującymi fazę myślenia, rozwiązuje ten problem UX. Wskaźnik działa domyślnie w każdej sesji z włączonym rozszerzonym myśleniem, a użytkownicy mogą wcisnąć Ctrl+O, aby w trybie verbose zobaczyć podstawowy tekst procesu rozumowania.

Ta zmiana wpisuje się w szerszy trend udoskonalania interakcji z modelami, które wykonują złożone, wieloetapowe zadania. W Visual Studio Code poprawiono obsługę modeli Anthropic z tokenami myślowymi, a API Messages wspiera interleaved thinking, co pozwala Claudowi rozumować między kolejnymi wywołaniami narzędzi, a nie tylko przed rozpoczęciem całej sekwencji. To istotna różnica dla zaawansowanych workflow agentowych.

Cachtowanie promptów – tajna broń optymalizacji kosztów

Obok usprawnień interfejsu, równie istotna jest funkcja cachtowania promptów. Jak wyjaśniają dokumenty API Anthropic, ta funkcja to jeden z najskuteczniejszych sposobów na redukcję kosztów. Działa poprzez cachowanie stałych prefiksów promptu (np. definicji systemowych, schematów narzędzi, dużych dokumentów referencyjnych), które są umieszczane na początku kontekstu. Gdy ten sam prefiks pojawia się w nowym żądaniu, API może go "odczytać z cache", co jest znacznie tańsze niż przetwarzanie od nowa.

Domyślny czas życia cache to 5 minut, z opcją przedłużenia do godziny za dodatkową opłatą. Dynamicznie ładowane narzędzia (np. przez MCP – Model Context Protocol) nie łamią cache, ponieważ są dołączane jako osobne bloki, pozostawiając główny prefiks promptu nienaruszony.

Wydajność i stabilność pod maską

Aktualizacje przynoszą także konkretne poprawki "pod maską". Zlikwidowano problem niekontrolowanego wzrostu zużycia pamięci przy pracy z wieloma obrazami, który mógł prowadzić do zajęcia wielu gigabajtów RAM. Usprawniono zarządzanie dużymi sesjami, co jest kluczowe dla deweloperów pracujących nad rozbudowanymi projektami. Wprowadzono także zaostrzenia bezpieczeństwa, np. weryfikację niebezpiecznych ścieżek przy komendach usuwających pliki, nawet gdy sandbox działa w trybie auto-allow.

Równolegle Anthropic dostosował domyślne poziomy wysiłku dla modeli w Claude Code po feedbacku od społeczności, która wyżej ceniła wyższą inteligencję odpowiedzi niż minimalizację opóźnienia.


Źródła

Komentarze

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *