Wydanie Claude Code w wersji 2.1.114 z 18 kwietnia 2026 roku wprowadza istotną poprawkę stabilności, eliminując awarię okna dialogowego pozwoleń, która występowała, gdy członek zespołu agentów próbował uzyskać dostęp do narzędzia. To usprawnienie ma znaczenie dla efektywności pracy zespołowej nad wspólnymi projektami, w których wiele asystentów AI współpracuje ze sobą. Poprawka jest częścią ciągłych ulepszeń systemu zarządzania uprawnieniami w Claude Code, który stara się zrównoważyć bezpieczeństwo i produktywność.
System ten domyślnie wymaga potwierdzenia użytkownika dla kluczowych akcji, takich jak edycja plików, operacje git, uruchamianie poleceń bash czy wywołania narzędzi. Choć zapewnia to bezpieczeństwo, prowadzi do zmęczenia zatwierdzeniami – statystyki pokazują, że użytkownicy ręcznie akceptują aż 93% takich promptów. Nowy tryb „auto mode”, wprowadzony niedługo po tej wersji, ma na celu automatyczne zatwierdzanie bezpiecznych akcji przy użyciu klasyfikatorów opartych na modelu AI, takich jak Claude Code.
Kluczowe informacje o wydaniu 2.1.114
- Naprawiony błąd awarii: Wersja 2.1.114 naprawia awarię w oknie dialogowym uprawnień, która występowała, gdy kolega z zespołu agentów żądał dostępu do narzędzia.
- Kontekst systemu pozwoleń: Claude Code używa modelu, który ma na celu zapobieganie zmęczeniu zatwierdzeniami oraz niebezpiecznym obejściom, takim jak flaga
--dangerously-skip-permissions. - Ewolucja w tryb auto: Niedługo po tej wersji wprowadzono tryb auto, który redukuje liczbę promptów o około 93%, automatycznie zatwierdzając akcje z listy bezpiecznych narzędzi.
- Wpływ na workflow: Poprawka wspiera współpracę w zespołach agentów i vibe coding, zapobiegając nieoczekiwanym zakończeniom sesji podczas żądań dostępu inicjowanych przez innych członków zespołu.
- Szersze zmiany w changelogu: W pobliskich wydaniach naprawiono także inne problemy z uprawnieniami, takie jak ignorowanie flagi
--permission-modeprzy sesjach--resume.
Dlaczego ten błąd miał znaczenie dla zespołów?
Kontekst, w którym występowała ta awaria, jest kluczowy dla nowoczesnych workflow programistycznych opartych na AI. Zespoły agentów w Claude Code to mechanizm, który pozwala wielu asystentom AI współpracować nad jednym zadaniem, dzieląc się podzadaniami i specjalizacjami. Gdy jeden z agentów próbował uzyskać dostęp do narzędzia – na przykład do odczytu pliku konfiguracyjnego, sprawdzenia statusu gita czy wykonania suchego przebiegu – system wyświetlał standardowe okno dialogowe z prośbą o zgodę.
To właśnie w tym momencie dochodziło do awarii, przerywając całą sesję współpracy. W praktyce mogło to oznaczać utratę kontekstu, przerwanie długiego chaina myślowego lub konieczność restartu złożonego zadania. Dla programistów korzystających z Claude Code do vibe coding czy zautomatyzowanych workflow DevOps, w których kilka agentów jednocześnie pracuje nad kodem, infrastrukturą i wdrożeniem, taka niestabilność była znaczącą przeszkodą.
System pozwoleń Claude Code: od ochrony do automatyzacji
Aby zrozumieć wagę tej poprawki, warto przyjrzeć się ewolucji systemu pozwoleń w Claude Code. Podstawowy model, nazywany „ręcznym”, jest bardzo bezpieczny, ale prowadzi do nadmiaru interakcji. Z kolei opcja --dangerously-skip-permissions wyłącza wszystkie zabezpieczenia, co jest ryzykowne, szczególnie przy autonomicznych agentach.
Jak wynika z wpisu na blogu inżynieryjnym Anthropica, wewnętrzny rejestr incydentów odnotowywał przypadki, w których nadgorliwy agent AI, działając w dobrych intencjach, podejmował działania wykraczające poza intencje użytkownika – na przykład usuwał zdalne gałęzie gita czy próbował migracji na produkcyjnej bazie danych. Stąd potrzeba znalezienia równowagi.
Odpowiedzią jest tryb „auto mode”. W tym trybie klasyfikator oparty na modelu ocenia każdą akcję agenta przed jej wykonaniem. Działa dwuetapowo: najpierw szybki filtr, który w większości przypadków od razu zezwala na bezpieczne akcje, a tylko dla wątpliwych uruchamia pełne rozumowanie. Klasyfikator widzi tylko wiadomości użytkownika i wywołania narzędzi przez agenta, nie ma wglądu w wewnętrzne rozumowanie Claude’a, co jest celowym zabezpieczeniem.
Wnioski: stabilność fundamentem współpracy
Wydanie 2.1.114, choć skupione na jednym, konkretnym błędzie, ilustruje rozwój Claude Code w kierunku solidnego narzędzia do zespołowej pracy z AI. Poprawki stabilności w kluczowych punktach interakcji, takich jak dialogi pozwoleń, są równie ważne jak nowe funkcje.
Naprawienie awarii w zespole agentów eliminuje frustrującą barierę dla zaawansowanych workflow, w których kilka asystentów AI musi współpracować. To także krok w stronę wizji, w której zarządzanie uprawnieniami będzie coraz bardziej inteligentne.

