Tag: TUI

  • OpenCode Usprawnia Integrację z Cloudflare i Dostosowanie Interfejsu Terminalowego

    OpenCode Usprawnia Integrację z Cloudflare i Dostosowanie Interfejsu Terminalowego

    Najnowsza aktualizacja OpenCode, otwartoźródłowego narzędzia AI dla programistów, wprowadza zmiany w dwóch obszarach: konfiguracji usług Cloudflare AI oraz obsłudze interfejsu tekstowego (TUI). Zmiany opisane w dokumentacji projektu skupiają się na ułatwieniu pierwszego uruchomienia programu i poprawie wygody pracy w terminalu.

    Łatwiejsza konfiguracja Cloudflare Workers AI i AI Gateway

    Wprowadzono czytelniejsze komunikaty diagnostyczne dla osób korzystających z Cloudflare Workers AI oraz Cloudflare AI Gateway. System sprawdza teraz obecność zmiennych konfiguracyjnych, takich jak Account ID, Gateway ID czy CLOUDFLARE_AI_GATEWAY_API_KEY. Jeśli ich brakuje, użytkownik widzi konkretną informację o tym, jakie dane musi uzupełnić, zamiast ogólnych błędów systemowych.

    Ma to pomóc osobom, które dopiero zaczynają pracę z narzędziem. Cloudflare Workers AI umożliwia korzystanie z modeli językowych przez API bez zakładania kont u wielu różnych dostawców. W OpenCode proces ten można przejść na dwa sposoby: interaktywnie, korzystając z instrukcji (np. przez uwierzytelnienie na opencode.ai/auth), lub wpisując dane bezpośrednio do pliku opencode.json.

    Zmiany w interfejsie terminalowym (TUI)

    Druga część poprawek dotyczy interfejsu tekstowego. W systemie Windows przywrócono standardowe zachowanie klawiatury, rezygnując z wcześniejszych tymczasowych rozwiązań, które utrudniały wprowadzanie znaków. Dla programistów pracujących głównie w terminalu jest to zmiana poprawiająca płynność pisania.

    Użytkownicy zyskali też większą kontrolę nad myszą wewnątrz TUI. Funkcję przechwytywania kursora można teraz wyłączyć w ustawieniach lub za pomocą zmiennej środowiskowej OPENCODE_DISABLE_MOUSE. Dodatkowo poprawiono mechanizm ładowania wtyczek TUI. Teraz poprawnie przypisują się one do konkretnego projektu, nawet gdy użytkownik ma otwartych kilka katalogów jednocześnie.

    Poprawki w działaniu systemu

    Aktualizacja obejmuje również zmiany wewnątrz samego silnika OpenCode. Usprawniono zarządzanie sesjami, co pozwala na stabilne zachowanie kontekstu podczas przełączania się między różnymi obszarami roboczymi.

    Wprowadzono także normalizację metadanych dostawców. Zmiana ta zapewnia poprawne wyświetlanie informacji o modelach nawet wtedy, gdy dane pochodzące z zewnętrznych katalogów są niekompletne.

    Rozwój narzędzia i stabilność

    Wprowadzone modyfikacje wskazują na to, że twórcy OpenCode skupiają się na usuwaniu błędów technicznych i upraszczaniu obsługi. Lepsza diagnostyka błędów w usługach Cloudflare eliminuje problemy przy starcie, a poprawki w TUI ułatwiają codzienną pracę. Te aktualizacje, wraz z poprawą stabilności rdzenia systemu, sprawiają, że narzędzie staje się bardziej przewidywalne. Regularne wydawanie poprawek pokazuje, że projekt jest rozwijany na podstawie zgłoszeń przesyłanych przez użytkowników.


    Źródła

  • Wyszukiwanie w trybie tekstowym i licznik tokenów – OpenCode v1.3.6 wprowadza kluczowe poprawki dla deweloperów

    Wyszukiwanie w trybie tekstowym i licznik tokenów – OpenCode v1.3.6 wprowadza kluczowe poprawki dla deweloperów

    Dla programistów pracujących z AI w trybie tekstowym (TUI) precyzja i niezawodność są kluczowe. Najnowsza aktualizacja OpenCode, wersja 1.3.6, koncentruje się na dwóch aspektach: usprawnieniu wyszukiwania w interfejsie oraz naprawie krytycznego błędu w śledzeniu zużycia zasobów. To zestaw poprawek, które choć technicznie niewielkie, mają realny wpływ na codzienny komfort pracy.

    Wydanie z 29 marca 2026 roku przynosi konkretne rozwiązania dla użytkowników ceniących szybkość i dokładność w interakcji z narzędziami sztucznej inteligencji, takimi jak Claude czy modele z Amazon Bedrock. W erze vibe coding, gdzie płynność pracy bez zbędnych przeszkód ma ogromne znaczenie, takie aktualizacje są na wagę złota.

    Usprawnione wyszukiwanie w oknie wariantów (TUI)

    Jedną z najbardziej odczuwalnych zmian dla użytkowników interfejsu tekstowego jest poprawka wprowadzona w ramach pull requestu #19917. Dotyczyła ona działania wyszukiwania w oknie dialogowym wyboru wariantów modeli. Wcześniej zdarzało się, że wpisywanie tekstu nie filtrowało prawidłowo dostępnej listy, co zmuszało użytkownika do uciążliwego przewijania.

    Teraz mechanizm ten działa prawidłowo – wpisane znaki na bieżąco zawężają wyniki. To pozornie drobne usprawnienie w praktyce znacząco przyspiesza kluczowy moment wyboru odpowiedniego modelu czy konfiguracji agenta. Dodatkowo twórcy wprowadzili kolory z motywu graficznego dla tekstów zastępczych (placeholder) w polach tekstowych oraz udoskonalili zachowanie samego modala, czyniąc go mniej inwazyjnym.

    W kontekście szerszych prac nad TUI w tym cyklu wydawniczym warto wspomnieć też o przywróceniu domyślnej obsługi protokołu klawiatury Kitty w terminalach na Windowsie oraz opcji wyłączenia przechwytywania myszy przez zmienną środowiskową OPENCODE_DISABLE_MOUSE. Pokazuje to dbałość o różnorodne środowiska pracy deweloperów.

    Koniec z podwójnym liczeniem tokenów dla Anthropic i Bedrock

    Koniec z podwójnym liczeniem tokenów dla Anthropic i Bedrock

    Drugim filarem tego wydania jest naprawa istotnego błędu w rdzeniu aplikacji (PR #19758). Chodziło o problem z podwójnym naliczaniem tokenów dla dostawców Anthropic i Amazon Bedrock. Błąd ten prowadził do zawyżonych metryk zużycia w statystykach sesji, co mogło skutkować błędnym szacowaniem kosztów lub limitów użycia, zwłaszcza w środowiskach korporacyjnych.

    Poprawka gwarantuje, że tokeny są liczone dokładnie raz. Dla zespołów ściśle monitorujących budżet związany z korzystaniem z płatnych modeli AI jest to zmiana o fundamentalnym znaczeniu. Precyzyjne śledzenie zużycia to podstawa w DevOps i zarządzaniu zasobami chmurowymi, gdzie każda jednostka ma swoją cenę.

    Oprócz tej kluczowej poprawki, w szerszym kontekście wersji 1.3.6, zespół OpenCode kontynuował gruntowną refaktoryzację wewnętrznych usług (takich jak Config czy Session) w kierunku architektury opartej na bibliotece Effect, co ma poprawić stabilność i przewidywalność działania całego systemu.

    Dlaczego te poprawki mają znaczenie?

    Wydanie OpenCode v1.3.6 to doskonały przykład tego, jak dojrzałe projekty open source dbają o szczegóły. Nie znajdziemy tu rewolucyjnych funkcji, lecz konkretne, wymierne ulepszenia, które bezpośrednio przekładają się na jakość codziennej pracy.

    Usprawnienie wyszukiwania w TUI minimalizuje frustrację i skraca czas interakcji z narzędziem, pozwalając programiście skupić się na tym, co najważniejsze – na kodzie. Z kolei naprawa licznika tokenów przywraca zaufanie do danych diagnostycznych, niezbędnych do efektywnego zarządzania zasobami AI. W połączeniu z innymi niedawnymi nowościami, takimi jak wieloetapowe uwierzytelnianie dla GitHub Copilot Enterprise czy interaktywny proces aktualizacji, OpenCode konsekwentnie buduje pozycję solidnego i przewidywalnego środowiska do AI-assisted coding. W świecie szybko rozwijających się modeli i narzędzi taka stabilność fundamentów jest często tym, czego deweloperzy potrzebują najbardziej.


    Źródła

  • OpenCode v1.3.4: Architektoniczna Radykalna Zmiana i Ulepszenia TUI

    OpenCode v1.3.4: Architektoniczna Radykalna Zmiana i Ulepszenia TUI

    Wydanie OpenCode v1.3.4 to nie tylko kolejna iteracja popularnego terminalowego asystenta AI dla programistów, napisanego w języku Go. To znacząca zmiana architektury, która przenosi rdzeń aplikacji na nowe fundamenty, wprowadzając jednocześnie praktyczne ulepszenia dla użytkowników interfejsu tekstowego (TUI). Aktualizacja koncentruje się na zwiększeniu niezawodności, wydajności i ergonomii pracy, szczególnie w środowiskach związanych z web developmentem, AI oraz DevOps. Warto zaznaczyć, że równolegle do wersji terminalowej dostępna jest także beta aplikacji desktopowej na systemy macOS, Windows i Linux.

    Przejście na architekturę Effect-based

    Najważniejszą zmianą w wersji 1.3.4 jest gruntowna refaktoryzacja kluczowych usług systemu w kierunku architektury opartej na bibliotece Effect. To funkcyjne podejście do obsługi efektów ubocznych w TypeScript zastąpiło tradycyjne obietnice (Promises) w takich komponentach jak procesor sesji (session processor), serwis sesji (session service) oraz serwis kompaktowania sesji. Zamiast fasady obietnic zastosowano Effect.forEach, co zapewnia lepszą abstrakcję, czystsze zarządzanie błędami i bardziej przewidywalne wywłaszczanie (yielding) usług.

    Refaktoryzacja objęła również wewnętrzne mechanizmy plugin service i skill service, a także config service, który teraz używa AppFileSystem zamiast surowego Filesystem. Z systemu usunięto serwer obszaru roboczego (workspace server) i WorkspaceContext, poprawiając architekturę routingu poprzez rozdzielenie instancji i ścieżek w obszarach roboczych. Aktualizacja do AI SDK v6 oraz zamiana asynchronicznego git() na ChildProcessSpawner w module VCS to kolejne kroki ku większej stabilności.

    Nowe funkcje i ulepszenia TUI

    Dla użytkownika końcowego najważniejsze są nowości w interfejsie. Wprowadzono długo oczekiwaną funkcję prompt slots, która rozszerza możliwości tworzenia i wykorzystywania szablonów poleceń. W warstwie TUI dokonano przełomu – zamiast uciążliwego cyklicznego przełączania między wariantami modeli AI, użytkownik otrzymał dedykowane okno dialogowe do wyboru modelu. Znacząco przyspiesza to i ułatwia zmianę kontekstu pracy.

    Dodano także wsparcie dla wtyczek TUI, co otwiera drogę do dalszej rozbudowy interfejsu tekstowego. Poprawiono funkcjonalność subagentów, przywrócono stopkę subagenta i dodano odstęp u góry widoku sesji. Interfejs stał się spójniejszy wizualnie – placeholder w polu promptu używa teraz koloru z motywu, a system sprawdza motyw KV przed domyślnym fallbackiem. Aktualizacja OpenTUI do wersji 0.1.91 stanowi podstawę tych ulepszeń.

    Poprawa wydajności i naprawa krytycznych błędów

    Wydanie 1.3.4 przynosi namacalne korzyści w postaci szybszego uruchamiania aplikacji. Optymalizacje objęły rdzeń, aplikację desktopową i serwer, co oznacza krótszy czas startu we wszystkich trybach pracy. Naprawiono krytyczny błąd uniemożliwiający zbudowanie paczki web UI na systemie Windows, co było poważną przeszkodą dla części użytkowników.

    W zakresie integracji z Model Context Protocol (MCP) poprawiono obsługę błędów – transport MCP jest teraz zamykany przy nieudanych lub przekroczonych czasowo połączeniach, dodano również wzorce błędów overflow. Dla deweloperów pracujących nad wtyczkami istotna jest naprawa niestabilnych (flaky) testów poprzez usunięcie mock.module (niewspieranego w środowisku Bun) oraz ignorowanie generowanych plików snapshotów modeli.

    Podsumowanie: stabilniejszy fundament dla AI coding

    OpenCode v1.3.4 to strategiczne wydanie, które stanowi inwestycję w przyszłość projektu. Przejście na architekturę Effect-based nie jest zmianą widoczną na pierwszy rzut oka, ale zapewnia fundament pod większą stabilność, łatwiejsze utrzymanie i rozwój skomplikowanych funkcji, takich jak zaawansowane zarządzanie sesjami czy integracja z platformą GitLab. Jednocześnie konkretne ulepszenia TUI, takie jak dialog wyboru modelu czy gniazda promptów, bezpośrednio przekładają się na wygodę codziennej pracy programisty z AI w terminalu. Połączenie głębokiej refaktoryzacji backendu z dopracowaniem frontendu tekstowego pokazuje dojrzałość projektu skierowanego do profesjonalistów.


    Źródła

  • OpenCode v1.3.3: Większa Wydajność i Udoskonalenia Pulpitu

    OpenCode v1.3.3: Większa Wydajność i Udoskonalenia Pulpitu

    Wydanie OpenCode v1.3.3 z marca 2026 roku to aktualizacja skupiona na optymalizacji, która rozwiązuje kluczowe problemy zgłaszane przez społeczność, szczególnie w obszarach wydajności i stabilności. Wychodząc naprzeciw opiniom użytkowników, którzy wskazywali na spadki płynności w złożonych sesjach, twórcy wprowadzili szereg usprawnień mających przyspieszyć działanie zarówno interfejsu terminalowego (TUI), jak i aplikacji desktopowej.

    Optymalizacje wydajności „pod maską”

    Kluczową zmianą w tej wersji jest ulepszony mechanizm strumieniowania zdarzeń SSE (Server-Sent Events) w TUI. Poprzednia architektura przesyłała te zdarzenia przez lokalnego workera, co mogło wprowadzać opóźnienia. W najnowszej implementacji omija się ten proces, co przekłada się na szybszą i bardziej responsywną komunikację między serwerem a interfejsem użytkownika, szczególnie odczuwalną podczas streamingu odpowiedzi od AI.

    Drugą istotną optymalizacją jest nowy mechanizm pomijania dużych plików w snapshotach. OpenCode v1.3.3 automatycznie omija tworzenie migawek dla plików większych niż 2 MB. To proste, ale skuteczne rozwiązanie znacząco poprawia wydajność podczas pracy z projektami zawierającymi duże zasoby binarne, takie jak obrazy, filmy czy skompresowane archiwa, bez utraty funkcjonalności w przypadku plików kodu źródłowego.

    W tle trwają też głębsze prace refaktoryzacyjne. Rozpoczęto wdrażanie event-sourced syncing system dla danych sesji, co stanowi fundament pod bardziej przewidywalne i wydajne zarządzanie stanem aplikacji w przyszłości.

    Aplikacja desktopowa zyskuje na dojrzałości

    Wersja desktopowa otrzymała pakiet usprawnień typu quality-of-life. Najbardziej widoczną zmianą jest bezpośrednie osadzenie interfejsu WebUI w plikach binarnych aplikacji. Rozwiązuje to problemy z budowaniem pakietów na systemie Windows i zapewnia bardziej zintegrowane, niezawodne środowisko uruchomieniowe, niezależne od zewnętrznych serwerów deweloperskich.

    Ulepszono także nawigację między projektami. Dzięki mechanizmowi pre-warmingu stanu globalSync udało się wyeliminować migotanie interfejsu podczas przełączania projektów za pomocą skrótów klawiaturowych. Nawigację między wiadomościami w sesji przeniesiono z kombinacji cmd+strzałka na cmd+opt+[ i cmd+opt+], co zapobiega konfliktom z natywnymi skrótami poruszania kursorem w polach tekstowych.

    Dodano też praktyczną opcję `createDirectory` w oknie wyboru katalogów, ułatwiającą tworzenie nowych folderów bez opuszczania aplikacji.

    Stabilizacja podstaw platformy

    Najnowsze wydanie mocno stawia na niezawodność. Poprawiono obsługę uwierzytelniania w środowiskach enterprise, gdzie adres URL konfiguracji nie był poprawnie ustawiany podczas procesu logowania. To kluczowa poprawka dla zespołów korzystających z wewnętrznych, korporacyjnych dostawców AI.

    Wzmocniono również niezawodność serwerów MCP (Model Context Protocol). Wcześniej serwery MCP znikały po przejściowych błędach połączenia, zmuszając użytkowników do ich ręcznego restartu. Teraz aplikacja lepiej radzi sobie z błędami sieciowymi oraz problemami z OAuth, a połączenia transportowe są prawidłowo zamykane w przypadku awarii, co pozwala na sprawne odzyskiwanie stanu.

    Naprawiono także subtelne, ale irytujące błędy, takie jak ciche anulowanie narzędzi w workflow DWS z powodu braku wsparcia dla zatwierdzania akcji (tool approval) oraz problemy z zawieszaniem się sesji po wywołaniach narzędzi przez dostawców kompatybilnych z OpenAI.

    Kontekst i dostępność

    To wydanie jest bezpośrednią odpowiedzią na feedback społeczności, w tym na zgłoszenia dotyczące wydajności w poprzednich wersjach. Pokazuje to ewoluzyjne podejście zespołu OpenCode v1.3.3, który szybko reaguje na problemy użytkowników.

    Co ciekawe, w tej wersji tymczasowo wycofano nowe, oparte na Git tryby przeglądania sesji, aby przywrócić kompatybilność wsteczną ze starszymi wersjami CLI. Świadczy to o dbałości o stabilność całego ekosystemu.

    Instalacja pozostaje prosta – zarówno przez curl dla CLI, jak i poprzez pobranie aplikacji desktopowej na systemy macOS, Windows i Linux. Dla użytkowników, którzy potrzebują większej mocy obliczeniowej, dostępna jest subskrypcja OpenCode Go, oferująca wyższe limity dla modeli open-source, takich jak MiniMax czy Kimi.

    Podsumowanie

    To może nie rewolucyjna, ale niezwykle ważna aktualizacja konsolidacyjna. Skupia się na tym, co najistotniejsze w narzędziu programistycznym: szybkości, stabilności i przewidywalności. Poprzez optymalizację strumieniowania zdarzeń, inteligentne zarządzanie snapshotami, usunięcie błędów w obsłudze MCP oraz dopracowanie interfejsu desktopowego, wydanie to znacząco podnosi komfort codziennej pracy z AI. Potwierdza to dojrzałość projektu, który wychodzi poza etap dodawania nowych funkcji, by skupić się na tym, aby te istniejące działały po prostu lepiej.


    Źródła

  • OpenCode Zwiększa Wydajność TUI i Integrację z Pulpitami

    OpenCode Zwiększa Wydajność TUI i Integrację z Pulpitami

    Najnowsza aktualizacja OpenCode, otwartoźródłowego agenta AI do kodowania działającego w terminalu, wprowadza znaczące optymalizacje wydajności interfejsu TUI oraz ulepszenia integracji z aplikacją desktopową. Zmiany te mają na celu przyspieszenie pracy deweloperów i zapewnienie większej płynności podczas codziennych zadań programistycznych.

    Wydajność TUI na pierwszym planie

    Kluczową częścią aktualizacji są poprawki dotyczące Terminal User Interface. Twórcy OpenCode wprowadzili optymalizacje, dzięki którym interfejs szybciej reaguje podczas intensywnych sesji kodowania z AI.

    Wprowadzono również ulepszenia kompatybilności z różnymi emulatorami terminali. Poprawiono obsługę wprowadzania danych, co eliminuje błędy w renderowaniu. W systemie Windows wykorzystano dodatkowo FFI (Foreign Function Interface), aby rozwiązać problemy z obsługą raw input oraz skrótu Ctrl+C.

    Głębsze integracje desktopowe

    W aplikacji desktopowej zespół OpenCode skupił się na skróceniu czasu uruchamiania programu. Nawigacja między projektami stała się bardziej responsywna, a przełączanie się między nimi powoduje mniejsze migotanie interfejsu.

    Dodano także interaktywny proces aktualizacji z potwierdzeniami dla większych wydań. System pozwala pominąć wybrane wersje, jeśli użytkownik woli pozostać przy obecnej konfiguracji. Jest to istotne dla zespołów, które muszą kontrolować tempo wprowadzania zmian w swoje środowiska deweloperskie.

    Ulepszenia silnika i obsługi Enterprise

    Pod maską OpenCode zaszły istotne zmiany architektoniczne. Wprowadzono ulepszenia w systemie synchronizacji, które zapewniają większą niezawodność przy zarządzaniu danymi sesji.

    W zakresie uwierzytelniania OpenCode rozszerza wsparcie dla przedsiębiorstw. Poprawiono obsługę połączeń OAuth i mechanizmy automatycznego łączenia.

    Warto wspomnieć o nowej funkcji slotów na prompty, która pozwala na łatwiejsze zarządzanie szablonami poleceń dla modeli AI.

    Dlaczego te zmiany są istotne

    OpenCode wyróżnia się na tle innych narzędzi AI do kodowania pełnoekranowym interfejsem TUI. Jak wyjaśniają twórcy: „Jesteśmy TUI, co oznacza, że przejmujemy cały ekran i renderujemy na nim grafikę. Pozwala to na bardziej złożone operacje wizualne”. To podejście różni się od minimalistycznych interfejsów CLI, oferując bogatsze środowisko bez konieczności opuszczania terminala.

    Deweloperzy pracujący z dużymi projektami docenią też wprowadzenie narzędzi do efektywnego wyszukiwania, które optymalizują zużycie tokenów i redukują koszty analizy rozległych kodów źródłowych.

    Perspektywy rozwoju

    Obecnie społeczność OpenCode dyskutuje nad dalszymi ulepszeniami, w tym nad wprowadzeniem konfigurowalnych limitów przewijania (scrollback) i liczby wiadomości, co ma wyeliminować opóźnienia związane z nieograniczonymi listami. Prowadzone są też prace nad poprawą wydajności buforowania tekstu, aby usunąć wąskie gardła w TUI.

    Aktualizacje te pokazują, jak dojrzewa rynek narzędzi AI dla programistów. Zamiast skupiać się wyłącznie na możliwościach modeli językowych, twórcy OpenCode inwestują w stabilność, wydajność i integrację z istniejącymi workflow. Dla programistów oznacza to mniej czasu spędzonego na walce z narzędziem, a więcej na samym kodowaniu.


    Źródła

  • Codex 0.116.0: Rozbudowany TUI, Usprawnione Zarządzanie Wtyczkami i Lepsze Sesje Realtime

    Codex 0.116.0: Rozbudowany TUI, Usprawnione Zarządzanie Wtyczkami i Lepsze Sesje Realtime

    Najnowsza wersja Codex, oznaczona numerem 0.116.0, przynosi istotne usprawnienia, które mają ułatwić pracę programistom. Wydanie koncentruje się na poprawie komfortu pracy z interfejsem tekstowym serwera aplikacji (app-server TUI), wprowadzeniu wtyczek jako funkcjonalności pierwszej klasy oraz zwiększeniu stabilności kluczowych komponentów, takich jak sesje realtime. To solidna aktualizacja, która naprawia też kilka uciążliwych błędów.

    Wtyczki stają się funkcjonalnością pierwszej klasy

    Jedną z najważniejszych zmian w Codex 0.116.0 jest potraktowanie wtyczek jako podstawowego elementu workflow. To duża różnica w porównaniu do wcześniejszych, bardziej eksperymentalnych implementacji.

    Teraz system może automatycznie synchronizować wtyczki przypisane do danego produktu już przy starcie. Użytkownicy mają też dostęp do przeglądarki wtyczek pod adresem /plugins, co znacznie ułatwia ich odkrywanie. Sam proces instalacji i usuwania został uproszczony – jeśli brakuje wymaganej wtyczki lub konektora, Codex poinformuje o tym i zaproponuje instalację. Cały cykl życia wtyczki, w tym procesy uwierzytelniania i konfiguracji, jest teraz obsługiwany w bardziej przejrzysty sposób.

    Ulepszony interfejs App-Server i logowanie

    Wydanie 0.116.0 mocno stawia na usprawnienie pierwszego kontaktu z narzędziem poprzez app-server TUI. Kluczową nowością jest wsparcie dla logowania do ChatGPT za pomocą device code. Ta metoda uwierzytelniania, znana z innych narzędzi deweloperskich, jest często wygodniejsza niż wpisywanie haseł, szczególnie w środowiskach terminalowych.

    Dodano też nowy hook o nazwie userpromptsubmit. Pozwala on na przechwycenie, zablokowanie lub zmodyfikowanie promptu użytkownika, zanim zostanie on wykonany i trafi do historii rozmowy. To potężne narzędzie dla osób, które chcą mieć większą kontrolę nad interakcją z modelem.

    Stabilniejsze i bardziej funkcjonalne sesje realtime

    Praca w trybie rzeczywistym (realtime) zyskała na jakości. Zaimplementowano dedykowany tryb transkrypcji dla sesji realtime, co powinno poprawić obsługę audio. Usprawniono również logikę zamykania sesji oraz sposób radzenia sobie z przerwaniem strumienia audio w sesjach v2.

    Poprawki objęły też kontekst wątków. Dzięki lepszemu zarządzaniu historią konwersacji i naprawieniu błędu z ponownym pojawianiem się zarchiwizowanych, przypiętych wątków w panelu bocznym, nawigacja między projektami stała się bardziej przewidywalna.

    Kluczowe poprawki i usprawnienia infrastrukturalne

    Pod maską również zaszło sporo zmian. Wyeliminowano kilka krytycznych problemów, które mogły irytować użytkowników. Naprawiono blokady podczas uruchamiania (startup stalls), które potrafiły unieruchomić aplikację.

    Dla użytkowników Linuksa istotna jest poprawka dotycząca sandboxa. Codex 0.116.0 preferuje teraz systemowy /usr/bin/bwrap, jeśli jest on dostępny, co zwiększa niezawodność uruchamiania narzędzi w izolowanym środowisku na starszych dystrybucjach. W systemie Windows poprawiono problemy z obsługą skrótów klawiaturowych do kopiowania i wklejania w terminalu.

    Podsumowanie

    Codex 0.116.0 to wydanie, które stawia na dojrzałość i wygodę użytkowania. Wprowadzenie wtyczek jako podstawowego elementu workflow, wraz z intuicyjnym menedżerem, otwiera nowe możliwości rozszerzania funkcjonalności. Usprawnienia w interfejsie app-server TUI, szczególnie łatwiejsze logowanie i nowy hook do kontroli promptów, bezpośrednio przekładają się na płynność pracy. Połączenie tych nowości z pakietem istotnych poprawek stabilizujących sandbox, sesje realtime i historię rozmów sprawia, że jest to bardzo wartościowa aktualizacja dla każdego dewelopera korzystającego z Codex.


    Źródła

  • OpenCode v1.2.24: rozszerzone TUI, wsparcie dla GitLab z dużym kontekstem i Copilot

    OpenCode v1.2.24: rozszerzone TUI, wsparcie dla GitLab z dużym kontekstem i Copilot

    Najnowsza wersja popularnego, otwartoźródłowego agenta AI do programowania przynosi konkretne usprawnienia w codziennej pracy. Wydanie OpenCode skupia się na kilku głównych obszarach: lepszym zarządzaniu projektami w terminalu, rozszerzeniu integracji oraz poprawie stabilności aplikacji desktopowej.

    To nie są kosmetyczne poprawki, lecz zmiany, które bezpośrednio wpływają na wydajność i komfort korzystania z OpenCode jako narzędzia wspomagającego software development.

    Praca na wielu projektach: rozwój funkcjonalności obszarów roboczych

    Wydanie przynosi dalszy rozwój funkcjonalności związanych z obszarami roboczymi (workspaces). W kodzie źródłowym widoczne są zmiany, takie jak dodanie komendy workspace-serve, klasy WorkspaceContext oraz parametru workspaceID. Choć nie ma jeszcze oficjalnej flagi eksperymentalnej ani pełnego wsparcia w TUI, zmiany te wskazują na trwające prace nad wygodnym zarządzaniem wieloma projektami. W przyszłości ma to pozwolić programistom na płynne przechodzenie między różnymi bazami kodu przy zachowaniu kontekstu i stanu dla każdej z nich, co jest szczególnie cenne przy pracy w monorepozytoriach czy obsłudze wielu klientów.

    Rozszerzenie integracji i wsparcia dla modeli AI

    OpenCode konsekwentnie poszerza możliwości integracji i listę obsługiwanych modeli AI. System został zaprojektowany z myślą o elastyczności, umożliwiając współpracę z różnymi dostawcami, takimi jak Claude czy GPT. Ta architektura ułatwia dodawanie wsparcia dla nowych modeli i usług w przyszłości, choć konkretne informacje o dodaniu modelu Copilot GPT-5.4 xhigh czy komendy /connect dla GitHub Copilot nie znajdują potwierdzenia w oficjalnych komunikatach.

    Poprawki w wersji desktopowej: płynność i stabilność

    Wydanie przynosi też serię poprawek skoncentrowanych na użytkownikach aplikacji desktopowej, których celem jest poprawa stabilności i usprawnienie codziennych interakcji. Wprowadzono ogólne poprawki interfejsu użytkownika, wydajności oraz uprawnień. Choć nie ma bezpośrednich wzmianek o konkretnych problemach, takich jak "drżenie" przewijania czy zapętlenia, aktualizacje te mają na celu zapewnienie płynniejszego i bardziej przewidywalnego działania aplikacji poprzez usunięcie drobnych błędów, które mogły irytować użytkowników.

    Pod maską: ciągła poprawa stabilności i kompatybilności

    Wiele zmian w tym wydaniu, podobnie jak w poprzednich, dotyczy warstwy architektonicznej. Zespół kontynuuje pracę nad poprawą stabilności i kompatybilności międzyplatformowej, co jest szczególnie ważne dla użytkowników Windows. Wcześniejsze wydania, takie jak v1.2.19, wprowadzały poprawki dotyczące normalizacji ścieżek, obsługi zakończeń linii CRLF i odporności na błędy systemowe. Te ciągłe ulepszenia mają sprawić, że OpenCode będzie stabilnym i przewidywalnym narzędziem na wszystkich głównych systemach operacyjnych, choć szczegółowe informacje o zastępowaniu konkretnych funkcji Bun ich odpowiednikami z Node.js w najnowszych zmianach nie są dostępne.

    Podsumowanie: ewolucja zamiast rewolucji

    Najnowsze wydanie OpenCode nie zaskakuje jedną, przełomową funkcją. Zamiast tego oferuje zestaw praktycznych ulepszeń i ciągłą pracę nad fundamentami, które razem podnoszą jakość codziennej pracy. Rozwój funkcjonalności obszarów roboczych otwiera drzwi do lepszego zarządzania złożonymi środowiskami programistycznymi, a elastyczna architektura wsparcia dla modeli AI utrzymuje OpenCode w głównym nurcie rozwoju narzędzi deweloperskich.

    Wszystko to dopełnia szereg poprawek usuwających drobne błędy oraz ciągła optymalizacja architektury. W ten sposób OpenCode konsekwentnie realizuje swoją rolę: ma być wydajnym, niezawodnym i otwartym mostem między programistą a asystentem AI, niezależnie od wybranego środowiska pracy – terminala, IDE czy aplikacji desktopowej.

  • OpenCode v1.2.22 gotowa: stabilniejsze TUI, poprawki desktop i usprawnienia bazy danych

    OpenCode v1.2.22 gotowa: stabilniejsze TUI, poprawki desktop i usprawnienia bazy danych

    Najnowsza wersja open-source'owego agenta AI do kodowania, OpenCode, oznaczona numerem 1.2.21, trafiła do użytkowników. To pozornie niewielki release, który przynosi szereg istotnych poprawek skupionych na stabilizacji, interfejsie użytkownika i zarządzaniu danymi. Wszystko po to, by praca z AI w terminalu lub aplikacji desktopowej była płynniejsza.

    Dla zespołu OpenCode to etap dopracowywania fundamentów. Aktualizacja koncentruje się na trzech głównych obszarach: rdzeniu systemu (Core), terminalowym interfejsie tekstowym (TUI) oraz aplikacji desktopowej opartej na Electronie. Widać tu dbałość o detale, które w codziennej pracy decydują o komforcie programisty.

    Co nowego w rdzeniu systemu? Bazy danych i ścieżki

    Jedna z kluczowych zmian dotyczy sposobu, w jaki OpenCode obsługuje ścieżki katalogów w trybie TUI. Po zmianie katalogu roboczego program ujednolica teraz bieżącą ścieżkę (kanonikalizacja). W praktyce oznacza to, że ścieżka jest sprowadzana do standardowej, absolutnej formy. Eliminuje to problemy z niespójnymi referencjami do plików, co jest szczególnie ważne, gdy agent AI operuje na strukturze projektu. Dla deweloperów pracujących w modelu vibe coding to drobna, ale znacząca poprawka.

    Ponadto naprawiono błąd związany z przełączaniem MCP (Model Context Protocol) w TUI. MCP to mechanizm zarządzania kontekstem dla modeli językowych – dzięki poprawce funkcja ta znów działa prawidłowo.

    Terminalowy interfejs (TUI) bez niespodzianek

    Dla miłośników pracy w terminalu zmiany w TUI są zazwyczaj najważniejsze. Wersja 1.2.21 wprowadza poprawki zwiększające stabilność interfejsu, eliminując błędy, które mogły pojawiać się podczas intensywnych sesji kodowania.

    Dopracowanie aplikacji desktopowej

    Aplikacja desktopowa OpenCode otrzymała zestaw poprawek UI/UX, które eliminują drobne, ale dokuczliwe błędy wizualne:

    • Stan paska bocznego: Poprawiono synchronizację stanu zwinięcia i rozwinięcia paska bocznego między różnymi widokami aplikacji.
    • Trwałość wyboru modelu: Wybór modelu AI w danej sesji jest teraz prawidłowo zapamiętywany.

    Wkład społeczności i szerszy kontekst

    Wkład społeczności i szerszy kontekst

    Wydanie 1.2.21 to kolejny dowód na siłę modelu open source. Społeczność aktywnie przyczynia się do rozwoju projektu, przesyłając poprawki do kodu i dokumentacji. Pokazuje to, że OpenCode ma zaangażowaną grupę użytkowników, którzy dbają nie tylko o nowe funkcje, ale i o ogólną niezawodność narzędzia.

    OpenCode to potężne rozwiązanie. Jako otwarty agent AI do kodowania działa w trzech postaciach: jako aplikacja TUI, aplikacja desktopowa lub rozszerzenie do IDE. Obsługuje ponad 75 dostawców modeli językowych (LLM) przez AI SDK oraz Models.dev, oferując funkcje takie jak tryb planowania (klawisz Tab tymczasowo blokuje wprowadzanie zmian), analizę obrazów przez przeciąganie i upuszczanie czy komendę /undo. Poprawki w tym wydaniu, choć techniczne, stanowią stabilne podłoże dla tych zaawansowanych możliwości.

    Podsumowanie: stabilność przede wszystkim

    Wydanie OpenCode 1.2.21 nie wprowadza rewolucyjnych funkcji, lecz skupia się na budowie solidnego fundamentu pod przyszłe innowacje. Stabilizacja TUI to ułatwienie dla programistów preferujących terminal, a dopracowanie interfejsu desktopowego sprawia, że aplikacja jest po prostu wygodniejsza.

    To dojrzałe podejście. W świecie szybko rozwijających się narzędzi AI, gdzie często goni się za kolejnymi przełomami, wydania konserwacyjne są niezbędne. Pozwalają utrzymać wysoką jakość techniczną, naprawiają irytujące błędy i przygotowują infrastrukturę na kolejne duże aktualizacje. Dla każdego, kto używa OpenCode na co dzień, przejście na wersję 1.2.21 to rozsądny krok w stronę bardziej niezawodnej współpracy z AI.

  • OpenCode v1.2.20: Fundament Stabilności i Udoskonalenia Interfejsu Terminalowego

    OpenCode v1.2.20: Fundament Stabilności i Udoskonalenia Interfejsu Terminalowego

    Wydanie OpenCode w wersji 1.2.20, opublikowane 6 marca 2026 roku, to kolejny kluczowy krok w ewolucji tego zaawansowanego środowiska programistycznego wspieranego przez sztuczną inteligencję. Choć nie wprowadza spektakularnych nowości, koncentruje się na kwestiach fundamentalnych dla codziennej pracy – solidności rdzenia i płynności działania. Aktualizacja ta eliminuje poważne problemy z zarządzaniem pamięcią i zwiększa kompatybilność, poprawiając jednocześnie user experience w trybie tekstowego interfejsu użytkownika (TUI).

    Dla zespołu OpenCode takie wydania są często najważniejsze. Stabilna i przewidywalna podstawa pozwala później bezpiecznie wprowadzać eksperymentalne funkcje, na których skupiają się kolejne wersje, jak 1.2.21 czy 1.2.23. Wersja 1.2.20 to cegiełka umacniająca fundament pod przyszłe innowacje.

    Naprawa krytycznego wycieku pamięci w daemonach fsmonitor

    Najpoważniejszą zmianą w tej wersji jest rozwiązanie problemu wycieku pamięci w daemonach fsmonitor. Narzędzie to monitoruje zmiany w systemie plików, reagując na modyfikacje kodu w czasie rzeczywistym. Nieszczelność w jego działaniu była jednak wyjątkowo dotkliwa.

    Podczas uruchamiania testów nieprawidłowo zamykane procesy daemonów potrafiły pozostawiać w pamięci operacyjnej (committed memory) ponad 60 GB śmieci. Dla programistów pracujących na lokalnych maszynach, zwłaszcza tych z mniejszą ilością RAM, taki wyciek prowadził do drastycznego spadku wydajności całego systemu, a nawet do jego zawieszenia. Problem był szczególnie uciążliwy podczas długich sesji deweloperskich lub przy ciągłym uruchamianiu testów jednostkowych i integracyjnych.

    Naprawa tego błędu ma bezpośredni wpływ na developer experience. Zamiast martwić się o restartowanie środowiska co kilka godzin w celu zwolnienia pamięci, użytkownik może skupić się wyłącznie na pisaniu kodu. Zwiększa to również niezawodność OpenCode jako narzędzia do ciągłej integracji (CI), gdzie stabilne zużycie zasobów jest kluczowe.

    Większa kompatybilność: zamiana Bun.which na npm which

    Kolejna istotna zmiana w module core dotyczy zastąpienia narzędzia Bun.which jego odpowiednikiem z ekosystemu npm – npm which. To część szerszego trendu w rozwoju OpenCode, polegającego na stopniowym odchodzeniu od specyficznych API środowiska Bun na rzecz bardziej uniwersalnych rozwiązań z Node.js.

    Funkcja which służy do lokalizowania ścieżek do plików wykonywalnych w systemie. Choć API Buna jest wydajne, jego użycie może czasem powodować problemy z kompatybilnością w niektórych konfiguracjach, zwłaszcza przy złożonych setupach z wieloma menedżerami pakietów lub w kontenerach.

    • Migracja na npm which zwiększa przenośność kodu OpenCode. Oznacza to, że środowisko będzie działać bardziej niezawodnie na różnych dystrybucjach Linuksa, wersjach macOS czy w systemie Windows z WSL2. To strategiczny ruch ułatwiający wdrożenie OpenCode w zróżnicowanych zespołach i infrastrukturach. Trend ten jest kontynuowany w późniejszych wydaniach, w których pojawiają się podobne zmiany, jak zastąpienie Bun.semver czy Bun.shell.

    Przywrócenie obsługi stdin z Buna w TUI

    W obszarze tekstowego interfejsu użytkownika (TUI) wprowadzono ważną poprawkę techniczną. Przywrócono wykorzystanie Bun.stdin do odczytu danych wejściowych z prompta. Poprzednie wydanie eksperymentowało z przejściem na node:stream/consumers w celu poprawy kompatybilności, co jednak najwyraźniej wywołało pewne komplikacje.

    Interfejs TUI w OpenCode jest kluczowy dla osób preferujących pracę bezpośrednio w terminalu. Wszelkie problemy z odczytem komend, zwłaszcza w trybie interaktywnym podczas pisania promptów dla AI, natychmiast odbijają się na produktywności. Przywrócenie sprawdzonego mechanizmu z Bun zapewnia płynność i responsywność, których oczekują programiści. Pokazuje to również podejście zespołu OpenCode: chęć do eksperymentowania, ale i zdolność do szybkiego wycofania zmian, które nie działają optymalnie.

    Kontekst ścieżki rozwoju

    Aby w pełni zrozumieć znaczenie wersji 1.2.20, warto spojrzeć na sąsiadujące wydania. Poprzednia wersja była dużym krokiem w stronę uniezależnienia od Buna. Zawierała serię zamian: Bun.stderr, Bun.color, Bun.connect, Bun.hash, Bun.write i Bun.sleep na ich odpowiedniki z Node.js. Wersja 1.2.20 kontynuuje ten proces, skupiając się na Bun.which.

    Z kolei wersja 1.2.21, wydana dzień później, wprowadza już ulepszenia funkcjonalne, które bazują na stabilności zapewnionej przez „łatanie” w 1.2.20. Mowa tu o poprawie rozwiązywania ścieżek Git na Windowsie, uszczelnieniu wycieku uchwytów sesji PTY czy zachowaniu oryginalnych zakończeń linii (line endings) w narzędziu do edycji. To klasyczny schemat: najpierw budowa solidnego fundamentu, a dopiero potem bezpieczne wznoszenie na nim nowych konstrukcji.

    Dlaczego takie wydania są kluczowe?

    Dla użytkownika końcowego wydania skupione na stabilizacji mogą nie być tak ekscytujące jak te wprowadzające nowe modele AI czy spektakularne funkcje interfejsu. Ich wartość jest jednak nie do przecenienia.

    • Niezawodność to podstawa zaufania do narzędzia. Programista używa OpenCode jako głównego środowiska pracy, a wszelkie problemy z zarządzaniem pamięcią czy kompatybilnością bezpośrednio uderzają w jego efektywność. Stabilne zużycie zasobów jest kluczowe zarówno lokalnie, jak i w środowiskach CI/CD. Wydania takie jak 1.2.20, choć mało efektowne, są niezbędne, aby innowacyjne funkcje mogły działać bez zarzutu. Dzięki takim aktualizacjom OpenCode staje się nie tylko potężnym, ale i godnym zaufania partnerem w procesie tworzenia oprogramowania.
  • Codex v0.111.0: Tryb Fast Domyślnie Włączony I Kluczowe Ulepszenia Interfejsu

    Codex v0.111.0: Tryb Fast Domyślnie Włączony I Kluczowe Ulepszenia Interfejsu

    Najnowsza aktualizacja Codex, oznaczona numerem 0.111.0, przynosi istotną zmianę w domyślnej konfiguracji tego zaawansowanego asystenta programistycznego. Tryb Fast jest teraz włączany automatycznie dla wszystkich nowych sesji. Wprowadzono też wyraźny wskaźnik w interfejsie tekstowym (TUI), który informuje, czy sesja działa w trybie szybkim, czy standardowym. Te pozornie drobne modyfikacje mają duży wpływ na wydajność i przejrzystość pracy z narzędziem, choć – jak się okazuje – nie obyło się bez pewnych problemów.

    Co oznacza tryb Fast w Codex?

    Tryb Fast w Codex to ustawienie, które bezpośrednio wpływa na to, jak szybko asystent wykonuje wnioskowanie (inference) pomiędzy wątkami, agentami podrzędnymi (subagents) oraz podczas kompaktowania zadań. Przełączenie na Fast oznacza priorytet dla szybkości działania. W opisie funkcji podkreśla się, że zapewnia ona „najszybsze wnioskowanie kosztem 2-krotnie szybszego zużycia zasobów planu”.

    To kluczowa informacja dla użytkowników. W trybie Standard Codex może działać bardziej zachowawczo, zarządzając zasobami w sposób zrównoważony. Tryb Fast zdejmuje te ograniczenia, co przekłada się na szybsze odpowiedzi, ale i szybsze zużywanie dostępnych limitów. Do tej pory użytkownik musiał ten tryb wybrać świadomie. W wersji 0.111.0 deweloperzy uznali, że większość osób preferuje szybkość, i ustawili ją jako opcję domyślną.

    Wizualna informacja w nagłówku TUI

    Drugim ważnym ulepszeniem jest modyfikacja interfejsu tekstowego. Nagłówek TUI wyraźnie wyświetla teraz informację o aktualnie aktywnym trybie sesji – Fast lub Standard. To nie tylko kwestia estetyki.

    Dzięki temu programiści od razu widzą, w jakim trybie pracuje Codex. Ma to szczególne znaczenie teraz, gdy tryb szybki jest domyślny. Jeśli ktoś zauważy zbyt gwałtowny spadek dostępnych zasobów, ten wskaźnik daje mu natychmiastową podpowiedź co do potencjalnej przyczyny. Przejrzystość w zarządzaniu kosztami i wydajnością jest w przypadku takich narzędzi kluczowa.

    Inne ulepszenia w pakiecie

    Wydanie 0.111.0 to nie tylko zmiana trybu. Wprowadzono też inne istotne funkcjonalności.

    • Dynamiczny import lokalnych plików JavaScript w środowisku REPL (js_repl) to spore ułatwienie. Teraz można bezpośrednio importować lokalne pliki .js i .mjs, co ułatwia ponowne wykorzystanie skryptów z obszaru roboczego podczas interaktywnej pracy. To mały, ale praktyczny krok w stronę lepszej integracji.

    • Ulepszone wykrywanie pluginów to kolejna zmiana. Codex informuje teraz model o tym, które wtyczki są włączone na początku każdej sesji. Poprawia to wykrywanie zainstalowanych serwerów MCP (Model Context Protocol), aplikacji i umiejętności, pozwalając asystentowi od razu z nich skorzystać.

    Nieoczekiwane skutki uboczne: skoki zużycia zasobów

    Niestety, zmiany w wersji 0.111.0 nie przeszły bezproblemowo. Wśród użytkowników szybko pojawiły się zgłoszenia o gwałtownych skokach zużycia tokenów i zasobów planu po aktualizacji. Analiza problemu prowadzona na forach deweloperskich wskazuje na połączenie dwóch czynników.

    Po pierwsze, samo włączenie domyślnego trybu Fast powoduje szybsze zużycie zasobów – było to oczekiwane, ale może zaskoczyć nieprzygotowanych użytkowników. Po drugie, co prawdopodobnie istotniejsze, w tej samej wersji wprowadzono zmiany w logice zdolności agentowych (agency).

    Algorytmy odpowiedzialne za tworzenie agentów podrzędnych (subagents) stały się bardziej agresywne. Są one teraz jawnie zachęcane do równoległego uruchamiania wielu „eksplorerów” i ponownego ich wykorzystywania. W praktyce po aktualizacji sesje nadrzędne zaczęły tworzyć znacznie więcej długożyjących agentów podrzędnych, często z flagą fork_context: true.

    Efekt? Jeden z raportów pokazuje, jak dzienne zużycie tokenów u jednego użytkownika skoczyło z poziomu około 100–180 milionów przed aktualizacją do ponad 1 miliarda w wersji 0.111.0. W niektóre dni nawet 86% wszystkich tokenów było zużywanych przez agentów podrzędnych, a nie przez główną sesję. To już nie tylko kwestia samego trybu Fast, ale zmiany w fundamentalnym zachowaniu systemu.

    Co to oznacza dla programistów?

    Zmiany w Codex 0.111.0 mają swoje dobre i złe strony. Z jednej strony domyślna szybkość i lepsza informacja w TUI to ewidentne ułatwienia. Praca staje się płynniejsza, a interfejs bardziej przejrzysty.

    Z drugiej strony należy zachować teraz szczególną czujność. Korzystając z zaawansowanych funkcji, zwłaszcza tych związanych z wieloma agentami, można nieoczekiwanie narazić się na bardzo wysokie zużycie zasobów. Warto regularnie sprawdzać wskaźnik w nagłówku TUI. Należy też pamiętać, że tryb można zmienić – jeśli priorytetem jest oszczędność zasobów, a nie maksymalna prędkość, powrót do ustawienia Standard będzie rozsądnym krokiem.

    Problem ze skokami zużycia został zgłoszony jako regresja i jest badany przez zespół deweloperski. To naturalna część cyklu rozwoju złożonego oprogramowania. Kluczowe jest jednak, aby użytkownicy byli świadomi tej dynamiki.

    Wnioski

    Aktualizacja Codex do wersji 0.111.0 pokazuje klasyczny dylemat rozwoju zaawansowanych narzędzi AI: balans między wydajnością, funkcjonalnością a przewidywalnością kosztów. Włączenie trybu Fast domyślnie to wyraźny sygnał, że twórcy stawiają na szybkość działania, prawdopodobnie odpowiadając na feedback społeczności.

    Jednak równoległa zmiana w logice agentów podrzędnych, choć mająca na celu poprawę możliwości systemu, wprowadziła istotny efekt uboczny. Przypomina to, że takie systemy są niezwykle złożone, a pozornie odrębne modyfikacje mogą na siebie nieoczekiwanie oddziaływać.

    Dla programisty korzystającego z Codex najważniejsza jest teraz świadomość: domyślnych ustawień, informacji widocznych w interfejsie oraz potencjalnego wpływu narzędzia na zużycie zasobów. Nowy wskaźnik w TUI jest w tej sytuacji bezcenny – pozwala trzymać rękę na pulsie i w porę zareagować, jeśli praca z asystentem stanie się zbyt kosztowna. Ostatecznie to od użytkownika zależy, jak wykorzysta potencjał szybszego trybu, zarządzając jednocześnie nowymi, bardziej złożonymi zachowaniami systemu.