Tag: Agenci AI

  • OpenAI Codex 0.120.0: lżejsze agenty w tle i mocniejszy sandbox dla Windows

    OpenAI Codex 0.120.0: lżejsze agenty w tle i mocniejszy sandbox dla Windows

    OpenAI wydało nową wersję swojego narzędzia dla deweloperów – OpenAI Codex 0.120.0, która koncentruje się na usprawnieniu pracy z agentami w czasie rzeczywistym oraz stabilizacji środowisk deweloperskich, zwłaszcza na Windows. Aktualizacja, opublikowana 11 kwietnia 2026 roku, wprowadza znaczące ulepszenia do systemu Realtime V2, terminalowego interfejsu użytkownika (TUI) oraz rozwiązuje kluczowe problemy związane z politykami systemu plików w sandboxie. To kolejny krok w rozwoju OpenAI Codex jako platformy do programowania agentowego bezpośrednio z terminala.

    Głównym celem wydania jest poprawa współpracy między użytkownikiem a wieloma agentami AI. Dzięki nowym mechanizmom kolejkowania i strumieniowania postępu w tle, praca z narzędziem ma być bardziej intuicyjna i mniej podatna na zakłócenia. Zespół skupił się również na solidnych poprawkach dla systemu Windows, który często stwarzał wyzwania dla izolowanych środowisk uruchomieniowych.

    Kluczowe zmiany w wydaniu 0.120.0

    • Ulepszenia Realtime V2: System może teraz strumieniować postęp agenta działającego w tle, nawet gdy inne zadanie jest jeszcze wykonywane. Odpowiedzi kolejnych agentów są kolejkowane i czekają, aż aktywna odpowiedź się zakończy, co poprawia "przekazywanie pałeczki" w czasie rzeczywistym.
    • Lepsze skanowanie hooków w TUI: Interfejs terminalowy został ulepszony, aby aktywność hooków (dodatkowych skryptów) była łatwiejsza do śledzenia. Działające hooki są wyraźnie oddzielone, a ich ukończone dane wyjściowe są zachowywane tylko wtedy, gdy są przydatne.
    • Stabilizacja sandboxa Windows: Naprawiono problemy z politykami systemu plików, lepiej obsługiwane są wiele wersji OpenAI Codex zainstalowanych w systemie, a wywołania Start-Process w tle nie otwierają już niechcianych okien PowerShell.
    • Niestandardowe linie statusu i MCP: TUI zyskało wsparcie dla niestandardowych linii statusu, w tym opcję graficznego paska zużycia kontekstu. Schematy deklaracji narzędzi w Model Context Protocol (MCP) zostały dopracowane dla czystszej typizacji.

    Głębsza integracja agentów w czasie rzeczywistym

    Najważniejsza zmiana w tym wydaniu dotyczy rdzenia funkcji Realtime V2. Wcześniej interakcja z wieloma agentami mogła prowadzić do sytuacji, w których odpowiedzi się nakładały lub konkurowały o uwagę użytkownika. Teraz, jak opisano w notkach wydania, "Realtime V2 może strumieniować postęp agenta w tle, gdy praca wciąż jest wykonywana i kolejkować kolejne odpowiedzi, aż aktywna odpowiedź się zakończy".

    W praktyce oznacza to, że jeśli poprosisz głównego agenta o zrefaktoryzowanie kodu, a w międzyczasie uruchomisz drugiego agenta do analizy logów, ten drugi będzie cicho zbierał dane i przygotowywał się w tle. Jego postęp może być widoczny (np. jako pasek lub informacja), ale pełna odpowiedź pojawi się dopiero wtedy, gdy pierwsze zadanie dobiegnie końca. To kluczowe dla zachowania kontekstu i płynności rozmowy, co jest istotą efektywnego programowania.

    Dopracowanie interfejsu i narzędzi dla dewelopera

    Dopracowanie interfejsu i narzędzi dla dewelopera

    Interfejs terminalowy (TUI) otrzymał subtelne, ale znaczące usprawnienia. Lepsza wizualizacja hooków pomaga deweloperom śledzić, które automatyzacje są właśnie uruchomione, a które już się zakończyły, bez zaśmiecania widoku niepotrzebnymi informacjami.

    W społeczności szybko zauważono nowe, praktyczne funkcje, takie jak możliwość zmiany nazwy wątku (/rename) czy skopiowania ostatniego outputu agenta za pomocą Ctrl+O. Pojawiła się także opcja włączenia powiadomień TUI oraz, co najciekawsze graficznie, opcjonalny pasek stanu zużycia kontekstu w formie wykresu słupkowego. Te zmiany, choć pozornie kosmetyczne, znacząco podnoszą ergonomię codziennej pracy.

    Dopracowano również system MCP, który służy do integracji zewnętrznych narzędzi i serwisów. Czystsze schematy deklaracji narzędzi (outputSchema) ułatwiają precyzyjne definiowanie typów danych, co przekłada się na mniej błędów i lepsze podpowiedzi podczas kodowania z pomocą agentów.

    Twardy orzech do zgryzienia: stabilność na Windows

    Twardy orzech do zgryzienia: stabilność na Windows

    Dla wielu użytkowników, szczególnie w środowiskach korporacyjnych, najważniejszą częścią tego wydania mogą być poprawki związane z sandboxem na Windows. Izolowane środowisko wykonawcze OpenAI Codex miało historycznie problemy ze ścisłymi politykami systemu plików Windows oraz z niechcianym pojawianiem się okien konsoli.

    Wersja 0.120.0 rozwiązuje te problemy. Poprawki obejmują lepsze zarządzanie wieloma instalacjami OpenAI Codex w systemie, unikanie narzucania list kontroli dostępu (ACL) w katalogach z zainstalowaną aplikacją oraz, co szczególnie istotne dla płynności pracy, ukrywanie okien PowerShell przy wywołaniach procesów w tle za pomocą Start-Process -WindowStyle Hidden. To nie spektakularna nowa funkcja, ale fundamentalna poprawka, która czyni narzędzie bardziej niezawodnym i profesjonalnym na tej platformie.

    Kontekst rozwoju i podsumowanie

    Wydanie 0.120.0 wpisuje się w szerszą strategię OpenAI.


    Źródła

  • Kimi Code CLI 1.33.0: Ujednolicona marka i oczyszczona powłoka

    Kimi Code CLI 1.33.0: Ujednolicona marka i oczyszczona powłoka

    Kimi Code CLI, open-source'owy asystent AI działający z poziomu terminala, wydał wersję 1.33.0. Aktualizacja, która miała miejsce 13 kwietnia 2026 roku, koncentruje się na poprawie interfejsu użytkownika oraz ujednoliceniu wizerunku marki, a także na stabilności i obsłudze narzędzi MCP. Najważniejszą zmianą jest zastąpienie dotychczasowych nazw modeli ogólnym oznaczeniem "Kimi for Code" oraz usunięcie sztywnych odniesień do wersji.

    Celem tej zmiany jest zapewnienie użytkownikom bardziej spójnego wrażenia podczas korzystania z narzędzia. Zamiast technicznych identyfikatorów, takich jak kimi-k2.5, które mogły sugerować zależność od konkretnej wersji backendu, interfejs teraz prezentuje jednolitą markę. Refaktoryzacja została przeprowadzona w ramach pull requesta #1860, zgłoszonego przez kontrybutora @RealKai42. Dodatkowo, z ekranu powitalnego oraz podpowiedzi po komendzie /login usunięto informacje o wersji, co upraszcza komunikację. Wewnętrzne podbicie wersji do 1.33.0 zostało zarejestrowane w osobnym PR #1861.

    Kluczowe zmiany w wersji 1.33.0

    Aktualizacja, choć niewielka, precyzyjnie adresuje kwestie spójności wizualnej:

    • Ujednolicona prezentacja modeli: Wszystkie modele AI są teraz wyświetlane w powłoce pod marką "Kimi for Code". Eliminuje to potencjalne zamieszanie i podkreśla ogólny charakter narzędzia, niezależnie od aktualnie używanego backendu.
    • Oczyszczony interfejs: Usunięto zapisane ciągi znaków z numerami wersji (np. kimi-k2.5) z ekranu powitalnego oraz podpowiedzi logowania. Dzięki temu interfejs jest bardziej minimalistyczny i skupia się na funkcjonalności.
    • Dopracowanie po wcześniejszych stabilizacjach: Ta aktualizacja wpisuje się w ciąg poprzednich ulepszeń, które koncentrowały się na lepszym zarządzaniu wynikami narzędzi MCP (Model Client Protocol) oraz na poprawie stabilności wersji CLI. Pokazuje to podejście twórców, którzy najpierw wzmacniają rdzeń, a następnie poprawiają doświadczenia użytkownika.
    • Kim jest Kimi Code CLI i dlaczego to ważne?

    Kimi Code CLI to potężny, open-source'owy agent CLI od MoonshotAI, zaprojektowany z myślą o web development, AI coding oraz dev ops. Jego siła leży w integracji z terminalem, co umożliwia płynną, wspomaganą sztuczną inteligencją pracę nad kodem bez konieczności opuszczania konsoli. Narzędzie oferuje tryb powłoki (shell-mode) dla wykonywania asystowanych poleceń, integrację z wtyczką Zsh, wsparcie dla ACP (Agent Client Protocol) do łączenia się z IDE oraz konfigurację narzędzi MCP do komunikacji z zewnętrznymi serwisami.

    Na jego możliwości składają się również: obsługa wielu agentów jednocześnie, edycja wielu plików, automatyczne uruchamianie testów, system piaskownic i uprawnień, wejście multimodalne (obraz, głos) oraz instalacja Pythona przez uv. Wydanie Kimi Code CLI 1.33.0 zbiegło się z premierą modelu Kimi K2.6 (13 kwietnia 2026), który oferuje 256K okno kontekstowe, obsługę do 100 agentów jednocześnie (tzw. swarms) i wyniki na poziomie ~77% w teście SWE-Bench Verified, co czyni go wydajną opcją do pracy z dużymi bazami kodu.

    • Perspektywa dla programistów

    Dla społeczności developerów, zwłaszcza w Polsce, narzędzia takie jak Kimi Code CLI otwierają nowe możliwości. Integracja AI bezpośrednio w terminal oznacza mniejsze obciążenie systemu, szybsze iteracje i możliwość automatyzacji rutynowych zadań bez przełączania kontekstu na inne aplikacje. Dopracowywanie interfejsu, jak w wersji 1.33.0, jest kluczowe dla adopcji – intuicyjne i czyste środowisko zachęca do częstszego używania.

    • Podsumowanie

    Wydanie Kimi Code CLI 1.33.0 może wydawać się drobnym krokiem, ale jest świadomym posunięciem w stronę dojrzałego produktu. Przesunięcie akcentu z technicznego żargonu (kimi-k2.5) na spójną markę użytkownika (Kimi for Code) oraz oczyszczenie interfejsu pokazuje, że twórcy dbają o moc obliczeniową, jak i o wygodę dla końcowego programisty. To solidna podstawa pod dalszy rozwój, zwłaszcza w kontekście równoległej premiery modelu K2.6.


    Źródła

  • Opencode wprowadza kluczowe poprawki OAuth i nowe warianty modeli

    Opencode wprowadza kluczowe poprawki OAuth i nowe warianty modeli

    Ostatnia aktualizacja Opencode koncentruje się na zwiększeniu niezawodności współpracy z agentami AI, poprawiając obsługę interfejsu oraz rozszerzając funkcje API. Wydanie to odpowiada na problemy zgłaszane przez społeczność i stanowi kolejny krok w optymalizacji środowiska deweloperskiego. Wprowadzone zmiany wpływają na użyteczność narzędzia, które zyskuje popularność jako terminalowe środowisko dla asystentów kodujących.

    Kluczowe zmiany w aktualizacji

    • Naprawa regresji motywu systemowego w TUI: Rozwiązano problem z wyświetlaniem motywu systemowego w terminalowym interfejsie użytkownika (TUI), co przywraca spójność wizualną.
    • Dostosowanie wysokości autouzupełniania: Udoskonalono działanie funkcji autouzupełniania, aby lepiej dostosowywała wysokość wyświetlanych sugestii do zawartości.
    • Nowe endpointy HTTP API: Dodano nowe punkty końcowe API HTTP, takie jak GET /config oraz endpointy do sprawdzania statusu serwerów, co poszerza możliwości integracji i automatyzacji.
    • Poprawki importów dla Windows: Usunięto problemy związane z importowaniem modułów w środowisku Windows, co zwiększa stabilność na tej platformie.
    • Ograniczenie wariantów modeli: Wprowadzono zmiany, które ograniczają wyświetlanie wariantów do wybranego modelu, w tym modeli Opencode.

    Dopracowanie interfejsu i ekosystemu rozszerzeń

    Głównym celem tej aktualizacji jest poprawa doświadczeń użytkowników oraz rozszerzenie możliwości integracji. Naprawa regresji motywu systemowego w TUI przywraca oczekiwane, spójne zachowanie interfejsu, które wielu użytkowników preferowało. Dostosowanie logiki autouzupełniania sprawia, że praca z terminalem staje się bardziej płynna i przewidywalna.

    Dodanie nowych endpointów HTTP API, w tym możliwości sprawdzania konfiguracji i statusu serwerów, to ważny krok w kierunku lepszej automatyzacji i integracji z zewnętrznymi narzędziami. Umożliwia to administratorom i zaawansowanym użytkownikom bezpieczniejsze i bardziej elastyczne włączanie Opencode do istniejących przepływów pracy, szczególnie w środowiskach korporacyjnych.

    Poprawki związane z importami na Windowsie oraz zmiany dotyczące wyświetlania wariantów modeli świadczą o dbałości o stabilność i przejrzystość na wszystkich obsługiwanych platformach. Ograniczenie wyświetlanych wariantów do zakresu wybranego modelu pomaga uniknąć nieporozumień i upraszcza proces konfiguracji.

    To wydanie Opencode ilustruje metodyczne podejście do rozwiązywania rzeczywistych problemów użytkowników. Zamiast wprowadzać rewolucyjne nowości, dostarczono zestaw precyzyjnych poprawek, które stabilizują podstawowe funkcje – przewidywalne działanie interfejsu oraz elastyczność integracji. Taki kierunek rozwoju świadczy o dojrzałości projektu, który koncentruje się na niezawodności, będącej fundamentem produktywności w codziennej pracy deweloperskiej.


    Źródła

  • Codex 0.120.0: Lepsze streamowanie agentów w czasie rzeczywistym i odświeżony interfejs terminala

    Codex 0.120.0: Lepsze streamowanie agentów w czasie rzeczywistym i odświeżony interfejs terminala

    OpenAI wydało nową wersję swojego agenta programistycznego Codex, oznaczoną numerem 0.120.0. Aktualizacja, opublikowana w kwietniu 2026 roku, koncentruje się na ulepszeniu funkcji Realtime V2, poprawie doświadczenia użytkownika w terminalu (TUI) oraz naprawie kluczowych błędów, zwłaszcza na platformie Windows. To kolejny krok w rozwoju narzędzia, które wspiera programistów w automatyzacji długoterminowych zadań związanych z web developmentem, AI i devops.

    W tej wersji wprowadzono mechanizm strumieniowania postępu pracy agentów w tle, co umożliwia użytkownikom śledzenie działań agenta, nawet gdy jest on zajęty innym zadaniem. Interfejs terminala stał się bardziej czytelny, a deweloperzy zyskali nowe możliwości jego konfiguracji, co ma na celu zwiększenie płynności i przewidywalności pracy z agentem.

    Kluczowe zmiany w wersji 0.120.0

    • Ulepszone Realtime V2: System teraz strumieniuje postęp agentów działających w tle (background agent progress streaming) i kolejkowuje ich odpowiedzi, czekając na zakończenie aktywnych zadań. Dzięki temu interakcje są bardziej uporządkowane.
    • Przejrzystszy interfejs TUI: Aktywność haków (hook activity) jest teraz lepiej widoczna – działające haki są pokazywane osobno, a ukończone dane wyjściowe są zachowywane tylko wtedy, gdy są przydatne. Dodano też możliwość customizacji linii statusu, np. o zmienione tytuły wątków.
    • Ważne poprawki stabilności: Naprawiono problemy z obsługą Windows elevated sandbox oraz ze stabilnością połączeń remote websocket. Poprawiono też kolejkowanie odpowiedzi i czyszczenie zasobów MCP.

    Co nowego w Realtime V2 i strumieniowaniu?

    Główną nowością tej wersji jest znacząca aktualizacja dla Realtime V2. Mechanizm background agent progress streaming pozwala Codex na bieżąco informować użytkownika o postępach agenta, który pracuje w tle nad długotrwałym zadaniem. Użytkownicy otrzymują aktualizacje na żywo z drugiego planu, co nie blokuje głównego wątku konwersacji.

    Wprowadzono również inteligentne response queuing. Jeśli agent wyśle kolejną odpowiedź, zanim użytkownik skończy czytać poprzednią, system ją zakolejkuje i wyświetli we właściwym momencie. To eliminuje problem nakładających się wiadomości i poprawia płynność dialogu. Dodatkowo, agenci działający w tle otrzymują teraz transkrypty delta i mogą pozostać „cicho”, gdy nie ma potrzeby się odzywać, co redukuje szum informacyjny.

    Usprawnienia interfejsu terminala (TUI)

    Usprawnienia interfejsu terminala (TUI)

    Interfejs użytkownika w terminalu przeszedł kosmetyczny i funkcjonalny lifting. Zmiany w wyświetlaniu hook activity ułatwiają szybkie skanowanie ekranu i identyfikację aktualnie uruchomionych oraz zakończonych haków. To praktyczna poprawka dla każdego, kto korzysta z haków do automatyzacji.

    Możliwość customizacji linii statusuto kolejne udogodnienie. Deweloperzy mogą teraz włączyć do niej zmienione nazwy wątków, co ułatwia zarządzanie wieloma równoległymi sesjami. Poprawki objęły także deklaracje narzędzi w trybie kodu (code-mode tool declarations), które teraz zawierają szczegóły outputSchema z MCP, co zapewnia lepsze typowanie ustrukturyzowanych wyników.

    Poprawki błędów i niezawodność

    Poprawki błędów i niezawodność

    Wydanie 0.120.0 przynosi szereg poprawek zwiększających stabilność. Dla użytkowników Windows kluczowa jest lepsza obsługa elevated sandbox, która teraz radzi sobie z wieloma wersjami CLI i różnymi ścieżkami instalacji. Naprawiono również problemy ze stabilnością zdalnych połączeń websocket, które mogły się zrywać podczas intensywnej wymiany danych.

    Wprowadzono mechanizm rollout recording, który ponawia próby wysłania nieudanych danych analitycznych i informuje o trwałych awariach. To poprawia monitoring i diagnozowanie problemów. Co istotne, profile uprawnień (permission profiles) są teraz konsekwentnie utrzymywane pomiędzy sesjami TUI, co zapewnia spójność zasad bezpieczeństwa.

    Podsumowanie

    Wydanie Codex 0.120.0 to istotny krok w rozwoju tego agenta programistycznego. Twórcy skupili się na dopracowaniu kluczowych funkcji – strumieniowania w czasie rzeczywistym i użyteczności interfejsu – oraz na zwiększeniu stabilności systemu, szczególnie w trudnym środowisku Windows. Te zmiany przekładają się na bardziej płynne i przewidywalne doświadczenie pracy z narzędziem, które wspiera codzienne, długoterminowe zadania developerskie.

    Aktualizację można zainstalować za pomocą komendy npm install -g @openai/[email protected]. Pełną listę zmian, obejmującą ponad 20 pull requestów, można znaleźć w changelogu projektu na GitHubie.


    Źródła

  • OpenCode v1.4.3 naprawia problemy z agentami OAuth i zwiększa niezawodność komend Bash

    OpenCode v1.4.3 naprawia problemy z agentami OAuth i zwiększa niezawodność komend Bash

    Aktualizacja OpenCode do wersji 1.4.3, wydana 10 kwietnia 2026 roku, wprowadza istotne poprawki dotyczące autoryzacji OAuth oraz obsługi poleceń systemowych. To wydanie ma na celu zwiększenie niezawodności narzędzia dla programistów i zespołów DevOps, które korzystają z AI w codziennych zadaniach związanych z web developmentem i hostingiem.

    Głównym celem aktualizacji było usunięcie dwóch uciążliwych błędów: jeden uniemożliwiał tworzenie własnych agentów przez użytkowników kont OpenAI logujących się przez OAuth, a drugi powodował utratę danych wyjściowych przerywanych komendami Bash. Dodatkowo, wprowadzono warianty szybkiego działania dla wybranych modeli Claude i GPT, co powinno przyspieszyć zadania związane z programowaniem i automatyzacją.

    Najważniejsze zmiany w wersji 1.4.3

    • Naprawa tworzenia agentów OAuth: Komenda agent create działa teraz poprawnie dla kont OpenAI korzystających z logowania OAuth, co umożliwia konfigurowanie wyspecjalizowanych asystentów.
    • Ulepszone przetwarzanie komend Bash: Przerwane polecenia zachowują swoje finalne wyjście i informacje o obcięciu, zamiast być oznaczane jako "przerwane". To ważne dla skryptów DevOps.
    • Warianty szybkiego działania: Dodano opcje szybkiego działania (fast mode) dla obsługiwanych modeli Claude i GPT, co optymalizuje wydajność.
    • Konfigurowalne URI przekierowań OAuth: Użytkownicy mogą teraz skonfigurować własne adresy URI przekierowań w procesie autoryzacji OAuth dla zdalnych serwerów MCP.

    Tworzenie własnych agentów w OpenCode to jedna z jego mocniejszych stron, pozwalająca na dostosowanie asystenta AI do konkretnych zadań, na przykład związanych z określonym językiem programowania lub workflow. Problem z OAuth skutecznie to blokował dla wielu użytkowników. Poprawka oznacza, że deweloperzy mogą ponownie konfigurować agentów z dedykowanymi promptami systemowymi i zestawami narzędzi, co jest niezbędne w zaawansowanych projektach webowych.

    W przypadku komend Bash, zmiana ma praktyczne znaczenie przy długo działających skryptach lub operacjach, które trzeba przerwać. Wcześniej ich wyjście znikało, teraz użytkownik widzi to, co udało się wykonać, oraz informację, czy dane zostały obcięte. To istotna poprawka dla niezawodności, zwłaszcza przy zarządzaniu serwerami czy kontenerami Docker.

    Dodanie trybów szybkiego działania dla modeli AI odpowiada na potrzebę szybszego wykonywania prostszych, mniej wymagających obliczeniowo zadań. Nie zawsze potrzebujemy pełnej analizy modelu – czasem liczy się szybka odpowiedź lub sugestia. To wpisuje się w ideę programowania, gdzie płynność i szybkość interakcji z narzędziem są priorytetem.

    Warto również wspomnieć o przywróceniu domyślnie ukrytego paska przewijania w sesjach TUI (Text-based User Interface). To zmiana interfejsu, która przywraca czystszy, mniej zaśmiecony widok, preferowany przez wielu użytkowników.

    Wpływ na ekosystem AI i web development

    Te aktualizacje, choć skupione na naprawach, mają realny wpływ na codzienną pracę z OpenCode. Stabilność autoryzacji OAuth jest kluczowa dla integracji z zewnętrznymi serwerami MCP (Model Context Protocol), które rozszerzają możliwości narzędzia o dodatkowe dane i funkcje. Możliwość konfiguracji URI przekierowań daje większą kontrolę i elastyczność w zdalnych setupach, co jest istotne w środowiskach korporacyjnych lub przy korzystaniu z własnej infrastruktury.

    Niezawodność komend systemowych bezpośrednio przekłada się na efektywność w obszarach DevOps i hostingu. Deweloperzy pracujący nad wdrażaniem aplikacji, konfiguracją środowisk czy automatyzacją zadań mogą mieć większą pewność, że wyniki ich pracy nie znikną w przypadku niespodziewanej przerwy.

    OpenCode, wspierający modele takie jak Claude, GPT czy Gemini, ewoluuje jako platforma do programowania wspomaganego przez AI. Poprawki w wersji 1.4.3, choć nie rewolucyjne, znacząco poprawiają komfort i pewność użytkowania, eliminując konkretne bariery, na które narzekała społeczność. To pokazuje, że rozwój koncentruje się nie tylko na dodawaniu nowych funkcji, ale także na udoskonalaniu istniejących, co jest równie ważne dla sukcesu narzędzia.


    Źródła

  • Wersja Zed 0.231.2: mocniejsze AI i natywne wsparcie dla Devcontainers

    Wersja Zed 0.231.2: mocniejsze AI i natywne wsparcie dla Devcontainers

    Zed, edytor kodu stworzony przez Zed Industries, wprowadził stabilną aktualizację 0.231.2, która koncentruje się na stabilizacji i poprawkach błędów po wcześniejszych wydaniach. Kluczową poprawką w tej wersji jest rozwiązanie problemu, w którym narzędzie do wyszukiwania w sieci zakłócało działanie modeli Claude hostowanych w chmurze Zed. Ta aktualizacja, część kwietniowej serii z 2026 roku, stanowi solidną podstawę dla zaawansowanych funkcji dla programistów, szczególnie w obszarze sztucznej inteligencji i zdalnego rozwoju.

    Kluczowe zmiany w wersji 0.231.2

    • Naprawa narzędzia wyszukiwania internetowego: Usunięto błąd, który powodował problemy z modelami Claude w chmurze Zed, co stabilizuje pracę agentów AI.
    • Kontynuacja ulepszeń AI: Aktualizacja rozwija funkcje wprowadzone wcześniej, takie jak asynchroniczne agenty i ulepszone strumieniowanie.
    • Stabilizacja dla DevOps: Poprawki obejmują również wsparcie dla devcontainerów i integrację z Git.

    Ta wersja jest wynikiem serii ulepszeń, które koncentrują się na płynnej współpracy z AI oraz na profesjonalnych środowiskach do zdalnego rozwoju.

    Głębsza integracja sztucznej inteligencji i równoległe agenty

    Chociaż wersja 0.231.2 jest głównie poprawkowa, utrwala zmiany wprowadzone w poprzednich wydaniach. Najważniejszą innowacją jest wprowadzenie równoległych agentów AI. Zed umożliwia teraz orkiestrację wielu agentów działających jednocześnie w tym samym oknie. Nowy panel wątków (Threads Sidebar) pozwala na kontrolę nad działaniami każdego z nich – można je uruchamiać, zatrzymywać i monitorować niezależnie.

    Mechanizm generowania wątków przeszedł na strumieniowanie odgórne, co w połączeniu z automatycznym przewijaniem, gdy treść przekracza obszar widoku, daje bardziej naturalne wrażenie rozmowy. Ulepszono także wyświetlanie bloków myślenia (thinking blocks), eliminując niepożądane przesunięcia układu podczas strumieniowania. Programiści zyskali nowe ustawienie agent.thinking_display z opcjami "automatic", "always_expanded" lub "always_collapsed".

    Dodano również obsługę Vercel AI Gateway jako nowego dostawcy modeli językowych LLM oraz ustawienie reasoning_effort dla niestandardowych modeli kompatybilnych z OpenAI. Te ulepszenia sprawiają, że praca z AI w Zed jest bardziej responsywna i dostosowana do złożonych zadań w web development.

    Natywne devcontainery i ulepszenia dla Git

    Drugim kluczowym elementem tej serii aktualizacji jest rozbudowane, natywne wsparcie dla devcontainerów. Implementacja obejmuje teraz obsługę rozszerzeń, kompatybilność z Podmanem oraz wsparcie dla serwerów MCP (Model Context Protocol), co jest istotne dla zaawansowanych workflow'ów DevOps i zarządzania hostingiem. Umożliwia to tworzenie w pełni skonfigurowanych, przenośnych środowisk deweloperskich w kontenerach, bezpośrednio z poziomu edytora.

    W obszarze kontroli wersji, Zed wprowadził nowy Git Graph – narzędzie do wizualizacji repozytorium, które ułatwia zrozumienie historii i struktury gałęzi. W panelu Git pojawiły się także statystyki diffów. Dla zespołów pracujących zdalnie dodano opcję oznaczania ulubionych kanałów (channel favorites), co usprawnia komunikację i kontekstowe wspomnienia.

    Dalsze poprawki i optymalizacje

    Oprócz kluczowych funkcji, seria 0.231.2 wprowadziła dziesiątki innych udoskonaleń. W renderowaniu GPUI dodano dithering dla gradientów liniowych, eliminując pasmowanie w ciemnych motywach. Przyspieszono rozwiązywanie semantyki tematów poprzez ścisłe dopasowywanie prefiksów.

    Wprowadzono także nowe akcje, takie jak Vim-style tag stack dla "Idź do definicji" oraz dziedziczenie konfiguracji z plików EditorConfig. Naprawiono liczne błędy, w tym problemy z tokenami semantycznymi, wykresem Git, integracją Gemini z serwerami MCP oraz działaniem terminala na Windows.

    Wersja Zed 0.231.2, mimo że jest technicznie poprawkowa, umacnia pozycję edytora jako wydajnego narzędzia dla nowoczesnych programistów. Skupienie na stabilnej i płynnej współpracy z sztuczną inteligencją, połączone z zaawansowanym wsparciem dla devcontainerów i wizualizacji Git, odpowiada na potrzeby zespołów zajmujących się zarówno web development, jak i zaawansowanym AI-assisted coding. To krok w kierunku zintegrowanego, przyszłościowego środowiska pracy.


    Źródła

  • DeepSeek-V4 Preview oficjalnie live i open-sourced

    DeepSeek-V4 Preview oficjalnie live i open-sourced

    DeepSeek AI ogłosiło, że model DeepSeek-V4 będzie dostępny w pierwszym tygodniu marca 2026 roku na licencji open source. Model ten ma oferować kontekst o długości 1 miliona tokenów i będzie konkurować z wiodącymi, zamkniętymi rozwiązaniami. Firma kładzie duży nacisk na wydajność w zadaniach programistycznych oraz efektywność kosztową.

    Kluczowe fakty na początek

    • Planowana premiera: Model DeepSeek-V4 będzie dostępny w pierwszym tygodniu marca 2026 roku na licencji open source, prawdopodobnie MIT.
    • Architektura i skala: To model typu Mixture of Experts z około 1 bilionem parametrów całkowitych i 32 miliardami aktywnych.
    • Niespotykany kontekst: Długość kontekstu wynosi 1 milion tokenów, co umożliwi analizę całych repozytoriów kodu, pełnych śladów stosu czy dużych dokumentów.
    • Dostępność i wydajność: Model będzie dostępny przez API i własne platformy DeepSeek; w oczekiwanych benchmarkach ma dorównywać DeepSeek-V4, choć może nieznacznie ustępować liderom takim jak Gemini 3 Pro.
    • Przeznaczenie dla devów: Model będzie zoptymalizowany pod kątem zadań programistycznych, oferując lepszą skuteczność w niższym koszcie, co jest kluczowe dla web developmentu, AI i DevOps.

    Rewolucja w długim kontekście i architekturze

    Główną cechą tego wydania jest kontekst o długości miliona tokenów. Dla programistów oznacza to możliwość wprowadzenia do modelu całego, nawet dużego projektu, wraz z zależnościami, i poproszenia o analizę, refaktoryzację czy diagnozę skomplikowanego błędu. Architektura Mixture of Experts (MoE) w połączeniu z mechanizmami takimi jak Engram conditional memory pozwala na inteligentne zarządzanie dużą ilością danych, aktywując tylko niezbędne fragmenty sieci neuronowej dla każdego tokenu.

    Dzięki temu, mimo ogromnej liczby parametrów całkowitych (około 1T), faktycznie używanych jest ich znacznie mniej (około 32B), co przekłada się na efektywność kosztową i energetyczną. To istotna informacja dla osób hostujących modele lub intensywnie korzystających z API – według zapewnień DeepSeek, koszt inferencji może być znacznie niższy przy zachowaniu wysokiej jakości odpowiedzi w zadaniach kodowania.

    Benchmarki: twarde dane dla praktyków

    Benchmarki: twarde dane dla praktyków

    Oczekiwane wyniki benchmarków mają potwierdzić, że model nie składa się z pustych obietnic. Na HumanEval, kluczowym teście umiejętności kodowania, DeepSeek-V4 ma osiągać nawet 98%. W matematycznym teście GSM8K wynik może wynieść około 96%. Te obszary – kodowanie i rozumowanie – mają być fundamentem oferty DeepSeek.

    Na szerszym teście MMLU-Pro, DeepSeek-V4 ma dorównywać możliwościom DeepSeek-V4, choć może minimalnie ustępować aktualnym liderom, czyli Gemini 3 Pro i Claude Opus 4.5. Prawdziwy sprawdzian dla "króla kodowania" dopiero przed nami – branża czeka na wyniki w benchmarku SWE-bench, który symuluje złożone zadania z GitHub. Celem DeepSeek jest przebicie wyniku 80.9%, ustalonego przez Claude Opus 4.5.

    Co to znaczy dla programistów i zespołów DevOps?

    Co to znaczy dla programistów i zespołów DevOps?

    Dla społeczności związanej z web developmentem, AI i programowaniem, ta premiera ma konkretne znaczenie. Model z kontekstem 1M tokenów to potencjalne narzędzie do kompleksowej analizy kodu. Można mu przekazać cały stack trace, logi z wielu plików, a nawet zawartość folderu node_modules w poszukiwaniu konfliktów. Dla zespołów DevOps, które budują agentów AI automatyzujących pracę, efektywna architektura MoE oznacza niższe koszty operacyjne i szybsze odpowiedzi.

    Otwartość modelu (open source) jest równie istotna. Oznacza to możliwość uruchomienia DeepSeek-V4 na własnej infrastrukturze, dostosowania pod specyficzne potrzeby firmy czy integracji bez ograniczeń nakładanych przez zamknięte API.

    Podsumowanie

    Premiera DeepSeek-V4 to nie tylko kolejna iteracja w wyścigu modeli językowych. To strategiczny ruch, który stawia na otwartość, długość kontekstu i dominację w zadaniach programistycznych. Firma pokazuje, że można konkurować z gigantami oferującymi zamknięte modele, dostarczając narzędzie równie potężne, ale bardziej ekonomiczne i dające developerom pełną swobodę. Dla każdego, kto zajmuje się kodowaniem, web developmentem czy budowaniem systemów AI, testowanie możliwości DeepSeek-V4, zwłaszcza w analizie dużych projektów, będzie istotne po jego premierze. Era efektywnego, miliona tokenów kontekstu może właśnie nadchodzić.

  • Anthropic wprowadza narzędzie Advisor: strategiczny doradca dla agentów AI

    Anthropic wprowadza narzędzie Advisor: strategiczny doradca dla agentów AI

    Anthropic udostępniło w publicznej betie nowe narzędzie Advisor na platformie Claude, które ma na celu poprawę działania długoterminowych, autonomicznych agentów AI. Narzędzie łączy szybki model wykonawczy, taki jak Sonnet czy Haiku, z modelem doradczym, jak Opus, oferując strategiczne wskazówki podczas generowania odpowiedzi. Dzięki temu złożone zadania agentów mogą osiągać jakość porównywalną do tej, którą zapewnia Opus, przy znacznie niższych kosztach, ponieważ drogi model doradza tylko w razie potrzeby.

    Kluczowe fakty o Advisor

    • Mechanizm działania: Główny, szybki model wykonawczy (worker) współpracuje z modelem doradczym (advisor), który pełni rolę nadzorcy strategicznego. Doradca interweniuje w kluczowych momentach, korygując kierunek działania.
    • Korzyści ekonomiczne: Zapewnia inteligencję na poziomie Opus za ułamek kosztu, ponieważ większość tokenów generuje tańszy model wykonawczy, a droższy doradca jest konsultowany oszczędnie.
    • Integracja z ekosystemem: Narzędzie działa jako server tool na infrastrukturze Anthropic i zostało ogłoszone równolegle z Claude Managed Agents – platformą do budowy i zarządzania agentami w chmurze.
    • Cel zastosowań: Ma na celu rozwiązanie problemu agentów, które "schodzą na złą drogę" podczas długich zadań, co wymaga ręcznych poprawek i generuje dodatkowe koszty. Skupia się na złożonych automatyzacjach biznesowych.
    • Dostępność: Advisor jest dostępne na Claude Platform API. Aby z niego skorzystać, należy dodać odpowiedni nagłówek do żądań API.

    Jak działa nowy mechanizm doradczy?

    Innowacja polega na podziale ról. Wyobraźmy sobie agenta AI, który ma zaplanować i wykonać wieloetapową analizę danych, generując kod i raporty. Tradycyjnie używalibyśmy jednego, potężnego modelu (np. Opus) przez cały czas trwania zadania. Advisor zmienia tę logikę.

    W nowym podejściu codzienna praca spoczywa na szybkim i ekonomicznym modelu wykonawczym, takim jak Claude Sonnet. To on generuje kod, przetwarza dane i pisze wstępne fragmenty. W tle czuwa model Opus w roli doradcy. Gdy wykonawca napotyka punkt decyzyjny, może zwrócić się do doradcy o konsultację. Doradca analizuje sytuację, sugeruje najlepszy kierunek działania, a wykonawca kontynuuje pracę. W efekcie jakość całego procesu jest bliska tej, którą zapewnia Opus, ale koszt jest zbliżony do użycia Sonneta.

    Kontekst szerszej strategii Anthropic: zarządzani agenci

    Kontekst szerszej strategii Anthropic: zarządzani agenci

    Wprowadzenie Advisor jest częścią szerszej strategii Anthropic w obszarze infrastruktury dla agentów AI. Tydzień wcześniej firma ogłosiła publiczną betę Claude Managed Agents.

    To w pełni zarządzane środowisko, które odciąża developerów od infrastruktury. Definiują oni tylko zadanie, narzędzia i zabezpieczenia, a Anthropic zapewnia całą orchestrację: wywołania narzędzi, zarządzanie kontekstem, odzyskiwanie po błędach, bezpieczne sandboxing oraz obsługę wielogodzinnych sesji, które przetrwają nawet rozłączenie. To rozwiązanie ma umożliwić przedsiębiorstwom przejście od prototypu do produkcji w ciągu dni.

    Advisor doskonale wpisuje się w ten ekosystem. Może być używane wewnątrz Managed Agents, dodając im warstwę strategicznego nadzoru. Ceny Managed Agents są oparte na zużyciu: standardowe stawki za tokeny Claude plus opłata za każdą godzinę aktywnej sesji agenta.

    Dla kogo jest to rozwiązanie?

    Dla kogo jest to rozwiązanie?

    Advisor jest skierowane przede wszystkim do developerów i firm budujących zaawansowane automatyzacje, gdzie kluczowa jest niezawodność i redukcja błędów w długich, wieloetapowych procesach. Typowe zastosowania to:

    • Złożona generacja kodu z wieloma zależnościami i wyborami architektonicznymi.
    • Automatyczna analiza biznesowa wymagająca wnioskowania i podejmowania decyzji na podstawie danych.
    • Zaawansowane przetwarzanie dokumentów z potrzebą strategicznego planowania kolejnych kroków.

    Narzędzie odpowiada na realny problem: agenci AI czasami "gubią wątek" w długich zadaniach, co prowadzi do nieprawidłowych wyników, konieczności restartu zadania i marnowania tokenów. Dzięki punktowym interwencjom doradcy ten problem ma być znacząco ograniczony.

    Podsumowanie

    Wprowadzenie Advisor przez Anthropic to odpowiedź na wyzwania związane z ekonomią i niezawodnością agentów AI. Zamiast stawiać developerów przed wyborem: tani i szybki agent lub drogi i mądry, firma proponuje hybrydę. To podejście łączy zalety obu światów. W połączeniu z ofertą Managed Agents, Anthropic pozycjonuje się jako dostawca kompletnych, gotowych do produkcji środowisk dla zaawansowanej automatyzacji opartej na AI. Narzędzie jest już testowane w realnych warunkach, co świadczy o jego praktycznym zastosowaniu.


    Źródła

  • Oracle zwalnia 30 tysięcy osób. 10 miliardów dolarów oszczędności idzie na sztuczną inteligencję

    Oracle zwalnia 30 tysięcy osób. 10 miliardów dolarów oszczędności idzie na sztuczną inteligencję

    Firma Oracle rozpoczęła w 2026 roku masową falę zwolnień, która ma objąć około 30 tysięcy pracowników na całym świecie, co stanowi około 18% jej globalnego zespołu. Decyzja ta wynika z istotnej zmiany strategii, w której korporacja koncentruje się na sztucznej inteligencji i budowie centrów danych. Oszczędności, szacowane na około 10 miliardów dolarów, mają zostać przeznaczone na znaczące inwestycje w infrastrukturę AI.

    Pracownicy otrzymywali powiadomienia o rozwiązaniu umowy drogą elektroniczną już od godziny 6:00 rano, informując, że ostatnim dniem pracy jest dzień doręczenia maila. Dostęp do systemów firmy był blokowany natychmiast. Ta skala i sposób przeprowadzenia cięć wstrząsnęły branżą, choć Oracle podkreśla, że nie jest to oznaka kłopotów finansowych, a świadomej reorientacji biznesu.

    Kluczowe fakty

    • Skala zwolnień: Nawet 30 tysięcy etatów na całym świecie, przy czym Indie są jednym z regionów najbardziej dotkniętych redukcjami. To około 18-20% całej siły roboczej Oracle.
    • Metoda wykonania: Zawiadomienia wysyłane emailowo o 6:00, z natychmiastowym odcięciem dostępu do systemów firmy. Ostatni dzień pracy to dzień otrzymania wypowiedzenia.
    • Oszczędności finansowe: Planowane cięcia mają przynieść oszczędności rzędu około 10 miliardów dolarów. Część z nich pochodzi z redukcji kosztów operacyjnych, jak subskrypcje oprogramowania.
    • Inwestycje w AI: Oracle planuje znaczące inwestycje w projekty związane z centrami danych i infrastrukturą dla sztucznej inteligencji, z przewidywaną kwotą 50 miliardów dolarów w roku fiskalnym 2026.
    • Kontekst branżowy: Ruchy Oracle wpisują się w szerszą falę zwolnień w sektorze technologicznym, gdzie w 2025 roku zlikwidowano ponad 153 tysiące miejsc pracy, co jest wynikiem automatyzacji i przenoszenia kapitału w kierunku AI.

    Strategiczny zwrot kosztem ludzi

    Oracle jasno komunikuje, że zwolnienia są wynikiem świadomego wyboru strategicznego, a nie spowolnienia sprzedaży. Firma wskazuje na "redundancję" pewnych stanowisk z powodu automatyzacji przez AI. Celem jest uwolnienie środków na inwestycje w chmurę i centra danych, które są niezbędne do konkurowania z takimi gigantami jak Microsoft Azure czy AWS w dostarczaniu mocy obliczeniowej dla modeli generatywnej sztucznej inteligencji.

    Mimo że Oracle odnotowuje silne przychody, inwestycje w AI znacznie obciążają jego przepływy pieniężne. Dlatego kierownictwo uznało, że najszybszym sposobem na pozyskanie kapitału są drastyczne cięcia kosztów osobowych. To podejście polega na likwidacji tysięcy miejsc pracy, aby sfinansować budowę infrastruktury, która te miejsca pracy, przynajmniej częściowo, zastąpi.

    Sztuczna inteligencja jako motor i niszczyciel

    Sztuczna inteligencja jako motor i niszczyciel

    Dla profesjonalistów z obszarów web developmentu, DevOps czy hostingu, ruchy Oracle są wyraźnym sygnałem nadchodzących zmian. Firma, będąca ważnym graczem w ekosystemie baz danych i rozwiązań chmurowych, pokazuje, gdzie płyną pieniądze i uwaga całej branży. Inwestycje koncentrują się na serwerach, procesorach GPU, sieciach i oprogramowaniu do zarządzania AI, a nie na tradycyjnych zespołach wsparcia, rozwoju czy sprzedaży.

    To potwierdza trend, który zyskuje na sile. Role związane z rutynowymi, powtarzalnymi zadaniami – w kodowaniu, testowaniu, administracji czy obsłudze klienta – są pierwszymi, które zostaną zautomatyzowane przez zaawansowane modele AI. Oracle nie jest tu osamotniony; podobne cięcia przeprowadzały w ostatnich miesiącach Amazon, Meta, Microsoft czy Intel.

    Wnioski dla branży tech

    Decyzja Oracle jest istotnym punktem w dyskusji o przyszłości pracy w sektorze technologicznym. Z jednej strony firmy inwestują znaczne sumy w nowe technologie, co tworzy zapotrzebowanie na wysoko wyspecjalizowanych inżynierów AI, architektów chmurowych i specjalistów od bezpieczeństwa. Z drugiej strony, masowo pozbywają się ról, które przez dekady były filarem ich działalności.

    To także lekcja dla developerów i inżynierów DevOps. Umiejętność pracy z AI, fine-tuning modeli, integracja usług chmurowych i zarządzanie infrastrukturą pod kątem obciążeń AI stają się kluczowe. Historia Oracle pokazuje, że nawet dla giganta z dużymi przychodami, ten zwrot strategiczny jest bolesny i wymaga radykalnych decyzji. Wyścig o dominację w erze sztucznej inteligencji wszedł w fazę, w której stawką są nie tylko miliardy dolarów, ale także dziesiątki tysięcy ludzkich karier.

  • OpenCode v1.4.1: wzmocnienie bezpieczeństwa i ulepszenia dla c/c++

    OpenCode v1.4.1: wzmocnienie bezpieczeństwa i ulepszenia dla c/c++

    OpenCode, znana platforma wspierająca procesy deweloperskie z wykorzystaniem sztucznej inteligencji, zaktualizowała się do wersji v1.4.1. Nowa wersja, dostępna od 9 kwietnia 2026 roku, wprowadza istotne poprawki dotyczące stabilności oraz doświadczenia programistów. Wydanie koncentruje się na lepszej kontroli nad promptami, stabilizacji kluczowych funkcji oraz usprawnieniu środowiska pracy. To kolejny krok w rozwoju otwartego środowiska programistycznego, które integruje sztuczną inteligencję w codziennych zadaniach.

    Kluczowe zmiany w wydaniu v1.4.1

    • Kontrola promptów na desktopie: Wprowadzenie manualnych kontrolek dla promptów w aplikacji desktopowej zwiększa przejrzystość interakcji z AI.
    • Naprawa schematu sesji: Usunięto błąd związany z cyklicznym schematem (circular session schema), który mógł powodować problemy z zarządzaniem sesjami.
    • Usprawnienia LLM Gateway: Optymalizacje i poprawki dla bramki dostawców modeli językowych (LLM Gateway provider) zwiększają jej niezawodność.
    • Ogólne poprawki stabilności: Wprowadzone poprawki w jądrze systemu mają na celu zwiększenie stabilności i wydajności platformy.

    Precyzyjniejsza kontrola nad interakcjami

    W tej wersji szczególną uwagę zwrócono na wzmocnienie kontroli użytkownika nad interakcjami z AI, zwłaszcza w aplikacji desktopowej. Manualne kontrole dla promptów dają programiście lepszy wgląd i zarządzanie tym, jak i kiedy AI jest angażowane. To podejście pokazuje, że sztuczna inteligencja w OpenCode działa jako asystent, a nie autonomiczny aktor – kluczowe decyzje pozostają w rękach użytkownika. Taka transparentność jest istotna w projektach zespołowych oraz przy pracy z wrażliwym kodem, gdzie świadomość wszystkich działań jest kluczowa.

    Stabilność podstawowych funkcji

    Wersja v1.4.1 koncentruje się na solidnym dopracowaniu podstaw platformy. Naprawa krytycznego błędu z cyklicznym schematem sesji eliminuje potencjalne źródło niestabilności w zarządzaniu kontekstem pracy. Usprawnienia w LLM Gateway zapewniają niezawodne połączenie z zewnętrznymi modelami językowymi, co jest kluczowe dla działania całej platformy. Te techniczne poprawki przekładają się na płynniejsze i bardziej przewidywalne doświadczenie deweloperskie, redukując frustrację i przestoje.

    Kierunek rozwoju: solidna i niezawodna podstawa

    OpenCode v1.4.1 ilustruje kierunek, w którym rozwija się branża AI dla deweloperów. Platforma staje się coraz bardziej transparentna, kontrolowana i niezawodna. Poprawki stabilności podstawowych komponentów oraz ciągłe udoskonalanie interfejsu i kontroli użytkownika mają na celu zwiększenie produktywności bez utraty kontroli nad własnym kodem i środowiskiem.

    Dla polskich deweloperów korzystających z OpenCode w codziennej pracy ta aktualizacja może być szczególnie wartościowa. Większa stabilność i precyzyjniejsza kontrola sprawiają, że AI agent w OpenCode staje się bardziej przewidywalnym i kompetentnym partnerem. Warto zaktualizować.


    Źródła