Tag: Agenci AI

  • Oto ChatGPT Images 2.0: OpenAI prezentuje model, który wreszcie poprawnie renderuje tekst

    Oto ChatGPT Images 2.0: OpenAI prezentuje model, który wreszcie poprawnie renderuje tekst

    OpenAI wprowadziło nową wersję swojego modelu generowania obrazów, Oto ChatGPT Images 2.0. Model jest już dostępny dla użytkowników i odpowiada na jedną z głównych krytyk dotyczących generatywnej sztucznej inteligencji – problem z poprawnym renderowaniem tekstu na grafikach.

    Nowy silnik nie tylko poprawia pisanie, ale także wprowadza ulepszenia w fotorealizmie, edycji i dostosowywaniu rozdzielczości. OpenAI kontynuuje rozwój w dziedzinie generatywnych mediów, koncentrując się na praktycznych zastosowaniach dla twórców i deweloperów.

    Kluczowe fakty o nowym modelu

    • Doskonałe renderowanie tekstu to główna nowość; model integruje napisy, znaki i notatki odręczne w scenach, poprawnie obsługując języki niełacińskie, takie jak japoński, koreański, hindi czy bengalski.
    • Świadomość kontekstu i fizyki pozwala na tworzenie realistycznych scen z wieloma obiektami, z poprawnym oświetleniem i bez typowych błędów, jak nakładanie się elementów.
    • Zaawansowana edycja z maskami umożliwia precyzyjne wypełnianie (inpainting) i rozszerzanie (outpainting) obrazów, zachowując szczegóły takie jak oświetlenie czy twarze, co jest kluczowe przy prototypowaniu UI czy wizualizacji produktów.
    • Nowe możliwości obejmują generowanie obrazów w rozdzielczości do 2K, dostępność wielu formatów, czterokrotnie szybsze tworzenie oraz funkcję "Chronicle" do tworzenia spójnych sekwencji wizualnych.

    Przełom w renderowaniu tekstu i wielojęzyczność

    Najważniejszą funkcją Oto ChatGPT Images 2.0 jest poprawne renderowanie tekstu. Wcześniejsze modele, w tym poprzednia wersja, miały problemy z literami, tworzyły nieczytelne ciągi znaków lub zniekształcały napisy na szyldach czy plakatach. Teraz to się zmienia.

    Model potrafi wkomponować pisany język w scenę – jako etykieta na butelce, znak drogowy, interfejs użytkownika czy kartka z notatkami. Zachowuje poprawną ortografię, spójne odstępy między literami i odpowiednie czcionki. Wsparcie dla skryptów niełacińskich otwiera możliwości dla globalnych projektów.

    Świadome świata obrazy i elastyczna jakość

    Świadome świata obrazy i elastyczna jakość

    Model został wytrenowany na lepszym rozumieniu świata fizycznego. Generowane sceny z wieloma obiektami są spójne – światło pada realistycznie, materiały wyglądają odpowiednio, a obiekty nie przenikają się nawzajem.

    Model oferuje tryby generowania "Instant" i "Thinking", które pozwalają na różnorodność w czasie przetwarzania i szczegółowości wyników. Działa z aktualną wiedzą o świecie, z datą odcięcia w grudniu 2025 roku, co pozwala na tworzenie obrazów odnoszących się do bieżących wydarzeń i trendów.

    Narzędzie dla deweloperów: od prototypów do produkcji

    Dla społeczności web dev i twórców aplikacji AI, Oto ChatGPT Images 2.0 oferuje potężne możliwości przez API (dostępne jako GPT-Image-1.5). Elastyczność rozdzielczości – od presetów po customowe wymiary, z krawędziami do 3840 px i różnymi proporcjami – pozwala generować zasoby dokładnie pod potrzeby projektu, czy to na baner, czy na tło w wysokiej rozdzielczości.

    Endpoint edycji może być najbardziej praktycznym rozwiązaniem dla wielu zastosowań. Możliwość precyzyjnej modyfikacji wybranych regionów obrazu przy użyciu masek to funkcja, na którą czekało wielu designerów. Dzięki niej można iteracyjnie poprawiać mockupy UI, wizualizować zmiany na opakowaniach produktów czy generować warianty grafik bez potrzeby zaczynania od zera.

    Podsumowanie

    Oto ChatGPT Images 2.0 to nie tylko kolejna iteracja, ale odpowiedź na konkretne problemy dotychczasowej technologii. Poprawione renderowanie tekstu ma kluczowe znaczenie dla wielu zastosowań komercyjnych, gdzie poprawny napis na wizualizacji jest istotny. Połączenie tego z lepszym rozumieniem fizyki, zaawansowaną edycją i opcjami dostosowywania jakości sprawia, że model staje się wszechstronnym narzędziem produkcyjnym.

    Dostępność przez API oznacza, że wkrótce możemy zobaczyć jego implementacje w narzędziach do prototypowania, platformach e-commerce czy generatorach treści. OpenAI stawia na użyteczność, a Oto ChatGPT Images 2.0 wydaje się być krokiem w stronę generatywnej AI, która nie tylko imponuje, ale także solidnie pracuje.

  • Bugbot uczy się na błędach i zyskuje wsparcie MCP w najnowszej aktualizacji Cursor

    Bugbot uczy się na błędach i zyskuje wsparcie MCP w najnowszej aktualizacji Cursor

    Cursor, popularne środowisko programistyczne wspomagane sztuczną inteligencją, wprowadziło nowe uaktualnienie dla swojego narzędzia do automatycznej recenzji kodu, Bugbot. Najnowsza wersja umożliwia Bugbotowi samodzielne uczenie się na podstawie informacji zwrotnej z pull requestów oraz dodaje integrację z zewnętrznymi narzędziami poprzez protokół MCP. Te zmiany, w połączeniu z ulepszeniami funkcji Autofix, pozwoliły osiągnąć rekordową skuteczność na poziomie 78% w automatycznym rozwiązywaniu wykrytych problemów.

    Jednym z kluczowych elementów aktualizacji jest mechanizm Learned Rules (wyuczone reguły). Bugbot przestał być statycznym zbiorem zasad i stał się dynamicznym systemem, który analizuje setki tysięcy recenzji dziennie, aby dostosować się do praktyk konkretnego zespołu. Narzędzie obserwuje sygnały z pull requestów, takie jak reakcje programistów na komentarze, odpowiedzi na nie oraz uwagi od ludzkich recenzentów dotyczące przeoczonych problemów. Na tej podstawie generuje kandydackie reguły, które są testowane na kolejnych PR-ach. Reguły, które zbierają pozytywne sygnały, są automatycznie promowane, a te, które nie przynoszą korzyści, są wyłączane.

    Kluczowe informacje o aktualizacji

    • Samouczące się reguły: Bugbot analizuje reakcje, odpowiedzi i komentarze w pull requestach, aby generować i promować własne, dostosowane do projektu reguły recenzji kodu.
    • Wsparcie MCP: Integracja z protokołem MCP (Model Context Protocol) umożliwia Bugbotowi dostęp do zewnętrznych serwerów i narzędzi w trakcie recenzji, co zapewnia głębszy kontekst dla złożonych systemów.
    • Rekordowa skuteczność: Połączenie nowych funkcji z ulepszonym Bugbot Autofix pozwoliło osiągnąć 78% wskaźnik rozwiązywania problemów, co jest najwyższym wynikiem w historii narzędzia.
    • Akcja "Fix All": Programiści mogą zastosować wszystkie sugerowane poprawki za pomocą jednej komendy, co znacznie przyspiesza pracę.

    Drugim istotnym elementem aktualizacji jest wsparcie MCP. Dzięki integracji z tym protokołem, Bugbot ma możliwość odpytywania zewnętrznych narzędzi i baz wiedzy w trakcie procesu recenzji. To rozwiązanie jest szczególnie istotne w przypadku skomplikowanych, rozproszonych architektur, gdzie zrozumienie kontekstu wymaga dostępu do dodatkowych źródeł. Konfiguracja serwerów MCP dla Bugbota jest dostępna przez dedykowany panel w planach Teams i Enterprise.

    Ulepszono także flagową funkcję Bugbot Autofix. Działa ona teraz bardziej precyzyjnie, uruchamiając się tylko dla istotnych znalezisk i stosując wyłącznie odpowiednie reguły. Dodano długo wyczekiwaną akcję „Fix All”, która pozwala zaakceptować i zastosować wiele poprawek jednym kliknięciem. Poprawiono również niezawodność integracji z CI/CD dla pull requestów na GitHubie.

    W kierunku autonomicznych i kontekstowych recenzji

    Te zmiany wpisują się w szerszy trend automatyzacji i personalizacji procesów developerskich. Przejście Bugbota z narzędzia egzekwującego reguły na system uczący się w locie oznacza, że jakość recenzji będzie ewoluować wraz z projektem i zespołem. Zamiast generować nieistotne uwagi, Bugbot ma się koncentrować na problemach, które naprawdę interesują programistów, wyciągając wnioski z ich codziennej pracy.

    Dostęp do zewnętrznego kontekstu za pośrednictwem MCP to krok w stronę recenzji, które rozumieją nie tylko sam kod, ale także jego otoczenie – zależności, konfigurację infrastruktury czy specyfikę domeny biznesowej. W praktyce może to przełożyć się na wykrywanie subtelniejszych błędów, które wymagają wiedzy wykraczającej poza pojedynczy plik źródłowy.

    Podsumowanie

    Aktualizacja Bugbota w Cursor to znaczący krok naprzód dla automatycznej recenzji kodu. Połączenie samouczenia z głębszym kontekstem od zewnętrznych narzędzi tworzy silną synergię. Rekordowy wskaźnik skuteczności napraw na poziomie 78% pokazuje, że te zmiany mają realny, pozytywny wpływ na codzienną pracę programistów. Dla zespołów korzystających z Cursor oznacza to mniej rutynowej pracy przy recenzjach i więcej czasu na rozwiązywanie złożonych problemów.


    Źródła

  • Gemini CLI v0.39.0-nightly.20260409: lepsza kontrola i wydajność dla nocnej wersji

    Gemini CLI v0.39.0-nightly.20260409: lepsza kontrola i wydajność dla nocnej wersji

    Google wydało nową nocną wersję swojego narzędzia AI działającego w terminalu — Gemini CLI v0.39.0-nightly.20260409. Aktualizacja koncentruje się na zwiększeniu kontroli użytkownika nad agentem, poprawie wydajności systemu oraz usunięciu kilku kluczowych błędów, które utrudniały pracę. Dla deweloperów i entuzjastów web devu oraz AI oznacza to bardziej stabilne i przewidywalne środowisko pracy bezpośrednio z linii poleceń.

    Wśród najważniejszych zmian widać wyraźny nacisk na bezpieczeństwo operacji. Tryb Plan, w którym AI może autonomicznie planować zadania, teraz wymaga od użytkownika ręcznego potwierdzenia przed aktywacją każdej umiejętności. To istotna zmiana, która pozwala na lepszą kontrolę nad bardziej złożonymi, automatycznymi workflow. Dopracowano także formatowanie wyjścia narzędzi oraz obsługę klawiszy w Windows Terminal, rozwiązując problem z usuwaniem całych słów za pomocą Ctrl+Backspace.

    Kluczowe zmiany w nocnej wersji 0.39.0

    • Wzmocniona kontrola w trybie Plan: Wprowadzono obowiązkowe potwierdzenie użytkownika dla aktywacji umiejętności, co daje większą władzę nad działaniami agenta.
    • Poprawki dla Windows Terminal i stabilności sesji: Naprawiono błąd uniemożliwiający usuwanie całych słów (Ctrl+Backspace) w Windows Terminal oraz problemy z wznawianiem zawieszonych sesji.
    • Wydajność i optymalizacja: Dodano nowe mechanizmy testowania zużycia pamięci i CPU, aby zapobiegać regresjom wydajności.
    • Bezpieczeństwo sandboxa: Wdrożono refaktoryzację sandboxa Seatbelt dla macOS oraz naprawiono problemy z symlinkami na Windows, co zwiększa izolację i bezpieczeństwo wykonywanych operacji.

    Ta nocna wersja to nie tylko poprawki, ale także rozwój infrastruktury testowej. Zespół dodał zaawansowane testy integracyjne mierzące zużycie pamięci i wydajność procesora, co pokazuje dbałość o długoterminową stabilność projektu.

    Dla użytkowników oznacza to bardziej responsywne działanie CLI. Szczególnie ważna dla programistów pracujących na Windowsie jest poprawka w Windows Terminal, która przywraca intuicyjne edytowanie linii poleceń.

    Rozwój ekosystemu i przyszłość

    Wydanie wpisuje się w szerszy trend rozwoju Gemini CLI jako platformy. Widać inwestycję w rozszerzalność i dalsze prace nad integracją z MCP serverami. Projekt, będący open source, aktywnie rozwija społeczność, co potwierdza długa lista pull requestów od wielu kontrybutorów.

    Choć wersja nightly jest przeznaczona dla użytkowników chcących testować najnowsze, czasem niestabilne funkcje, to wprowadzone w wersji 0.39.0 poprawki są niezwykle praktyczne. Niektóre z nich, jak naprawa Ctrl+Backspace na Windowsie, były wyczekiwane przez długi czas. To pokazuje, że zespół nie tylko dodaje nowe, eksperymentalne możliwości, ale także słucha społeczności i troszczy się o codzienny komfort pracy.

    Dla deweloperów zainteresowanych AI, web devem czy automatyzacją zadań devopsowych, Gemini CLI staje się coraz bardziej dojrzałym narzędziem. Ta nocna aktualizacja, skoncentrowana na kontroli i wydajności, to krok w kierunku zapewnienia stabilności potrzebnej do profesjonalnego wykorzystania AI w terminalu. Warto obserwować dalsze zmiany, zwłaszcza w stabilnych wydaniach, które powinny wkrótce wchłonąć te ulepszenia.


    Źródła

  • Zed w wersji 0.231.1 wprowadza natywne Devcontainers, Git Graph i usprawnienia AI

    Zed w wersji 0.231.1 wprowadza natywne Devcontainers, Git Graph i usprawnienia AI

    Redakcja Zed opublikowała stabilną wersję 0.231.1 swojego edytora kodu, koncentrując się na narzędziach dla zaawansowanych workflow'ów deweloperskich. Wśród kluczowych nowości znajduje się natywna implementacja devcontainerów, która zastępuje dotychczasowe narzędzie CLI oparte na Node.js, nowa wizualizacja Git Graph oraz ulepszenia w interakcjach z agentem sztucznej inteligencji. Wydanie, datowane na kwiecień 2026 roku, przynosi również poprawki wydajnościowe oraz szereg napraw błędów w całej aplikacji.

    Kluczowe zmiany w wersji 0.231.1

    • Natywne Devcontainery: Zed wprowadza własny, natywny silnik do obsługi devcontainerów, który pozwala na definiowanie rozszerzeń Zed w pliku devcontainer.json.
    • Git Graph: Nowa funkcja wizualizacji repozytorium Git, która ma ułatwić przegląd historii commitów i zarządzanie gałęziami.
    • Ulepszenia AI: Wprowadzono top-down streaming dla wątków agenta, co poprawia wyświetlanie bloków myślenia i interakcję z subagentami.
    • Ulubione kanały: W panelu współpracy dodano możliwość oznaczania kanałów jako ulubione, co ułatwia pracę w zespołach.

    Przełom w pracy z kontenerami: natywne Devcontainery

    Najważniejszą zmianą techniczną w tym wydaniu jest przejście na natywną implementację Devcontainerów. Dotychczas Zed korzystał z zewnętrznego narzędzia CLI napisanego w Node.js. Nowy silnik pozwala na bezpośrednie definiowanie rozszerzeń Zed w sekcji customizations.zed.extensions pliku devcontainer.json. Ułatwia to zespołom dbanie o spójność środowisk deweloperskich, ponieważ konfiguracja kontenera może teraz precyzyjnie określać, które wtyczki edytora mają być w nim dostępne.

    Uruchamianie projektu w devcontainerze stało się prostsze. Gdy Zed wykryje plik .devcontainer/devcontainer.json, automatycznie zaproponuje otwarcie projektu w kontenerze. Jeśli obraz nie jest zbudowany, edytor zajmie się tym sam, uruchomi kontener i przeładuje projekt w nowym, izolowanym środowisku. Funkcję tę można również wywołać ręcznie z palety poleceń („Project: Open Remote”) lub modalu zdalnych projektów.

    Należy jednak pamiętać o aktualnych ograniczeniach. Mechanizm nie obsługuje jeszcze automatycznych przebudów przy zmianie pliku konfiguracyjnego – konieczne jest ręczne zatrzymanie i ponowne otwarcie kontenera. Obsługa forwardowania portów jest ograniczona do właściwości appPort, a rozszerzenia zainstalowane na hoście są używane w kontenerze w niezmienionej formie.

    Lepsza wizualizacja Git i płynniejsze AI

    Lepsza wizualizacja Git i płynniejsze AI

    Drugim istotnym elementem aktualizacji są ulepszenia dla systemu kontroli wersji. Git Graph to nowy sposób przeglądania historii repozytorium, który ma zastąpić lub uzupełnić dotychczasowe, tekstowe przedstawienie logów. Szczegóły implementacji są wciąż badane przez społeczność, ale zapowiedź sugeruje silny nacisk na czytelność i ergonomię pracy z gałęziami. Dodatkowo usprawniono widok diffów, który teraz automatycznie przełącza się między widokiem unified a split w zależności od kontekstu, co ma poprawić analizę zmian.

    W zakresie sztucznej inteligencji aktualizacja wprowadza tzw. top-down streaming dla wątków agenta. Oznacza to, że odpowiedzi AI są strumieniowane w bardziej naturalny, sekwencyjny sposób, co poprawia wrażenia z konwersacji i pozwala na lepsze śledzenie procesu myślenia modelu. Ulepszono także wyświetlanie bloków rozumowania i interakcję z subagentami, co jest kluczowe dla złożonych zadań rozbijanych na podetapy.

    Dopracowywanie współpracy i naprawy błędów

    Dopracowywanie współpracy i naprawy błędów

    Wydanie 0.231.1 to nie tylko nowe funkcje, ale także dopracowywanie istniejących opcji. W panelu współpracy dodano opcję oznaczania kanałów jako ulubione. Dla zespołów pracujących nad wieloma projektami równolegle to znaczne ułatwienie w szybkim przełączaniu się między istotnymi dyskusjami.

    Lista poprawek jest obszerna i dotyczy wielu części edytora. Usunięto przestarzałe „Text Threads”, poprawiono wydajność w obszarach współpracy, edycji, terminala i grafiki. Naprawiono również szereg drobnych, ale irytujących błędów, które mogły wpływać na codzienną pracę. To pokazuje, że zespół Zed dba o stabilność i responsywność swojego narzędzia.

    Podsumowanie

    Wydanie Zed 0.231.1 wprowadza zaawansowane, kontenerowe workflow'y oraz głębszą integrację AI z procesem programowania. Natywna obsługa devcontainerów, połączona z możliwością definiowania rozszerzeń, rozwiązuje problem spójności środowisk w zespołach. Rozwój funkcji takich jak Git Graph i top-down streaming dla agenta pokazuje, że edytor uwzględnia zarówno tradycyjne, jak i nowoczesne aspekty pracy dewelopera. Chociaż niektóre nowe funkcje, zwłaszcza devcontainery, są wciąż rozwijane i mają swoje ograniczenia, kierunek zmian odpowiada na potrzeby współczesnego developmentu.


    Źródła

  • Google Antigravity 1.22.2: Wprowadza Nowy System Uprawnień Agentów

    Google Antigravity 1.22.2: Wprowadza Nowy System Uprawnień Agentów

    Google opublikowało aktualizację 1.22.2 dla środowiska programistycznego Antigravity. Główną zmianą jest wprowadzenie systemu uprawnień dla agentów AI, który zastępuje dotychczasowe rozwiązania w zakresie bezpieczeństwa i kontroli nad automatyzacją kodu. Aktualizacja trafia do użytkowników etapami.

    Nowy mechanizm pozwala precyzyjnie określić, jakie działania agent może podejmować w imieniu programisty. Każda operacja – od wpisywania komend w terminalu po interakcje z przeglądarką i generowanie plików – jest teraz traktowana jako osobny zasób uprawnień. Dzięki temu użytkownicy mają większy wpływ na to, co dzieje się w ich lokalnym środowisku.

    Kontrola nad zadaniami agenta

    Agent w wersji 1.22.2 to system wnioskowania korzystający z modeli językowych klasy frontier. Narzędzie tworzy listy zadań, plany wdrożeń oraz nagrania z sesji w przeglądarce. Wcześniej zarządzanie tymi procesami było mało dokładne, co zmienia obecna aktualizacja.

    W panelu Agent Manager oraz w ustawieniach systemowych pojawiły się trzy główne zasady kontroli. Pierwsza z nich, polityka przeglądu artefaktów (Artifact Review Policy), określa sytuacje, w których agent musi zatrzymać pracę i poczekać na akceptację człowieka. Użytkownik może wybrać tryb „Always Proceed”, aby przyspieszyć proces, co jednak wiąże się z mniejszym nadzorem nad wynikami.

    Druga zasada dotyczy wykonywania poleceń w terminalu. Wykorzystuje ona listy dozwolonych i zabronionych komend (allowlists/blocklists). Pozwala to na automatyczne uruchamianie bezpiecznych operacji, takich jak npm install, przy jednoczesnym blokowaniu ryzykownych skryptów. Trzecia funkcja to polityka JavaScriptu w przeglądarce, która uniemożliwia uruchamianie niezaufanego kodu JS. Ma to chronić przed atakami typu prompt injection podczas testowania aplikacji.

    Naprawione błędy i problemy techniczne

    Wersja 1.22.2 eliminuje błąd, który powodował wyświetlanie zbędnych próśb o dostęp do terminala, nawet jeśli użytkownik zaznaczył opcję „Always run”. Dokumentacja potwierdza naprawę tej usterki, choć monity dotyczące adresów URL w przeglądarce mogą nadal występować.

    Wdrożenie nowych zabezpieczeń wiąże się też z pewnymi trudnościami. Wprowadzony wcześniej sandboxing (w wersji 1.21.6) wywołał u części osób problemy z uprawnieniami Dockera, głównie na systemie macOS. Ponieważ system wymusza aktualizacje do najnowszej wersji, niektórzy specjaliści DevOps nie mogą wrócić do starszego, stabilnego wydania. Odnotowano również przypadki błędów weryfikacji konta u użytkowników z aktywną subskrypcją, co prawdopodobnie wynika z przebudowy systemu autoryzacji.

    Bezpieczeństwo w pracy z AI i DevOps

    Nowy system uprawnień to kolejny etap rozwoju narzędzia w stronę bezpiecznego programowania wspomaganego przez AI. Dla osób pracujących w modelu „vibe coding” lub automatyzujących procesy DevOps, szczegółowe definiowanie uprawnień agenta ogranicza ryzyko przypadkowego usunięcia danych, uruchomienia złośliwego skryptu czy wejścia na niebezpieczną stronę podczas testów.

    Zmiany w wersji 1.22.2 przygotowują grunt pod dalszy rozwój autonomii agentów. Google dąży do modelu, w którym samodzielność sztucznej inteligencji jest ograniczona konkretnymi ramami ustawionymi przez człowieka. Dla zespołów zajmujących się tworzeniem stron internetowych i rozwojem AI oznacza to bardziej przewidywalne warunki pracy przy testowaniu nowych metod budowania aplikacji.


    Źródła

  • Gemini CLI v0.37.0-preview.2: Rozszerzone Statystyki i Ulepszenia Interfejsu

    Gemini CLI v0.37.0-preview.2: Rozszerzone Statystyki i Ulepszenia Interfejsu

    Google udostępniło nową wersję preview swojego terminalowego agenta AI opartego na otwartym kodzie źródłowym. Gemini CLI v0.37.0-preview.2 skupia się na stabilności, nowych metrykach i poprawkach w obsłudze programu. Wydanie to wprowadza funkcje przydatne w pracy programistów, specjalistów DevOps oraz osób zajmujących się sztuczną inteligencją.

    Wersja ta powstała poprzez przeniesienie wybranych zmian (cherry-pick) i zastosowanie łatek do kodu źródłowego. Taka metoda pozwoliła na szybkie wdrożenie konkretnych poprawek bez konieczności przebudowy głównej gałęzi projektu.

    Nowe dane w sekcji /stats

    Główną zmianą jest rozbudowa polecenia /stats. Wyświetla ono teraz dodatkowe dane, które pozwalają monitorować wpływ poszczególnych umiejętności agenta (agent skills) i ustawień na pracę systemu. Jest to pomocne przy wieloetapowych zadaniach, gdzie agent wykonuje skomplikowane operacje.

    Dzięki tym zmianom można precyzyjniej analizować wydajność narzędzia. Dane te ułatwiają optymalizację czasu i zasobów potrzebnych do realizacji zautomatyzowanych procesów.

    Zmiany w interfejsie użytkownika

    W interfejsie wprowadzono funkcję rozwijania wklejanego tekstu (expandable text pastes). Rozwiązuje to problem nadmiaru informacji w oknie konsoli – zamiast wyświetlać długie bloki danych, CLI pokazuje teraz zwinięty, bardziej czytelny widok.

    Ułatwia to pracę z logami, skryptami oraz planami wykonania w trybie plan mode. Użytkownik może skupić się na konkretnych fragmentach bez przewijania setek linii tekstu, co poprawia ergonomię pracy w terminalu.

    Stabilność na systemach Windows i Linux

    Wydanie naprawia błędy występujące na systemach Windows i Linux. Z dokumentacji wynika, że twórcy skupili się także na rozwoju izolacji procesów (sandboxing) oraz zarządzaniu sesjami agenta przeglądarkowego.

    Dla osób pracujących na różnych systemach operacyjnych poprawa stabilności ma duże znaczenie. Błędy w tym obszarze mogą utrudniać automatyzację testów czy procesów wdrożeniowych CI/CD.

    Dopracowanie działania programu

    Program działa teraz stabilniej, a błędy w renderowaniu tekstu zostały ograniczone. Choć są to zmiany techniczne, wpływają one na płynność pracy, szczególnie gdy agent na bieżąco generuje kolejne kroki planu w oknie terminala. Przewidywalne zachowanie interfejsu ułatwia codzienne korzystanie z narzędzia.

    Bezpieczeństwo i telemetria

    Tryb planu otrzymał ulepszenia w zakresie izolowania narzędzi. Projekt kładzie nacisk na bezpieczeństwo, starając się oddzielać uruchamiane skrypty od systemu operacyjnego gospodarza, aby zminimalizować ryzyko niepożądanych zmian.

    W zakresie telemetrii dodano nowe metryki dla agenta przeglądarkowego. Pozwalają one zbierać informacje o wydajności tego modułu, co ułatwia jego dalszy rozwój.

    Zarządzanie konfiguracją

    Twórcy pracują nad bezpieczniejszą obsługą zmiennych środowiskowych i ustawień. Mechanizmy kontroli dostępu mają chronić klucze i hasła przekazywane do agentów działających w piaskownicy. Prawidłowe działanie tych funkcji ogranicza ryzyko wycieku danych.

    Gemini CLI jest dostępne w trzech kanałach: nightly, preview oraz stable. Wersje preview służą do testowania nowych funkcji, takich jak eksperymentalne umiejętności agenta. Narzędzie można zainstalować za pomocą npm lub npx z repozytorium google-gemini/gemini-cli.

    Rozwój agenta CLI

    Wersja v0.37.0-preview.2 pokazuje kierunek rozwoju projektu, stawiając na analitykę, stabilność i bezpieczeństwo. Zmiany te sprawiają, że narzędzie staje się bardziej przewidywalne w zastosowaniach deweloperskich. Kolejne aktualizacje dostarczają więcej danych do analizy i poprawiają komfort pracy z agentem AI w linii komend.


    Źródła

  • Windsurf wprowadza inteligentny router modeli i naprawia uciążliwy błąd

    Windsurf wprowadza inteligentny router modeli i naprawia uciążliwy błąd

    Najnowsza aktualizacja Windsurf, agentycznego środowiska programistycznego (IDE), wprowadza funkcję optymalizacji kosztów oraz poprawkę błędu, który utrudniał pracę części użytkowników. Główną nowością jest inteligentny router modeli. System ten automatycznie wybiera model AI najlepiej dopasowany do konkretnego zadania, co ma zapobiegać zbyt szybkiemu zużywaniu miesięcznego limitu tokenów. Producent naprawił również usterkę blokującą zmianę modelu po wysłaniu pierwszego zapytania i zwrócił wykorzystane limity osobom, które miały z tym problem.

    Zmiany te są reakcją na uwagi społeczności dotyczące tempa wyczerpywania się pakietów po modyfikacji systemu rozliczeń. Windsurf rywalizuje bezpośrednio z Cursorem i skupia się na poprawie wydajności oraz kontroli wydatków podczas pracy w trybie „vibe codingu”.

    Jak działa inteligentny router modeli?

    Inteligentny router modeli to nowa pozycja na liście wyboru modeli. System dynamicznie dobiera odpowiedni model bazowy (taki jak GPT, Claude czy Gemini) do każdego zapytania programistycznego. Najważniejszą cechą tego rozwiązania jest rozliczanie zużycia według stałej stawki za token, bez względu na to, który model premium zostanie faktycznie uruchomiony w tle.

    Mechanizm ten kieruje proste zadania do lżejszych i tańszych modeli, rezerwując zaawansowane jednostki dla trudniejszych problemów. Dzięki temu przydzielona pula tokenów ma wystarczać na dłuższy czas. Z funkcji mogą korzystać użytkownicy indywidualni posiadający plany Pro, Max oraz Teams.

    Przez najbliższe dwa tygodnie obowiązują promocyjne ceny za dodatkowe użycie: 0,50 USD za 1 milion tokenów wejściowych, 2,00 USD za 1 milion tokenów wyjściowych oraz 0,10 USD za 1 milion tokenów odczytu z pamięci podręcznej (cache).

    Przejrzyste koszty i poprawki techniczne

    Aktualizacja zmienia wygląd selektora modeli, aby ułatwić sprawdzanie kosztów. Teraz stawki za tokeny wejściowe, wyjściowe i odczyt z cache są widoczne bezpośrednio przy każdym modelu. Ma to zapewnić użytkownikom lepszy wgląd w to, jak wydawane są ich środki.

    Dodatkowo w oknie odpowiedzi pojawia się teraz informacja o dokładnej liczbie zużytych tokenów dla danego zapytania. W oknie kontekstu dodano też licznik czasu wygaśnięcia pamięci podręcznej promptów.

    Kluczową poprawką jest usunięcie błędu w routerze, który blokował możliwość przełączenia modelu po rozpoczęciu sesji. Firma ogłosiła, że użytkownicy dotknięci tym problemem otrzymali pełny reset limitów oraz zwrot poniesionych opłat dodatkowych.

    Rozwój narzędzia i ekosystemu

    Wprowadzenie routera modeli to część strategii Windsurf opartej na zarządzaniu kosztami i rozwijaniu funkcji agentowych. Wcześniej platforma umożliwiła integrację z Devin Cloud, co pozwala na delegowanie zadań do agenta AI działającego w chmurze.

    Windsurf, rozwijany przez Cognition AI, rozbudowuje także wsparcie dla Model Context Protocol (MCP). Poprawiono między innymi zarządzanie zasobami, widoczność stanu ładowania oraz stabilność połączeń przy inicjalizacji. Ulepszenia te mają znaczenie dla osób korzystających z rozbudowanych procesów deweloperskich i zewnętrznych narzędzi.

    Skuteczność nowego routera zależy od tego, jak trafnie system będzie dobierał modele, by oszczędności nie odbywały się kosztem jakości kodu. Jeśli mechanizm będzie działał sprawnie, może stać się standardowym sposobem korzystania z aplikacji dla osób, które chcą lepiej wykorzystać swój abonament.


    Źródła

  • Claude Code 2.1.94: Wsparcie dla Amazon Bedrock i Poprawa Stabilności

    Claude Code 2.1.94: Wsparcie dla Amazon Bedrock i Poprawa Stabilności

    Aktualizacja Claude Code do wersji 2.1.94 wprowadza zmiany przydatne dla programistów korzystających z AWS oraz osób pracujących w dużych zespołach. Deweloperzy skupili się na obsłudze zewnętrznych platform, poprawie stabilności i usunięciu błędów utrudniających codzienną pracę.

    Integracja z Amazon Bedrock przez Mantle

    Główną nowością jest obsługa Amazon Bedrock za pomocą systemu Mantle. Jest to wewnętrzne rozwiązanie firmy Anthropic, które przekierowuje zapytania do infrastruktury Bedrock. Funkcja ta jest skierowana do firm, które chcą korzystać z modeli AI bez przesyłania danych poza swoje środowisko AWS.

    Aby aktywować tę funkcję, należy ustawić zmienną środowiskową CLAUDE_CODE_USE_MANTLE=1. Pozwala to na komunikację z modelami przez zarządzaną infrastrukturę AWS, co ułatwia zachowanie zgodności z wewnętrznymi zasadami bezpieczeństwa i wykorzystanie posiadanych kredytów AWS. Claude Code wciąż korzysta z formatu API Anthropica, a Mantle służy jako łącznik między tym standardem a interfejsem Bedrock.

    Wyższy domyślny poziom Effort

    W tej wersji zmieniono domyślne ustawienie intensywności pracy narzędzia. Dla użytkowników korzystających z kluczy API oraz platform Bedrock, Vertex, Foundry, a także planów Team i Enterprise, poziom effort został podniesiony z medium na high.

    W praktyce oznacza to, że model poświęca więcej zasobów na analizę i generowanie odpowiedzi. Ma to poprawić jakość kodu, choć może wiązać się z nieco dłuższym czasem oczekiwania i większym zużyciem tokenów. Użytkownicy, którzy wolą poprzednie ustawienie, mogą je przywrócić poleceniem /effort.

    Ulepszenia pluginów i integracji

    Wersja 2.1.94 wprowadza zmiany w sposobie działania dodatków. Nazwy umiejętności (skills) w pluginach są teraz pobierane z pola name w sekcji frontmatter, co ułatwia ich poprawne wywoływanie.

    Poprawiono również współpracę ze Slackiem. Gdy Claude wysyła wiadomość przez protokół MCP (Model Context Protocol), w konsoli pojawia się nagłówek Slacked #channel. Zawiera on bezpośredni link do kanału, co przyspiesza przełączanie się między terminalem a komunikatorem.

    Poprawki błędów

    Większość zmian w tej wersji to usunięcie usterek zgłaszanych przez użytkowników:

    • Limity zapytań (rate limits): Program informuje o przekroczeniu limitów od razu. Wcześniej aplikacja mogła przestać odpowiadać bez podania przyczyny.
    • Logowanie w macOS: Naprawiono błędy podczas logowania w konsoli. Teraz problemy można zdiagnozować za pomocą komendy claude doctor.
    • Kodowanie znaków: Rozwiązano problem z błędnym wyświetlaniem polskich liter i innych znaków specjalnych podczas przesyłania danych w formacie JSON.
    • Autoryzacja w Bedrock: Usunięto błąd 403 "Authorization header is missing", który pojawiał się przy specyficznych konfiguracjach zmiennych środowiskowych.

    Dodatkowo poprawiono renderowanie interfejsu w terminalu oraz zarządzanie aktywnymi sesjami.

    Podsumowanie

    Claude Code 2.1.94 to aktualizacja techniczna, która poprawia działanie narzędzia w środowiskach korporacyjnych. Wsparcie dla Amazon Bedrock ułatwia wdrożenie narzędzia w firmach opartych na AWS, a wyższy poziom „effort” ma zapewniać lepsze wyniki pracy modelu. Najważniejszą zmianą dla większości użytkowników będzie jednak wyeliminowanie błędów związanych z logowaniem i limitami zapytań, co przekłada się na stabilniejsze działanie programu.


    Źródła

  • Claude Mythos Przedstawia Przyszłość Cyberbezpieczeństwa. Czas na Skok Pokoleniowy w Obronie

    Claude Mythos Przedstawia Przyszłość Cyberbezpieczeństwa. Czas na Skok Pokoleniowy w Obronie

    Anthropic udostępniło model Claude Mythos w ramach zamkniętych testów badawczych. Jest to system ogólnego przeznaczenia, który wykazuje nowe możliwości w zakresie cyberbezpieczeństwa, w tym wyszukiwanie i wykorzystywanie podatności typu zero-day. W związku z ryzykiem, jakie niesie ta technologia, firma rozpoczęła Project Glasswing. To inicjatywa o ograniczonym dostępie, która ma wykorzystać potencjał modelu do wzmocnienia zabezpieczeń infrastruktury krytycznej.

    Dane techniczne opublikowane przez Anthropic wskazują, że model uzyskał wynik 83% w teście CyberGym. Dla porównania Claude Opus osiągnął w tym samym badaniu 67%. Claude Mythos nie ogranicza się do prostego skanowania kodu. Potrafi tworzyć złożone łańcuchy exploitów, które w testach wywoływały awarie w OSS-Fuzz i pozwalały na przejmowanie przepływu sterowania (control flow). Model radzi sobie również z lukami typu N-day oraz inżynierią wsteczną oprogramowania o zamkniętym kodzie źródłowym.

    Skala wykrywania luk i ryzyko podwójnego zastosowania

    W fazie testowej model wskazał tysiące nieznanych wcześniej błędów w popularnych systemach operacyjnych i przeglądarkach. System odnajduje usterki, które pozostawały niewykryte przez dziesięciolecia. Przykładem jest załatany już błąd w OpenBSD, który znajdował się w kodzie przez 27 lat.

    Technologia ta ma charakter podwójnego zastosowania (dual-use). Narzędzia służące do łatania starych systemów mogą zostać użyte przez grupy przestępcze do automatyzacji ataków. Z tego powodu Anthropic ograniczyło dostęp do modelu. W ramach Project Glasswing korzysta z niego obecnie ponad 40 podmiotów, w tym firmy technologiczne i organizacje zajmujące się bezpieczeństwem cyfrowym.

    Wpływ na pracę programistów i DevOps

    Rozwój takich modeli zmienia podejście do web developmentu i procesów DevOps. Tradycyjne testy penetracyjne wykonywane raz na kwartał stają się niewystarczające, gdy sztuczna inteligencja potrafi w kilka godzin wykonać pracę, która ekspertowi zajmowała wiele dni. Ciągła walidacja bezpieczeństwa (continuous validation) staje się standardowym wymogiem.

    Claude Mythos może pomóc w zabezpieczaniu potoków CI/CD poprzez automatyczne wykrywanie błędów pamięci czy warunków wyścigu (race conditions) w starym kodzie. Integracja takiej analizy bezpośrednio z codzienną pracą programistów ma docelowo utrudnić przeprowadzanie ataków i podnieść ogólny poziom bezpieczeństwa systemów.

    Wyniki ewaluacji pokazują, że Anthropic koncentruje się na specjalistycznych zadaniach związanych z ochroną danych i infrastruktury. Jest to jeden z głównych kierunków rozwoju zaawansowanych modeli tej firmy.

    Wyzwania i dalsze kroki

    Skuteczność modelu w testach laboratoryjnych nie gwarantuje identycznych wyników w rzeczywistych warunkach. Systemy obronne, takie jak mechanizmy EDR (Endpoint Detection and Response), mogą skutecznie blokować działania podejmowane przez model. Kluczowym sprawdzianem będzie praca w środowiskach posiadających aktywne zabezpieczenia.

    Pojawienie się Claude Mythos wywołało w branży dyskusję na temat odpowiedzialności za niezałatane luki w działających systemach. Poprzez Project Glasswing Anthropic testuje model dystrybucji technologii o wysokim ryzyku. Wyniki tego projektu pokażą, czy szerokie zastosowanie sztucznej inteligencji w cyberbezpieczeństwie realnie wzmocni ochronę, czy ułatwi przeprowadzanie ataków.


    Źródła

  • Windsurf Wprowadza Adaptacyjny Router Modeli AI dla Efektywnego Codingu

    Windsurf Wprowadza Adaptacyjny Router Modeli AI dla Efektywnego Codingu

    Platforma Windsurf wprowadziła funkcję o nazwie Adaptacyjny Router Modeli. Jest to mechanizm, który automatycznie wybiera model AI najlepiej dopasowany do konkretnego zadania programistycznego. Rozwiązanie to ma pomóc użytkownikom lepiej wykorzystywać miesięczne limity tokenów i usprawnić codzienną pracę z kodem.

    Adaptacyjny router modeli: Zarządzanie zasobami AI

    Adaptacyjny Router Modeli analizuje zadania zlecane asystentowi Cascade i dobiera do nich odpowiedni model. System ten zapobiega wykorzystywaniu zaawansowanych i kosztownych modeli do prostych operacji, które mogą zostać wykonane przez tańsze jednostki. Dzięki temu programiści korzystający z planów Pro, Max lub Teams mogą rzadziej przekraczać swoje limity subskrypcyjne.

    Funkcja jest dostępna dla użytkowników indywidualnych oraz zespołów w planach samoobsługowych. Windsurf ustawił ją jako opcję domyślną. Przez najbliższe dwa tygodnie obowiązują również niższe stawki za korzystanie z routera po wyczerpaniu limitu: 0,50 USD za 1 milion tokenów wejściowych, 2 USD za 1 milion tokenów wyjściowych oraz 0,10 USD za 1 milion tokenów odczytu z pamięci podręcznej (cache).

    Transparentność kosztów i monitorowanie zużycia

    Wraz z nową funkcją zmienił się interfejs wyboru modelu. W menu wyboru przy każdej opcji widnieje teraz dokładny cennik za tokeny wejściowe, wyjściowe oraz odczyt z cache. Pozwala to sprawdzić koszt operacji przed wysłaniem zapytania do AI.

    W oknie kontekstu pojawił się licznik czasu pamięci podręcznej, który pokazuje status wykorzystania mechanizmu optymalizacji kosztów. Dodatkowo każda odpowiedź asystenta zawiera teraz informację o liczbie zużytych tokenów. Te dane pozwalają na bieżąco kontrolować wydatki i pozostały limit w ramach abonamentu.

    Usunięcie dziennych limitów w planie Max

    Windsurf zmienił zasady korzystania z planu Max, usuwając z niego dzienne ograniczenia. Wcześniej użytkownicy tej subskrypcji, mimo posiadania miesięcznej puli, byli ograniczani dobowymi limitami. Obecnie mogą oni wykorzystać cały dostępny limit w dowolnym czasie, co ułatwia pracę przy intensywnych projektach wymagających wielu godzin ciągłego kodowania.

    Rozwój platformy Windsurf

    Windsurf rozwija asystenta Cascade, który zajmuje się pisaniem i naprawianiem kodu oraz planowaniem kolejnych etapów pracy. Wprowadzenie adaptacyjnego routera modeli ma sprawić, że korzystanie z narzędzi AI stanie się bardziej przewidywalne pod względem kosztów.

    Firma planuje dalsze aktualizacje systemu routingu. Algorytm dobierający modele ma być rozwijany, aby w przyszłości jeszcze dokładniej dopasowywać moc obliczeniową AI do potrzeb programistów.


    Źródła