Tag: API

  • Claude Code 2.1.86 Usprawnia Zarządzanie Sesjami i Naprawia Krytyczne Błędy

    Claude Code 2.1.86 Usprawnia Zarządzanie Sesjami i Naprawia Krytyczne Błędy

    Najnowsza aktualizacja Claude Code, oznaczona numerem 2.1.86, przynosi serię istotnych ulepszeń skupiających się na zwiększeniu niezawodności sesji oraz optymalizacji codziennej pracy programistów. Nie są to spektakularne nowości, lecz solidne poprawki „pod maską”, które pozytywnie wpływają na stabilność i wydajność środowiska.

    Wydanie to stanowi część ciągłego procesu doskonalenia tego popularnego narzędzia do programowania wspomaganego przez AI, koncentrując się na problemach zgłaszanych przez społeczność oraz na fundamentach infrastrukturalnych.

    Lepsze śledzenie sesji i optymalizacja dla VCS

    Jedną z kluczowych zmian w wersji 2.1.86 jest dodanie nagłówka `X-Claude-Code-Session-Id` do żądań API. To techniczny szczegół, który ma jednak praktyczne znaczenie w przypadku większych wdrożeń.

    Dzięki temu nagłówkowi serwery proxy i narzędzia monitorujące infrastrukturę mogą grupować żądania według sesji bez konieczności parsowania ich treści. Upraszcza to zarządzanie ruchem, analizę logów oraz debugowanie problemów w środowiskach zespołowych i korporacyjnych.

    Kolejna istotna optymalizacja dotyczy pracy z systemami kontroli wersji (VCS). Claude Code rozszerzył listę katalogów wykluczanych z indeksowania o foldery .jj (Jujutsu) i .sl (Sapling). Te alternatywne systemy VCS zyskują na popularności w określonych niszach programistycznych.

    Efekt jest prosty: narzędzia takie jak grep czy autouzupełnianie ścieżek plików nie będą już niepotrzebnie przeszukiwać tych katalogów z metadanymi. Przekłada się to na szybsze działanie, mniejsze obciążenie dysku i ogólnie płynniejszą pracę deweloperów korzystających z Jujutsu lub Sapling.

    Naprawa krytycznego błędu związanego ze wznawianiem sesji

    To wydanie eliminuje również uciążliwy błąd, który pojawiał się przy próbie wznowienia starszych rozmów. Chodzi o komunikat „tool_use ids were found without tool_result blocks”, występujący podczas używania komendy --resume w sesjach utworzonych przed wersją 2.1.85.

    Taka niekompatybilność wsteczna potrafiła skutecznie uniemożliwić powrót do wcześniejszych zadań. Poprawka przywraca pełną funkcjonalność, co jest istotne, gdyż system zarządzania sesjami w Claude Code to jedna z jego najmocniejszych stron.

    Warto pamiętać, że wszystkie konwersacje są trwale zapisywane na dysku jako transkrypty w formacie JSONL. Dzięki temu stanowią kompletną, przeszukiwalną historię, którą można wznawiać, rozgałęziać, eksportować, a nawet przenosić między maszynami. Stabilność tego mechanizmu jest więc kluczowa.

    Szerszy kontekst popraw wydajnościowych

    Choć wersja 2.1.86 skupia się na wymienionych ulepszeniach, wpisuje się ona w szerszą serię optymalizacji wprowadzanych w kolejnych wydaniach. Na przykład wersja 2.1.86 przyniosła nowe funkcje, takie jak silniejsza kontrola polityk (policy controls), kreator Bedrock oraz wgląd w koszty i zapisywanie dużych plików. Pokazuje to, że zespół rozwija produkt wielotorowo, pracując równocześnie nad nowymi funkcjonalnościami, jak i nad stabilizacją oraz wydajnością podstawowych mechanizmów.

    Co oznaczają te zmiany dla użytkownika?

    Podsumowując, wydanie 2.1.86 to typowa „solidna łata”. Nie wprowadza rewolucyjnych nowości, ale jej efekty są odczuwalne w codziennym użytkowaniu: mniej błędów przy wznawianiu pracy, lepsza organizacja sesji w logach dla administratorów i sprawniejsza współpraca z niszowymi systemami VCS.

    Takie aktualizacje są często niedoceniane, jednak są niezbędne dla zachowania długoterminowej stabilności i niezawodności oprogramowania. Świadczą one o dojrzałości projektu Claude Code, którego twórcy nie tylko wprowadzają nowinki, ale też konsekwentnie dopracowują istniejące rozwiązania. Dla użytkowników oznacza to po prostu mniej frustracji i więcej czasu na pisanie kodu.


    Źródła

  • Gemini CLI zapowiada głęboką przebudowę architektury subagentów i wprowadza ulepszenia dla użytkowników

    Gemini CLI zapowiada głęboką przebudowę architektury subagentów i wprowadza ulepszenia dla użytkowników

    W najnowszym wydaniu narzędzie Gemini API otrzymuje szereg istotnych aktualizacji skupionych na udostępnieniu nowych modeli i zwiększeniu ich możliwości. Sercem zmian jest wprowadzenie modeli z rozszerzonym oknem kontekstowym, które mają na celu przezwyciężenie kluczowych ograniczeń wcześniejszych wersji. Jednocześnie pojawiają się usprawnienia w aplikacjach i interfejsach korzystających z tych modeli, nastawione na poprawę doświadczeń użytkownika (user experience).

    Rozszerzone możliwości modeli: większy kontekst i specjalizacja

    Dotychczasowe modele Gemini, choć potężne, miały ograniczenia związane z pojemnością okna kontekstowego. Najnowsze aktualizacje wprowadzają modele z oknem kontekstowym sięgającym 1 miliona tokenów, co pozwala na pracę z bardzo obszernymi fragmentami kodu i dokumentacji. Ta zmiana ma bezpośredni wpływ na wydajność wykonywania złożonych, wieloetapowych zadań bez utraty kontekstu.

    Kluczowe elementy tych aktualizacji to:

    • Modele z rozszerzonym kontekstem: Udostępnienie modeli takich jak Gemini 1.5 Pro i Flash z oknem 1M tokenów umożliwia analizę długich dokumentów, dużych baz kodu lub prowadzenie rozbudowanych konwersacji bez potrzeby częstego podsumowywania treści.
    • Specjalizacja zadań: Twórcy promują wykorzystanie różnych modeli do konkretnych typów zadań – szybszych i tańszych (np. Flash) do prostszych operacji, a bardziej zaawansowanych (np. Pro) do złożonego rozumowania i planowania.
    • Integracje i protokoły: Rozwój ekosystemu wokół API, w tym eksperymentalne wsparcie dla protokołów takich jak MCP (Model Context Protocol), może w przyszłości otworzyć drogę do tworzenia zaawansowanych procesów agentowych, łączących różne źródła danych i narzędzia.

    Co to oznacza dla programistów? Praktyczny wpływ na workflow

    Co to oznacza dla programistów? Praktyczny wpływ na workflow

    Ewolucja modeli ma konkretne przełożenie na codzienną pracę, szczególnie w obszarach takich jak web development, AI czy analiza danych. Dzięki rozszerzonemu kontekstowi aplikacje oparte na Gemini API mogą teraz efektywniej obsługiwać skomplikowane, wieloetapowe zadania.

    Wyobraźmy sobie zadanie, w którym asystent analizuje całe repozytorium kodu w poszukiwaniu określonego wzorca, przetwarza długą dokumentację techniczną, a następnie generuje na tej podstawie plan refaktoryzacji – wszystko w ramach jednej, spójnej sesji. Praca z tak dużym kontekstem minimalizuje potrzebę ręcznego dzielenia problemów na mniejsze części.

    Rozwój ekosystemu i integracje z popularnymi narzędziami zwiększają użyteczność API, umożliwiając automatyzację zadań związanych z analizą kodu czy generowaniem treści. Ponadto dostępność różnych modeli pozwala na optymalizację kosztów i wydajności w zależności od potrzeb projektu.

    Ulepszenia aplikacji: lepsza kontrola i interakcja

    Równolegle do rozwoju samych modeli aplikacje i interfejsy korzystające z Gemini otrzymują pakiet usprawnień skupionych na użytkowniku. Kluczową koncepcją, która zyskuje na znaczeniu, jest idea planowania przed działaniem.

    Coraz więcej narzędzi promuje tryb pracy pozwalający najpierw bezpiecznie przeanalizować kod i wygenerować plany działania, zanim użytkownik zatwierdzi jakiekolwiek modyfikacje. Asystent może zadawać pytania doprecyzowujące i tworzyć szczegółowe plany, na przykład dla migracji całej aplikacji, dając programiście pełną kontrolę i wgląd w proponowane zmiany. To ważny krok w stronę zwiększenia bezpieczeństwa i zaufania do narzędzi AI.

    Poza tym odświeżane są interfejsy użytkownika, wprowadzane są ulepszenia w komunikacji z modelem oraz lepsza integracja ze środowiskiem programistycznym (IDE). Personalizacja doświadczeń wynika z ogólnych ulepszeń aplikacji, które obejmują też bardziej przejrzyste komunikaty i trwałość stanu sesji.

    Podsumowanie: kierunek ewolucji narzędzi deweloperskich

    Ewolucja modeli Gemini i ich ekosystemu to fundamentalna zmiana w możliwościach asystentów programistycznych. Przejście w stronę modeli o ogromnej pojemności kontekstu bezpośrednio rozwiązuje problemy deweloperów przy automatyzacji złożonych procesów (workflow) wymagających szerokiego spojrzenia na projekt.

    Połączenie technicznej głębi z praktycznymi ulepszeniami w interakcji, takimi jak nacisk na planowanie i kontrolę, pokazuje zrównoważone podejście do rozwoju. Narzędzia oparte na Gemini nie tylko stają się potężniejsze pod maską, ale także dążą do większej przewidywalności i bezpieczeństwa. Te zmiany wyraźnie wyznaczają trend w ewolucji asystentów: w stronę większej zdolności rozumienia złożonych kontekstów, lepszej współpracy z człowiekiem i integracji w ramach wieloetapowych procesów.

  • Claude Code 2.1.80: lepsze wsparcie pluginów i widoczność limitów szybkości

    Claude Code 2.1.80: lepsze wsparcie pluginów i widoczność limitów szybkości

    Kolejna aktualizacja Claude Code, oznaczona numerem wersji 2.1.80, przynosi znaczące usprawnienia w dwóch kluczowych dla programistów obszarach: zarządzaniu wtyczkami i monitorowaniu zużycia zasobów. To nie tylko kosmetyczne poprawki, ale zmiany, które realnie wpływają na codzienną pracę z tym asystentem AI.

    Choć oficjalne release notes są dość oszczędne w szczegóły, udało się wyłuskać najważniejsze nowości i poprawki, które trafiły do narzędzia. Wersja 2.1.80 skupia się na większej przejrzystości i wygodzie, zwłaszcza dla osób, które intensywnie korzystają z Claude.ai i rozbudowują swoje środowisko o dodatkowe funkcje.

    Monitoring rate limitów bezpośrednio w statusline

    Jedną z najbardziej praktycznych nowości jest dodanie monitorowania limitów (rate limits) API Claude.ai bezpośrednio do paska statusu. Do skryptów statusline dodano nowe pole rate_limits, które wyświetla wykorzystanie limitów w dwóch horyzontach czasowych: pięciogodzinnym oknie kroczącym i tygodniowym pułapie.

    Co to oznacza w praktyce? Programiści mogą teraz na bieżąco śledzić used_percentage – czyli procent wykorzystanego limitu – oraz sprawdzać znacznik czasowy resets_at, który informuje, kiedy limity zostaną zresetowane. To cenna informacja, zwłaszcza dla zespołów pracujących nad większymi projektami, gdzie zużycie tokenów i godzin obliczeniowych może szybko rosnąć.

    Warto przypomnieć, że Claude Code działa w systemie dwupoziomowym. Pierwsza warstwa to pięciogodzinne okno kroczące, które kontroluje aktywność w krótkich seriach. Druga to tygodniowy limit, który ogranicza całkowitą liczbę aktywnych godzin obliczeniowych. Dla planu Pro przekłada się to na około 40–80 godzin tygodniowo przy użyciu modeli Sonnet, a najwyższy plan Max oferuje nawet do 480 godzin Sonnet lub 40 godzin Opus – w zależności od liczby równoległych sesji i złożoności modeli.

    Podgląd nowej funkcji: Kanały (Channels)

    Podgląd nowej funkcji: Kanały (Channels)

    Wersja 2.1.80 wprowadza nową, eksperymentalną funkcję oznaczoną jako research preview. Chodzi o flagę --channels, która umożliwia serwerom MCP bezpośrednie przesyłanie wiadomości do sesji użytkownika. Ta nowa funkcja pozwala na kontrolę asystenta przez zewnętrzne kanały, takie jak Telegram czy Discord, i wymaga logowania przez claude.ai (klucze API nie są obsługiwane).

    Na razie to tylko zapowiedź możliwości, ale kierunek jest ciekawy. Taki mechanizm może pozwolić na bardziej dynamiczne interakcje, np. otrzymywanie powiadomień z systemów CI/CD, alertów monitoringu czy wiadomości z czatów zespołowych bezpośrednio w interfejsie Claude Code.

    Podsumowanie

    Aktualizacja Claude Code do wersji 2.1.80 nie jest rewolucją, ale solidnym krokiem w ewolucji narzędzia. Skupia się na tym, co ważne dla programistów na co dzień: przejrzystości (rate limits) i nowych możliwościach integracji (kanały).

    Nowy system monitoringu limitów to odpowiedź na realną potrzebę użytkowników, którzy chcą kontrolować koszty i zużycie zasobów. Eksperymentalna funkcja kanałów pokazuje kierunek rozwoju w stronę bardziej dynamicznej i zintegrowanej komunikacji.

    Wersja 2.1.80 utrzymuje trend, w którym Claude Code staje się nie tylko asystentem AI, ale coraz bardziej zintegrowanym środowiskiem deweloperskim, które dba o widoczność kluczowych metryk i oferuje sensowne, pragmatyczne ulepszenia interfejsu.

  • Claude Platform otrzymuje ważne aktualizacje: większa kontrola nad streamingiem i nowe pola w API

    Claude Platform otrzymuje ważne aktualizacje: większa kontrola nad streamingiem i nowe pola w API

    Platforma Claude od Anthropic właśnie zyskała dwie istotne, choć na pierwszy rzut oka dyskretne, nowości dla deweloperów. Chodzi o możliwość programistycznego sprawdzania możliwości modeli oraz większą kontrolę nad strumieniowaniem odpowiedzi w trybie rozszerzonego myślenia (extended thinking). To drobne, ale ważne zmiany, które ułatwiają budowanie bardziej przewidywalnych i wydajnych aplikacji.

    Zasadniczo, korzystając z API Claude, trzeba wiedzieć, z czym dokładnie ma się do czynienia – jakie limity tokenów obowiązują i które funkcje są wspierane. Do tej pory informacje te trzeba było sprawdzać w dokumentacji. Teraz można to zrobić bezpośrednio w kodzie.

    Nowe pola w Models API: max_input_tokens, max_tokens i capabilities

    Od 18 marca 2026 roku endpointy GET /v1/models oraz GET /v1/models/{model_id} zwracają trzy nowe pola. Są to max_input_tokens, max_tokens oraz obiekt capabilities. Co one oznaczają?

    max_input_tokens określa maksymalną liczbę tokenów, jaką model może przyjąć na wejściu w pojedynczym żądaniu. max_tokens to z kolei limit tokenów, które model może wygenerować w odpowiedzi. Najciekawszy jest jednak obiekt capabilities. Choć szczegóły nie zostały jeszcze szeroko opisane, można się spodziewać, że będzie on przechowywał informacje o tym, czy dany model obsługuje np. extended thinking, wizję czy konkretne narzędzia (tool use).

    To zmiana jakościowa dla deweloperów integrujących Claude'a. Zamiast ręcznie aktualizować konfigurację w kodzie przy każdym wydaniu nowego modelu, można napisać logikę, która dynamicznie odczyta jego możliwości bezpośrednio z API. W praktyce ułatwia to zarządzanie wersjami modeli i tworzenie bardziej odpornych na zmiany integracji.

    Kontrola nad streamingiem odpowiedzi z „myśleniem”: pole display

    Druga aktualizacja, z 16 marca, dotyczy trybu extended thinking. To funkcja, w której Claude, zamiast od razu podawać finalną odpowiedź, najpierw prezentuje swój tok rozumowania prowadzący do rozwiązania. Jest to niezwykle przydatne do debugowania i zrozumienia procesu, ale w niektórych aplikacjach produkcyjnych te dodatkowe dane mogą nie być potrzebne użytkownikowi końcowemu, a ich przesyłanie wydłuża czas uzyskania ostatecznej odpowiedzi.

    Teraz deweloperzy zyskują nad tym kontrolę. W żądaniu można ustawić parametr thinking.display: "omitted". W efekcie w strumieniowanej odpowiedzi bloki thinking będą przychodziły z pustą zawartością, ale ich sygnatura (struktura) zostanie zachowana. Dlaczego to ważne?

    Zachowanie struktury jest kluczowe dla ciągłości w rozmowach wieloturowych. Systemy, które analizują i przetwarzają odpowiedzi modelu w czasie rzeczywistym, często polegają na tej strukturze, aby odróżnić proces myślenia od finalnej odpowiedzi. Gdyby struktura uległa zmianie, mogłoby to zaburzyć logikę aplikacji. Teraz aplikacja może bezpiecznie pomijać treść myślenia przed użytkownikiem, zachowując jednocześnie pełną informację dla własnej logiki przetwarzania. Co istotne, sposób rozliczania za użycie modelu pozostaje bez zmian – płaci się zarówno za tokeny zużyte na myślenie, jak i na odpowiedź.

    Kontekst: potężne modele 4.6 i milion tokenów kontekstu

    Kontekst: potężne modele 4.6 i milion tokenów kontekstu

    Te techniczne aktualizacje API wpisują się w szerszy trend rozwoju Claude'a, który w 2026 roku przyspieszył. Flagowe modele, Claude Opus 4.6 i Claude Sonnet 4.6, oferują już kontekst miliona tokenów (1M) w wersji ogólnodostępnej (generally available). Oznacza to, że modele mogą analizować ogromne zbiory danych – na przykład całe bazy kodu liczące miliony linii, długie transkrypcje sądowe lub kompleksowe raporty due diligence.

    Wcześniej korzystanie z okna 1M tokenów wymagało specjalnego nagłówka beta. Od 13 marca dla Opus 4.6 i Sonnet 4.6 to ograniczenie zniesiono. Jeśli żądanie przekracza 200 tysięcy tokenów, system automatycznie użyje pełnego, milionowego kontekstu. Jednocześnie usunięto specjalne limity rate limits dla 1M tokenów, co oznacza, że obowiązują teraz standardowe limity konta.

    Co to oznacza dla deweloperów webowych i AI?

    Dla osób budujących aplikacje z użyciem AI, zwłaszcza w obszarach web developmentu, programowania czy DevOps, te zmiany mają konkretne przełożenie.

    Po pierwsze: większa przejrzystość i automatyzacja. Dynamiczne odczytywanie możliwości modeli pozwala na tworzenie systemów, które same dostosowują się do dostępnych funkcji. Można sobie wyobrazić aplikację, która sprawdza, czy wybrany model obsługuje wizję, i dopiero wtedy umożliwia przesyłanie obrazów. Albo system monitorujący, który wysyła alert, gdy prompt zbliża się do limitu max_tokens dla danego modelu.

    Po drugie: lepsze doświadczenie użytkownika w aplikacjach strumieniujących. Tryb thinking.display: "omitted" pozwala na szybsze dostarczenie użytkownikowi końcowemu finalnej, „czystej” odpowiedzi, szczególnie w chatbotach wsparcia czy interfejsach konwersacyjnych. W tle aplikacja nadal otrzymuje pełną strukturę, więc może logować proces myślenia do celów analitycznych lub używać go w kolejnych turach rozmowy, ale użytkownik nie musi na to czekać.

    Po trzecie: łatwiejsze zarządzanie kosztami i wydajnością. Wiedza o dokładnych limitach tokenów (max_input_tokens, max_tokens) pomaga precyzyjniej projektować prompty i przewidywać zużycie. Łącząc to z innymi nowościami, jak automatyczne buforowanie promptów (automatic caching), deweloperzy mogą budować wydajniejsze i tańsze w utrzymaniu aplikacje.

    Podsumowanie: ewolucja w kierunku platformy dla deweloperów

    Aktualizacje z marca 2026 roku, choć techniczne, pokazują wyraźny kierunek rozwoju platformy Claude. Anthropic nie tylko wypuszcza coraz potężniejsze modele, jak Opus 4.6 czy Sonnet 4.6, ale też konsekwentnie dopracowuje warstwę programistyczną – API, SDK i narzędzia deweloperskie.

    Dodanie pól capabilities i kontroli nad display w streamingu to kroki w stronę większej programowalności i kontroli. Platforma staje się nie tylko źródłem zaawansowanej sztucznej inteligencji, ale też przewidywalnym i dobrze udokumentowanym środowiskiem do budowania aplikacji. Dla deweloperów pracujących nad złożonymi agentami AI, systemami przetwarzania dokumentów czy narzędziami do modernizacji kodu, takie usprawnienia na poziomie API są bezcenne. Pozwalają skupić się na logice biznesowej, zamiast na ręcznym dostosowywaniu się do zmian w modelach.

  • OpenAI udostępnia GTP-5.4 nano w API. To najmniejszy i najtańszy model z nowej rodziny

    OpenAI udostępnia GTP-5.4 nano w API. To najmniejszy i najtańszy model z nowej rodziny

    Od 5 marca 2026 roku deweloperzy korzystający z OpenAI API mają do dyspozycji nową, kompaktową broń w swoim arsenale. Jest nią GPT-5.4-nano, najmniejsza i najbardziej ekonomiczna wersja najnowszej rodziny modeli językowych od OpenAI. To nie kolejna iteracja dostępna w popularnym interfejsie ChatGPT, lecz narzędzie dedykowane wyłącznie programistom integrującym AI w swoich aplikacjach i usługach.

    Model został zaprojektowany z myślą o szybkości i wydajności kosztowej w zadaniach wymagających przetwarzania dużych ilości danych. Jego premiera w API to wyraźny sygnał, że OpenAI skupia się na potrzebach rynku deweloperskiego, oferując specjalistyczne rozwiązania do konkretnych zastosowań.

    Dostępność i cennik: API w roli głównej

    GPT-5.4-nano jest dostępny wyłącznie przez OpenAI API. Oznacza to, że przeciętny użytkownik końcowy nie znajdzie go w interfejsie czatu, co podkreśla jego profesjonalny, deweloperski charakter. Dostęp do modelu mają wszyscy programiści z aktywnym kontem OpenAI.

    Kluczowym atutem tego modelu jest jego przewidywalny i atrakcyjny cennik. OpenAI ustaliło stawki na poziomie 0,20 USD za 1 milion tokenów wejściowych oraz 1,25 USD za 1 milion tokenów wyjściowych. Takie podejście do wyceny ułatwia budżetowanie projektów i skalowanie usług bez obaw o niekontrolowany wzrost kosztów. W kontekście zadań o wysokim wolumenie, gdzie liczy się każdy ułamek centa, te liczby robią dużą różnicę.

    Specyfikacja modelu: mały, ale z wizją

    Choć nano jest najmniejszym członkiem rodziny GPT-5.4, nie jest to wyłącznie model tekstowy. OpenAI wyposażyło go w możliwości wizyjne. Obsługa obrazów wiąże się z nieco wyższym kosztem przetwarzania, choć szczegółowy mnożnik dla tokenów wizyjnych nie został publicznie ujawniony. To ciekawe połączenie: lekki, szybki i tani model, który potrafi interpretować nie tylko tekst, ale i grafikę.

    W porównaniu ze swoim poprzednikiem, GPT-5-nano, nowa iteracja stanowi znaczący upgrade. OpenAI zapewnia o poprawie wydajności w wielu wymiarach, choć konkretne benchmarki dla wersji nano nie zostały jeszcze szeroko upublicznione. Sam fakt, że model otrzymał nową numerację (5.4 zamiast 5), sugeruje, że zmiany są istotne, a nie tylko kosmetyczne.

    Gdzie gpt-5.4-nano sprawdzi się najlepiej?

    OpenAI jasno wskazuje rekomendowane scenariusze użycia. GPT-5.4-nano jest zoptymalizowany pod kątem zadań, w których priorytetem są szybkość i niski koszt, często kosztem maksymalnej, „głębokiej” mocy obliczeniowej.

    • Klasyfikacja to jeden z głównych przypadków użycia. Automatyczne sortowanie treści, tagowanie, przypisywanie kategorii – tam, gdzie decyzje są względnie proste, a wolumen duży, nano może być idealnym wyborem.

    • Ekstrakcja danych to kolejny obszar. Wyciąganie strukturyzowanych informacji z nieuporządkowanych tekstów, na przykład parsowanie faktur, wiadomości czy dokumentów, to praca, którą nano może wykonywać wydajnie i bez zbędnego obciążania budżetu.

    • Ranking to naturalne zastosowanie dla mniejszego modelu. Sortowanie wyników wyszukiwania, list produktów czy rekomendacji w oparciu o proste kryteria nie zawsze wymaga potęgi największych modeli.

    Ciekawą sugestią jest też wykorzystanie GPT-5.4-nano jako kodujących subagentów, które zajmują się prostszymi, pomocniczymi zadaniami w większym procesie (pipeline). Można sobie wyobrazić system, w którym główny, potężny agent planuje architekturę funkcji, a kilku „robotników” nano w tle pisze standardowy boilerplate code czy testy jednostkowe.

    Kontekst wydajnościowy: jak nano wypada na tle rodziny?

    Aby zrozumieć miejsce GPT-5.4-nano w ekosystemie, warto spojrzeć na osiągi jego większych braci. Pełnowymiarowy model GPT-5.4 osiąga imponujący wynik 67,3% sukcesów w benchmarku WebArena-Verified, który testuje praktyczne umiejętności korzystania z przeglądarki internetowej.

    Na jeszcze wyższym poziomie, 92,8%, plasuje się w zadaniach Online-Mind2Web, opartych na analizie zrzutów ekranu. To pokazuje, że cała rodzina GPT-5.4 jest niezwykle kompetentna w zadaniach wymagających rozumienia i interakcji ze złożonym, multimodalnym środowiskiem.

    GPT-5.4-nano, jako najmniejszy członek rodziny, nie będzie dorównywał tym wynikom w najbardziej wymagających testach. Jego siła leży gdzie indziej: w równowadze między przyzwoitą, bazową kompetencją a błyskawicznym czasem odpowiedzi i niskim kosztem. To model, który ma „wystarczająco dużo rozumu”, by poradzić sobie z wieloma rutynowymi zadaniami produkcyjnymi, nie zużywając przy tym środków na zbędną moc obliczeniową.

    Jak zintegrować GPT-5.4-nano? Prosta ścieżka dla deweloperów

    Dla programistów pracujących w Pythonie integracja jest błyskawiczna. Wystarczy upewnić się, że korzystają z najnowszej wersji oficjalnego SDK OpenAI. Aktualizacja za pomocą polecenia pip install openai --upgrade otwiera dostęp do nowego modelu poprzez standardowe wywołania API.

    To podejście jest spójne z filozofią OpenAI – minimalizacja barier wejścia dla programistów. Nie ma skomplikowanych procedur migracji, nowych bibliotek czy radykalnych zmian w kodzie. Nowa moc jest dostępna tam, gdzie deweloperzy już pracują.

    Podsumowanie

    Premiera GPT-5.4-nano w API to ważny krok w demokratyzacji dostępu do zaawansowanej sztucznej inteligencji dla biznesu. OpenAI, dostrzegając potrzeby rynku, oferuje nie tylko najpotężniejsze i najdroższe modele, ale też narzędzia skrojone pod realia produkcyjne: wysoką przepustowość, ograniczone budżety i potrzebę krótkiego czasu odpowiedzi.

    Ten model to propozycja dla tych, którzy chcą wdrożyć AI na szeroką skalę, automatyzując tysiące prostszych decyzji dziennie bez generowania astronomicznych rachunków. Jest dowodem na to, że ewolucja modeli językowych to nie tylko wyścig na liczbę parametrów, ale też głębsze zrozumienie różnych warstw potrzeb deweloperskich. GPT-5.4-nano może nie napisze przełomowych poematów, ale pomoże usprawnić działanie tysięcy aplikacji, czyniąc je inteligentniejszymi, szybszymi i tańszymi w utrzymaniu.

  • Claude Code 2.1.69 Przynosi Kluczowe Ulepszenia: Nowa Integracja API, Więcej Języków I Naprawy Bezpieczeństwa

    Claude Code 2.1.69 Przynosi Kluczowe Ulepszenia: Nowa Integracja API, Więcej Języków I Naprawy Bezpieczeństwa

    Kolejna aktualizacja narzędzia do programowania sterowanego AI właśnie trafiła do rąk deweloperów. Najnowsze wydanie Claude Code to pakiet zmian, które wprowadzają zarówno nowe możliwości, jak i solidną porcję poprawek stabilności oraz bezpieczeństwa. Zespół Anthropic stale udoskonala CLI, a ta aktualizacja skupia się na usprawnieniu pracy z kodem i zabezpieczeniu całego środowiska.

    Rozwój Integracji Z Zewnętrznymi API

    Anthropic stale rozwija swoje główne API (Messages API) i SDK (np. dla Pythona), które deweloperzy mogą wykorzystywać do integracji modeli Claude z własnymi aplikacjami. Chociaż bezpośrednia komenda /claude-api nie istnieje w CLI Claude Code, dostępność tych narzędzi znacząco skraca drogę od prototypu do działającego rozwiązania.

    W praktyce oznacza to, że programiści mogą budować, testować i iterować aplikacje oparte na AI, korzystając z dedykowanych bibliotek. To krok w stronę uczynienia ekosystemu Claude kompleksowym warsztatem dla nowoczesnego developera, który oprócz pisania kodu zajmuje się też integracją zewnętrznych usług AI.

    Ulepszenia Bezpieczeństwa I Stabilności Systemu

    Ulepszenia Bezpieczeństwa I Stabilności Systemu

    Pod maską aktualizacji kryje się solidna porcja pracy nad bezpieczeństwem i niezawodnością. Zespół stale monitoruje i naprawia potencjalne luki, w tym te związane z API, aby zabezpieczyć system przed potencjalnymi nadużyciami.

    Wprowadzane są także poprawki stabilizujące długo działające sesje i optymalizujące zużycie pamięci. To prewencyjne działania mające na celu zapewnienie płynnej i przewidywalnej pracy z narzędziem, co jest kluczowe dla developerów podczas codziennych zadań.

    Lepsza Kontrola Nad Sesjami I Interfejsem Użytkownika

    Aktualizacje przynoszą też szereg mniejszych, ale bardzo wyczekiwanych ulepszeń UX. Praca nad interfejsem użytkownika jest ciągła, a zespół stara się odpowiadać na potrzeby społeczności, aby narzędzie było jak najbardziej intuicyjne i efektywne w użyciu.

    W terminalu poprawiana jest widoczność kluczowych informacji, co daje lepszy wgląd w to, co aktualnie wykonuje AI. Drobne zmiany w interakcji, choć niepozorne, w pracy z wieloma równoległymi projektami potrafią zaoszczędzić sporo czasu i frustracji.

    Kontekst Ciągłych Aktualizacji

    Najnowsze wydanie nie powstało w próżni. Jest ono częścią ciągłego procesu udoskonaleń, w ramach którego wprowadzane są nowe funkcje, poprawki błędów i ulepszenia. Zespół Anthropic regularnie publikuje aktualizacje dla swojego CLI, skupiając się na praktycznych potrzebach deweloperów.

    Warto zwrócić uwagę na optymalizację balansu między prędkością odpowiedzi a ich jakością w codziennych zadaniach, takich jak generowanie kodu czy automatyzacja. To świadome posunięcie mające na celu poprawę doświadczeń użytkowników.

    Podsumowanie

    Najnowsza aktualizacja Claude Code skupia się na praktycznych potrzebach deweloperów. Nie ma tu rewolucyjnych, krzykliwych funkcji, za to są przemyślane ulepszenia, które sumiennie adresują bóle użytkowników. Rozwój zewnętrznych API i SDK otwiera drzwi do łatwiejszej integracji, a liczne poprawki bezpieczeństwa i stabilności budują zaufanie do narzędzia.

    Kierunek rozwoju jest jasny: uczynienie ekosystemu Claude nie tylko sprawnym asystentem do pisania kodu, ale też solidną, niezawodną platformą do budowania i zarządzania całymi aplikacjami opartymi na AI. Ta ewolucja jest wyraźnym krokiem w tę stronę, cementując pozycję narzędzia jako poważnego gracza w ekosystemie nowoczesnego programowania.

  • Automatyczne Buforowanie, Nowy Sonnet i Wycofanie Modeli: Duże Aktualizacje Platformy Claude

    Automatyczne Buforowanie, Nowy Sonnet i Wycofanie Modeli: Duże Aktualizacje Platformy Claude

    Platforma deweloperska Claude przeszła znaczące zmiany w połowie lutego 2026 roku. Anthropic wprowadził długo oczekiwaną funkcję automatycznego buforowania, zaprezentował nowy, wysoko wydajny model koderski Sonnet 4.6 oraz oficjalnie wycofał dwa starsze modele. Te aktualizacje znacząco wpływają na sposób, w jaki deweloperzy budują i optymalizują swoje aplikacje oparte na AI.

    Rewolucja w Zarządzaniu Kontekstem: Automatyczne Buforowanie

    Jedną z najbardziej praktycznych nowości jest automatyczne buforowanie dla Messages API. Dotąd deweloperzy musieli ręcznie zarządzać punktami przerwania cache w długich konwersacjach, co było źródłem złożoności i potencjalnych błędów. Teraz wystarczy dodać pojedyncze pole cache_control do ciała żądania, a system sam zadba o resztę.

    Mechanizm automatycznie buforuje ostatni buforowalny blok i przesuwa punkt buforowania do przodu, w miarę jak konwersacja rośnie. To ogromne ułatwienie. Funkcja współpracuje także z istniejącą, szczegółową kontrolą buforowania na poziomie bloków, dając pełną elastyczność. Deweloperzy mogą teraz skupić się na logice aplikacji, zamiast na ręcznej optymalizacji pamięci podręcznej. Rozwiązanie jest już dostępne w Claude API oraz w wersji preview na Azure AI Foundry.

    Claude Sonnet 4.6: Szybszy, Lepszy i Bardziej Skuteczny

    17 lutego światło dzienne ujrzał Claude Sonnet 4.6. Firma opisuje go jako najnowszy, wysoko wydajny model koderski, osiągający wyniki porównywalne do Claude Opus. Kluczowe ulepszenia skupiają się na efektywności agentów.

    Sonnet 4.6 oferuje lepszą wydajność w zadaniach agentowych, takich jak adaptacyjne myślenie (adaptive thinking) i ulepszone instrukcje, przy mniejszym zużyciu tokenów. To istotne dla aplikacji, które polegają na autonomicznym wyszukiwaniu i analizie informacji z sieci. Model wspiera także jasne myślenie (clear thinking) oraz, co bardzo ciekawe, kontekst o rozmiarze 1 miliona tokenów jest dostępny w wersji beta modelu Claude Opus 4.6. Taki ogromny kontekst otwiera drzwi do pracy z niezwykle długimi dokumentami lub bardzo złożonymi, wieloetapowymi dialogami.

    Koniec Ery: Wycofanie Starszych Modeli

    Równolegle z wprowadzaniem nowości, Anthropic konsekwentnie odnawia swoją ofertę modeli. Definitywnie wycofano starsze modele, takie jak Claude Sonnet 4.5 (claude-sonnet-4-5-20241022) oraz Claude Haiku (claude-3-haiku-20240307). Wszystkie żądania do tych modeli będą teraz zwracać błąd.

    Firma rekomenduje migrację odpowiednio do Claude Sonnet 4.6 i Claude Haiku 4.5. To nie jest zaskoczenie – deprecjacja tych modeli została ogłoszona wcześniej. Anthropic daje klientom wyraźny sygnał, by trzymali się aktualnego frontu technologicznego, który oferuje lepszą wydajność, nowe funkcje i często niższe koszty.

    Warto wspomnieć, że to część szerszej polityki. Wcześniej wycofano także Claude Opus 3, który był pierwszym modelem przeszedłym pełną, nową procedurę emerytalną Anthropic. Firma podkreśla jednak, że dla badaczy w wartościowych przypadkach użycia dostęp do tych modeli może być nadal udzielany poprzez External Researcher Access Program.

    Szerszy Kontekst i Trendy

    Te lutowe aktualizacje wpisują się w wyraźny trend na platformie Claude. W ciągu ostatnich miesięcy Anthropic mocno stawiał na rozwój zaawansowanych narzędzi (tools) i infrastruktury dla agentów. Narzędzia takie jak computer use wyszły z fazy beta i są ogólnie dostępne. Pojawiły się też nowości jak programatyczne wywoływanie narzędzi czy dynamiczne filtrowanie wyników wyszukiwania.

    Wszystko to służy jednemu: umożliwieniu budowy bardziej autonomicznych, niezawodnych i wydajnych aplikacji AI. Automatyczne buforowanie rozwiązuje problem zarządzania stanem, a nowy Sonnet 4.6 dostarcza lepszy "silnik" do ich napędzania. Jednocześnie wycofanie starszych modeli zmusza ekosystem do modernizacji, co w dłuższej perspektywie podnosi ogólną jakość i bezpieczeństwo rozwiązań.

    Co To Wszystko Znaczy dla Deweloperów?

    Przede wszystkim – czas na sprawdzenie kodu i dokumentacji. Jeśli twoja aplikacja korzystała z wycofanych modeli, takich jak Sonnet 4.5 czy starszy Haiku, przestała działać. Migracja do rekomendowanych następców jest pilna. To też doskonały moment, by przetestować automatyczne buforowanie. Może znacząco obniżyć koszty i opóźnienia w aplikacjach opartych na długich, konwersacyjnych interfejsach.

    Nowy Sonnet 4.6 wydaje się atrakcyjną opcją dla szerokiego spektrum zadań produkcyjnych, gdzie kluczowa jest wysoka wydajność w zadaniach koderskich i agentowych. Jego wsparcie dla lepszych parametrów w zadaniach agentowych czyni go poważnym kandydatem do zaawansowanych aplikacji automatyzacyjnych.

    Podsumowanie

    Lutowe aktualizacje platformy deweloperskiej Claude są przykładem dojrzałego zarządzania cyklem życia produktu w świecie AI. Z jednej strony Anthropic inwestuje w głębokie ulepszenia infrastrukturalne, jak automatyczne buforowanie, które upraszczają życie programistom. Z drugiej – nieustannie przesuwa granice możliwości modeli, wprowadzając Sonneta 4.6. Trzeci, nieunikniony filar to systematyczne oczyszczanie portfolio z przestarzałych modeli, które motywuje całą społeczność do bycia na bieżąco. To połączenie innowacji, praktyczności i zdyscyplinowanego zarządzania pokazuje, jak dynamicznie, ale też metodycznie, rozwija się obecnie rynek zaawansowanych modeli językowych.

  • Gemini 3.1 Pro: Nowy król rozumowania od Google jest już dostępny

    Gemini 3.1 Pro: Nowy król rozumowania od Google jest już dostępny

    W lutym 2026 roku Google udostępniło światu model Gemini 3.1 Pro. Nie jest to jednak kolejna drobna aktualizacja, a raczej zasadniczy krok naprzód, który ma na celu zrewolucjonizowanie nasze podejście do złożonych problemów. Ten model już teraz określany jest przez twórców jako „najbardziej zaawansowany model rozumowania Google” i zapowiada nową erę dla agentów AI, programistów oraz wszystkich, którzy pracują z długimi dokumentami i różnymi formatami danych.

    Co właściwie dostała społeczność?

    Gemini 3.1 Pro został udostępniony deweloperom w trybie preview dokładnie 19 lutego 2026 roku. Jeśli jesteś programistą, możesz od ręki zacząć z nim pracę przez Gemini API w Google AI Studio czy Gemini CLI. Firmy mają do niego dostęp w Vertex AI oraz przez subskrypcję Gemini Enterprise. Zwykli użytkownicy również mogą go przetestować, ale tylko w ramach płatnych planów Pro lub Ultra w aplikacji Gemini oraz NotebookLM.

    Kluczową informacją jest to, że to nie jest zupełnie nowy model stworzony od zera. Stanowi on głęboką modernizację i ulepszenie znanego już Gemini 3 Pro. Wszystkie najważniejsze zmiany skupiają się na jednym celu: uczynić AI lepszym partnerem do rozwiązywania skomplikowanych zadań, a nie tylko odpowiadania na proste pytania.

    Siła tkwi w rozumowaniu i kontekście

    Głównym atutem nowego modelu jest jego dramatycznie poprawiona zdolność do złożonego rozumowania. Dowodem na to są wyniki benchmarków. Na przykład w teście ARC-AGI-2, który bada zdolności zbliżone do sztucznej inteligencji ogólnej (AGI), Gemini 3.1 Pro osiągnął wynik 77.1%. To ponad dwukrotnie więcej niż jego poprzednik, Gemini 3 Pro. W praktyce przekłada się to na lepsze, bardziej logiczne i wieloetapowe rozumowanie problemów.

    Drugą rewolucyjną zmianą jest kontekst. Model może teraz przetwarzać jednorazowo aż 1 milion tokenów. To ogromna ilość danych, która otwiera zupełnie nowe możliwości. Nie chodzi tu tylko o długie teksty, choć oczywiście analiza całych książek, rozbudowanych raportów czy kodeksów prawnych staje się prostsza. Ten kontekst jest multimodalny.

    Oznacza to, że w ramach tego okna możesz wrzucić modelowi mieszankę plików: długi dokument tekstowy, kilka zdjęć, fragment audio, a nawet klip wideo lub repozytorium kodu. Gemini 3.1 Pro spróbuje zrozumieć i powiązać informacje ze wszystkich tych źródeł jednocześnie. To marzenie dla badaczy, analityków i każdego, kto pracuje z różnorodnymi danymi.

    Nowe narzędzia dla lepszej kontroli i efektywności

    Google wprowadziło także kilka praktycznych ulepszeń, które mają pomóc w codziennej pracy. Model zachowuje znane tryby działania, oferując różne poziomy głębokości przetwarzania, aby zbalansować szybkość odpowiedzi z jakością rozumowania. To ważne dla aplikacji, które potrzebują mądrości, ale nie mogą czekać zbyt długo na odpowiedź.

    Model został zbudowany na solidnych podstawach, oferując efektywną pracę z długim kontekstem. Dla firm i deweloperów, którzy korzystają z API na dużą skalę, to bardzo konkretna korzyść.

    W ręce programistów: nowe możliwości

    Dla programistów, Gemini 3.1 Pro otwiera nowe możliwości dzięki swoim zaawansowanym zdolnościom rozumowania i pracy z długim kontekstem. Może służyć jako potężne narzędzie do analizy całych repozytoriów kodu, zrozumienia złożonych baz kodu i wsparcia w zaawansowanym kodowaniu. Jego zdolność do przetwarzania multimodalnego oznacza, że może analizować nie tylko kod źródłowy, ale także dokumentację, diagramy i inne powiązane zasoby w jednym oknie kontekstu.

    Społeczność już reaguje z entuzjazmem – pojawiają się na przykład prośby o dodanie obsługi nowego modela w popularnych narzędziach, takich jak opencode.

    Dla kogo jest ten model i co z bezpieczeństwem?

    Gemini 3.1 Pro jest stworzony z myślą o konkretnych zastosowaniach. Jego głównym celem są zadania agentyczne, czyli takie, gdzie AI nie tylko odpowiada, ale wykonuje ciąg czynności (np. analizuje dane finansowe w arkuszu kalkulacyjnym, planuje kroki, wykonuje je). To także pierwszy wybór dla zaawansowanego kodowania oraz wszelkich prac wymagających długiego kontekstu i multimodów.

    Google podkreśla, że model został zbudowany na tej samej architekturze co Gemini 3 Pro, a co za tym idzie, dziedziczy po nim podejście do zarządzania ryzykiem i ograniczania szkód. Wszelkie systemy bezpieczeństwa, ograniczenia i filtry z poprzednika zostały przeniesione i dostosowane do zwiększonych możliwości nowej wersji.

    Podsumowanie i droga przed nami

    Premiera Gemini 3.1 Pro nie jest przypadkowa. To model, który ma stanowić „mądrzejszą, bardziej wszechstronną podstawę” dla przyszłych aplikacji AI. Jego dostępność w trybie preview służy właśnie temu – aby deweloperzy i firmy mogli przetestować nowe możliwości, a Google mogło zebrać informacje zwrotne przed pełną, ogólną dostępnością.

    Wszystko wskazuje na to, że właśnie obserwujemy kolejny, znaczący skok w rozwoju asystentów AI. Nie chodzi już tylko o to, by lepiej odpowiadały na pytania, ale by stawały się samodzielnymi, rozumiejącymi kontekst współpracownikami, zdolnymi do obsługi skomplikowanych procesów w świecie rzeczywistym. Gemini 3.1 Pro wydaje się być właśnie takim krokiem w tę stronę. Teraz czas na społeczność, aby odkryła, co naprawdę potrafi.

  • Perfect Corp. zaprasza programistów do tworzenia przyszłości rozrywki i mody za pomocą AI

    Perfect Corp. zaprasza programistów do tworzenia przyszłości rozrywki i mody za pomocą AI

    Perfect Corp., notowana na giełdzie w Nowym Jorku firma technologiczna, postanowiła postawić na społeczność twórców oprogramowania. 13 lutego 2026 roku ogłosiła, że udostępnia swój zestaw narzędzi API uczestnikom globalnego hackathonu DeveloperWeek 2026.

    Wydarzenie odbywa się online od 2 lutego 2026 roku, a część stacjonarna odbędzie się w San Jose Convention Center w dniach 18-20 lutego. To właśnie tam programiści będą mogli zaprezentować swoje pomysły.

    Nagrody i warunki

    Dla zwycięzców firma przewidziała pulę nagród o wartości 2500 dolarów. Za zajęcie pierwszego miejsca można otrzymać 1500 dolarów, a za drugie – 1000 dolarów. To konkretna zachęta, ale nie jedyna.

    Uczestnicy muszą zbudować działający prototyp aplikacji internetowej lub mobilnej, który wykorzysta przynajmniej jedno z API Perfect Corp. Do zgłoszenia trzeba dołączyć stronę projektu, zrzuty ekranu oraz krótki film demonstracyjny trwający od jednej do trzech minut.

    Co ciekawe, firma oferuje też pomoc w samym procesie tworzenia. Uczestnicy hackathonu mogą otrzymać 1000 darmowych jednostek API o wartości 179 dolarów, zgłaszając się poprzez specjalny link. To ma pozwolić na szybkie prototypowanie pomysłów bez obaw o koszty.

    Narzędzia do dyspozycji twórców

    Jakie konkretnie technologie stoją do dyspozycji programistów? Perfect Corp. słynie z rozwiązań dla branży beauty i fashion, więc API odzwierciedlają tę specjalizację.

    Zespół współpracowników analizuje projekt na dużym ekranie, prezentującym cyfrowe modele postaci w futurystycznych strojach i wizualizacje danych.

    Dostępne są między innymi:

    • AI Skin Analysis – analiza skóry wspomagana sztuczną inteligencją.
    • Virtual Try-On – wirtualne przymierzanie kosmetyków oraz dodatków modowych, takich jak biżuteria czy okulary.
    • Personalized Product Recommendation Engines – silniki rekomendacji produktów dostosowane do użytkownika.
    • Generative AI Text-to-Image Creation – generowanie obrazów na podstawie tekstowego opisu.
    • Fashion Visualization Technologies – technologie wizualizacji mody.

    Zadaniem uczestników jest znalezienie kreatywnego, a może nawet nieoczekiwanego zastosowania dla tych narzędzi. Firma podkreśla, że udostępniane darmowe jednostki API mają ułatwić start-upom, sklepom czy nawet indywidualnym przedsiębiorcom integrację zaawansowanej technologii bez ogromnych inwestycji na starcie.

    Personalizacja napędzana AI nie jest już luksusem – to oczekiwanie – powiedziała Alice Chang, założycielka i CEO Perfect Corp. – Poprzez nasz zestaw API demokratyzujemy dostęp do zaawansowanych technologii AI i AR, umożliwiając programistom budowanie immersyjnych, inteligentnych doświadczeń konsumenckich, które rozwiązują realne potrzeby w obszarach beauty, fashion, retail i innych.

    Dlaczego to ważne?

    Ta inicjatywa to coś więcej niż jednorazowy konkurs. Perfect Corp., znane z pakietu aplikacji YouCam pobranego ponad 1,1 miliarda razy na całym świecie, konsekwentnie poszerza swój wpływ poza bezpośrednią współpracę z markami.

    Otwarcie API dla szerokiej społeczności developerów to strategiczny ruch. Pozwala firmie dotrzeć do pomysłów i talentów, które mogą wymyślić zupełnie nowe zastosowania ich technologii. To także sposób na promocję własnych rozwiązań wśród przyszłych twórców oprogramowania i przedsiębiorców.

    Hackathon DeveloperWeek to duże, ogólnokrajowe wydarzenie tego typu. Dla Perfect Corp. współpraca z nim stanowi deklarację zaangażowania w rozwój agentycznych asystentów AI, technologii generatywnych i skalowalnych rozwiązań API.

    Jak można się zgłosić? Wszystko odbywa się przez platformę DevPost. Należy być wcześniej zarejestrowanym zarówno na Eventbrite, jak i na stronie hackathonu na DevPost. Linki do rejestracji i szczegółowe informacje są dostępne w oficjalnym komunikacie firmy.

    Czy z tej współpracy powstaną przełomowe narzędzia dla konsumentów? Przekonamy się już pod koniec lutego, kiedy hackathon się zakończy.

    Źródła