Ollama, popularne narzędzie do uruchamiania modeli językowych lokalnie, w wersji 0.23 wprowadziło wsparcie dla trzeciego dostawcy wnioskowania w aplikacji Claude Desktop. Ta integracja umożliwia programistom zastąpienie chmurowego API Anthropic własnymi modelami AI, które działają całkowicie na lokalnym sprzęcie. To krok w kierunku prywatnej i niezależnej od opłat sztucznej inteligencji dla deweloperów.
Kluczowe informacje o integracji
- Bezpłatne lokalne działanie – dzięki integracji z Claude Desktop użytkownicy mogą korzystać z funkcji Claude Cowork i Claude Code bez żadnych kosztów API, uruchamiając wybrane modele bezpośrednio na swoim komputerze.
- Pełna prywatność offline – całe przetwarzanie odbywa się lokalnie, co oznacza, że żaden kod ani wrażliwe dane nie opuszczają maszyny użytkownika, co jest istotne dla projektów o wysokich wymaganiach bezpieczeństwa.
- Elastyczność modeli – programiści mogą teraz wykorzystywać szeroką gamę modeli open source dostępnych przez Ollama, w tym dedykowane do kodowania, takie jak
qwen3-coderczygpt-oss:20b.
Jak działa integracja z trzecim dostawcą?
Funkcja „third-party inference” w Claude Desktop to mechanizm, który pozwala na podpięcie zewnętrznego źródła modeli AI. Ollama 0.23 działa jako bramka, udostępniając lokalnie uruchomione modele poprzez protokół zgodny z API Anthropic.
Konfiguracja jest stosunkowo prosta. Wymaga włączenia trybu deweloperskiego w ustawieniach Claude Desktop oraz wskazania lokalnie działającej instancji Ollama jako bramki dla wnioskowania. Po uruchomieniu komendy ollama launch claude-desktop, aplikacja może automatycznie wykrywać dostępne modele z chmury Ollama Cloud lub te pobrane lokalnie.
Wsparcie obejmuje już takie funkcje jak współpraca z podagentami (subagents), którzy dziedziczą aktualnie używaną konfigurację modelu. Nie wszystkie funkcje są jednak na razie dostępne – brakuje na przykład integracji z wyszukiwaniem w sieci czy rozszerzeniami.
Rekomendowane modele dla pracy z kodem

Dla deweloperów chcących wykorzystać Claude Code z lokalnymi modelami, społeczność i dokumentacja wskazują kilka sprawdzonych opcji. Do pracy offline polecane są głównie gpt-oss:20b oraz qwen3-coder. Jeśli ktoś preferuje modele chmurowe, ale wciąż przez bramkę Ollama, ma do dyspozycji takie opcje jak kimi-k2.5:cloud, glm-5:cloud czy wydajny glm-4.7-flash.
Wydanie Ollama 0.23 przyniosło nowe modele, które mogą wzbogacić ten ekosystem, w tym NVIDIA Nemotron 3 Omni oraz kompaktowy Poolside Laguna XS.2. Aktualizacja renderera dla modeli Gemma 4 poprawia ich zdolności do „myślenia” i korzystania z narzędzi, co jest istotne dla zaawansowanych zadań programistycznych.
Znaczenie dla rozwoju oprogramowania

Ta integracja zmienia narzędzia dla deweloperów. Zamiast wybierać między wygodnym, ale płatnym i chmurowym Claude a w pełni lokalnymi, lecz często mniej zintegrowanymi narzędziami, programiści zyskują nową opcję. Możliwość korzystania z interfejsu i przepływu pracy Claude Desktop, ale z lokalnym działaniem dzięki Ollama, to atrakcyjna propozycja.
Dla małych zespołów, startupów lub osób pracujących nad zamkniętymi, wrażliwymi projektami, eliminacja kosztów API i gwarancja prywatności to mocne argumenty. Konfiguracja, według dostępnych przewodników, zajmuje około 10 minut, co nie jest wysoką barierą wejścia.
Podsumowanie
Wprowadzenie oficjalnego wsparcia dla Claude Desktop w Ollama 0.23 to więcej niż zwykła aktualizacja. To dowód na to, że ekosystem lokalnego AI się rozwija, oferując coraz lepszą integrację z profesjonalnymi narzędziami. Dla społeczności open source i deweloperów ceniących niezależność jest to ważny krok w stronę praktycznej alternatywy dla zamkniętych, komercyjnych rozwiązań chmurowych.


Dodaj komentarz