Tag: Edge AI

  • Google Gemma 4 oficjalnie: cztery nowe modele, rekordowa wydajność i wolna licencja

    Google Gemma 4 oficjalnie: cztery nowe modele, rekordowa wydajność i wolna licencja

    Google właśnie zaktualizował swoją rodzinę lekkich modeli językowych, wypuszczając Gemmę 4. To nie pojedynczy model, a cała gama czterech architektur dopasowanych do różnych zastosowań – od smartfonów po serwery deweloperskie. Najważniejsze zmiany? Ogromne okna kontekstowe, multimodalność i, po raz pierwszy w historii Gemmy 4, w pełni otwarta licencja Apache 2.0.

    Szczegóły techniczne i architektura

    Rodzina Gemma 4 to cztery odrębne modele, każdy o unikalnym przeznaczeniu. Dwa z nich, E2B (efektywnie 2,3 mld parametrów) i E4B (efektywnie 4,5 mld z embeddings), są zoptymalizowane pod kątem działania na urządzeniach brzegowych (edge). Oferują okno kontekstowe do 128 tysięcy tokenów i obsługują tekst, obrazy oraz audio – to ostatnie natywnie dzięki dedykowanemu enkoderowi. Oznacza to, że mogą działać offline, nawet na Raspberry Pi 5 czy smartfonie, zużywając przy 4-bitowej kwantyzacji mniej niż 1,5 GB pamięci RAM.

    Do bardziej wymagających zadań Google przygotował dwa większe modele. 26B A4B to architektura typu Mixture-of-Experts (MoE), znakomicie sprawdzająca się w zadaniach wymagających rozbudowanego rozumowania i workflowów agentowych. Najpotężniejszym modelem jest w pełni gęsty (dense) 31B. Oba dysponują imponującym oknem kontekstu wynoszącym 256K i przetwarzają tekst, obrazy oraz wideo. Wszystkie modele płynnie operują w ponad 140 językach i obsługują natywne system prompty oraz function calling.

    Wydajność, która zadziwia w benchmarkach

    Tutaj Gemma 4 robi prawdziwe wrażenie. W publicznym rankingu Arena AI Leaderboard, który ocenia jakość odpowiedzi w konwersacji, model 31B zajął 3. miejsce, a 26B – 6. miejsce wśród wszystkich otwartych modeli na świecie (stan na 1 kwietnia 2026). Co najbardziej znaczące, model 31B potrafi prześcignąć w tych testach modele aż 20 razy większe od siebie. To potwierdzony wynik benchmarku, który pokazuje ogromną efektywność nowej architektury.

    Wydajność na urządzeniach brzegowych również jest imponująca. E4B na Raspberry Pi 5, korzystając wyłącznie z CPU, osiąga niską latencję podczas dekodowania. Na dedykowanych akceleratorach NPU, we współpracy z partnerami takimi jak Qualcomm, prędkość generowania znacząco wzrasta. Dzięki technologii LiteRT-LM przetworzenie 4000 tokenów w złożonym, dwuetapowym zadaniu może zająć mniej niż 3 sekundy.

    Przełomowe licencjonowanie Apache 2.0

    Przełomowe licencjonowanie Apache 2.0

    Być może najważniejszą wiadomością dla społeczności deweloperskiej i firm jest zmiana licencji. Gemma 4 to pierwsza iteracja tej rodziny wydana na w pełni otwartej i permisywnej licencji Apache 2.0. W praktyce oznacza to brak jakichkolwiek restrykcji komercyjnych. Można ją swobodnie integrować, modyfikować, wdrażać w produktach i oferować jako usługę, bez konieczności udostępniania kodu źródłowego czy dzielenia się wprowadzonymi zmianami.

    To otwiera zupełnie nowe możliwości. Deweloperzy mogą teraz bez obaw wbudowywać zaawansowane AI lokalnie w narzędzia do web developmentu, systemy DevOps czy aplikacje typu "vibe coding". Modele brzegowe idealnie nadają się do integracji z przeglądarkami przez WebGPU, a większe modele można hostować w chmurze na pojedynczych kartach graficznych klasy konsumenckiej. Google podkreśla, że to "najbardziej wydajna rodzina otwartych modeli", która ma przyspieszyć innowacje w obszarze rozwiązań agentowych i IoT.

    Podsumowanie

    Premiera Gemmy 4 to strategiczny ruch Google, który stawia na efektywność i dostępność. Zamiast brać udział w wyścigu na liczbę parametrów, firma oferuje starannie zaprojektowaną rodzinę modeli, z których każdy ma jasne zastosowanie. Połączenie najwyższej klasy wydajności w benchmarkach, multimodalności i – przede wszystkim – wolnej licencji czyni z Gemmy 4 niezwykle atrakcyjną platformę do budowy przyszłych aplikacji AI. Dostępna od ręki dla deweloperów, może stać się fundamentem nowej fali innowacji, tym razem rozgrywającej się poza centrami danych, bliżej użytkownika.