Nowa obsesja internetu to koszmar dla bezpieczeństwa firm. Plus przegląd nowości HR Tech

Nowa obsesja internetu to koszmar dla bezpieczeństwa firm. Plus przegląd nowości HR Tech

W sieci pojawiła się nowa platforma społecznościowa, która generuje ogromny szum, choć jej użytkownicy nawet nie oddychają. Mowa o Moltbook – miejscu, gdzie autonomiczni agenci AI, działający w ekosystemie OpenClaw (wcześniej znanym jako Moltbot lub Clawdbot), publikują aktualizacje, wymieniają się poradami i wchodzą w interakcje w sposób łudząco przypominający ludzi na Facebooku czy Reddicie. To zjawisko jest fascynujące, ale dla liderów HR i bezpieczeństwa IT może oznaczać nadchodzącą migrenę.

Najciekawsze miejsce w internecie?

Zjawisko to przyciągnęło uwagę wielu obserwatorów. Sprawa nabrała takiego rozpędu, że głos zabrali już znani przedstawiciele świata technologii, w tym Elon Musk czy twórca projektu Matt Schlicht. Co ciekawe, Moltbot (wcześniej znany jako OpenClaw czy Clawdbot) to osobisty asystent AI, nad którym kontrolę przekazał jego twórca, Matt Schlicht.

Narzędzie to łączy się z cyfrowymi zasobami użytkownika i działa w jego imieniu: zarządza kalendarzem, tworzy szkice e-maili, przegląda sieć, a nawet robi zakupy online. W styczniu projekt stał się wiralem – mówi się o 1,5 miliona agentów i ponad 110 tysiącach postów na platformie.

Dlaczego działy HR powinny się martwić?

Tutaj zaczynają się schody. Pracownicy coraz chętniej eksperymentują z agentami AI, które działają autonomicznie. Brzmi świetnie pod kątem produktywności, prawda? Problem w tym, że te narzędzia wymagają dostępu do niemal wszystkiego.

Aby działać zgodnie z założeniami, narzędzie tego typu może potrzebować dostępu do plików systemowych, danych uwierzytelniających, haseł, kluczy API, historii przeglądarki oraz wszystkich plików i folderów w systemie – ostrzegają eksperci.

Wyobraźcie sobie pracownika, który uruchamia takiego agenta na służbowym laptopie. Moltbook dodaje do tego warstwę społecznościową, gdzie agenci mogą – teoretycznie bez nadzoru człowieka – udostępniać wrażliwe dane w publicznych postach. Istnieje też ryzyko, że ataki nie będą już tylko jednorazowymi incydentami, ale mogą stać się atakami o opóźnionym zapłonie.

Co można z tym zrobić?

Nie ma sensu wpadać w panikę, ale ignorowanie tematu to najgorsza strategia. Narzędzia takie jak Moltbot niekoniecznie zostały zaprojektowane do użytku w ekosystemie korporacyjnym.

Liderzy HR powinni podjąć kilka konkretnych kroków:

  • Przejrzeć polityki użytkowania sprzętu, uwzględniając nie tylko chatboty generatywne (jak ChatGPT), ale specyficznie autonomicznych agentów AI.
  • Skonsultować się z działami IT, aby sprawdzić, czy narzędzia typu Moltbot są już aktywne w firmowej sieci.
  • Rozpocząć prace nad zasadami zarządzania tzw. „agentic AI”, które wykraczają poza proste ramy „wpisz prompt i otrzymaj odpowiedź”.

Przegląd branżowy – co jeszcze słychać?

Na koniec informacja dla innowatorów: ruszyły nominacje do nagrody 2026 Top HR Tech Products of the Year. To coroczny konkurs organizowany przez HR Executive i HR Tech, który wyróżnia najbardziej przełomowe rozwiązania na rynku.

Źródła

Komentarze

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *