Trzy liczby ze 100 stron, jedna teza
Dane raportu Supesu, które MateMatic czyta inaczej niż dział kadr:
Standardowa lektura HR czyta to liniowo: prawnicy są obciążeni, AI ma to odciążyć, polityka wynagrodzeń ma utrzymać ludzi w organizacji. To prawda, ale nie cała prawda. Pod spodem trzy liczby układają się w inny obraz: 87 procent narzędzi plus 50 procent objawów wypalenia oznacza, że adopcja AI nie redukuje obciążenia psychicznego prawnika. Sama obecność narzędzia nie zmienia ekonomii zawodowej. To, co się zmienia, leży głębiej.
Decyzja jako jednostka pracy
Tradycyjna ekonomia kancelarii i działu in-house mierzyła pracę dwiema jednostkami: godziną (billable hour) i dokumentem (umowa, opinia, pismo procesowe). Wycena, zatrudnianie, premiowanie, awans - wszystko opierało się na tych dwóch metrykach. AI nie zabija ani godziny ani dokumentu - zabija ich miejsce w hierarchii wartości.
Bo gdy ChatGPT, Copilot albo Perplexity generuje szkic pisma w trzy minuty, godzina przestaje mieć właściwości, na których opierała wycenę. Gdy agent helpdeskowy odpowiada klientowi w czasie zerowym, dokument przestaje być rzadkim dobrem. To, co staje się rzadkie i drogie, to decyzja - moment, w którym prawnik bierze sygnały z systemu, materiałów sprawy, intuicji zawodowej i wytycznych deontologicznych, i wybiera kierunek działania, za który ponosi odpowiedzialność. Tej decyzji żaden agent AI nie może wziąć na siebie pod art. 6 prawa o adwokaturze i art. 6 ustawy o radcach prawnych.
AI nie przyspiesza pracy. Przesuwa granicę między tym, co jest wykonaniem, a tym, co jest odpowiedzialnością. Wykonanie schodzi do agenta. Odpowiedzialność zostaje na biurku partnera.
Trzy operacyjne konsekwencje tego przesunięcia, które raport Supesu sygnalizuje pośrednio:
- Mniej znaczenia ma czas pracy. 50 procent objawów wypalenia w branży, w której 87 procent prawników już używa AI, oznacza że narzędzie nie redukuje stresu - bo stres nie pochodził z czasu, tylko z rzadkości i wagi decyzji. AI generuje więcej kontekstu w jednostce czasu - więcej kontekstu wymaga więcej decyzji.
- Więcej znaczenia ma jakość i trafność decyzji. Klient nie płaci już za godzinę przy biurku. Płaci za to, że prawnik wybrał ścieżkę A zamiast B, i że ten wybór był uzasadniony. Wycena oparta na godzinie przesuwa się ku wycenie opartej na decyzji.
- Największą przewagę budują ci, którzy potrafią to zapisać w systemie. Decyzja, która pozostaje "w głowie partnera", nie skaluje się i nie przenosi się na zespół. Decyzja zapisana - z kontekstem, alternatywami, uzasadnieniem - daje skalowalność i realną kontrolę zarządczą.
Dlaczego to nie jest raport o HR
Lider zespołu prawniczego, który czyta Supesu jak materiał kadrowy, dostaje listę narzędzi do zarządzania ludźmi: stawki, benefity, programy wellbeing, polityki AI. To są realne narzędzia i mają wartość. Ale pomijają warstwę architektoniczną.
Ta sama praca może być wykonywana w dwóch organizacjach o tych samych wynagrodzeniach, tych samych benefitach, tej samej adopcji AI - i jedna z nich w skali roku zbuduje przewagę kapitałową, a druga utopi koszty w rotacji. Różnica nie leży w polityce HR. Leży w tym, czy organizacja świadomie projektuje sposób, w jaki powstają decyzje: kto je inicjuje, jakimi danymi się zasila, jak są weryfikowane przez drugie oko, jak są zapisywane do późniejszego cytowania, jak są audytowane.
Trzy warstwy architektury pracy, których nie ma w żadnym standardowym raporcie HR, ale które decydują o przyszłości każdej kancelarii i działu in-house:
Warstwa wejścia decyzji
Skąd prawnik bierze sygnały do decyzji - akta, baza orzecznictwa, output AI, intuicja zawodowa, konsultacja z partnerem. Czy to wejście jest świadomie zaprojektowane, czy improwizowane na każdą sprawę osobno.
Warstwa weryfikacji i drugiego oka
Czy decyzja przechodzi przez human-in-the-loop oversight, czy przez peer review, czy przez supervisorship partnera. Czy istnieją scenariusze, w których jedno oko wystarcza - i czy są one świadomie wybrane, czy wynikają z deficytu czasu.
Warstwa zapisu i audytowalności
Czy decyzja zostaje udokumentowana w sposób, który pozwala ją odtworzyć za 12 miesięcy w postępowaniu dyscyplinarnym, w sporze o starania zawodowe, w audycie klienta. Czy uzasadnienie jest dostępne dla zespołu, czy zamknięte w jednej głowie.
Dlaczego "systematyzacja wiedzy" to nie jest odpowiedź
Większość organizacji w odpowiedzi na presję AI próbuje systematyzować wiedzę. Buduje knowledge management system, baza wzorów, repozytorium klauzul. To jest dobre, ale niewystarczające - bo wiedza bez kontekstu decyzji bardzo szybko staje się martwa. Wzór klauzuli arbitrażowej z 2023 roku w 2026 może być nieaktualny w trzech miejscach, których kancelaria nie zauważy, bo zauważy wzór, nie decyzje wokół niego.
Skalowalność i realną kontrolę daje zapisany, powtarzalny sposób dochodzenia do decyzji. To inne ćwiczenie niż systematyzacja wiedzy. Tu nie chronimy co wiemy, tylko jak myślimy. Co bierzemy z bazy orzecznictwa, jak ważymy precedensy, kiedy konsultujemy ze specjalistą, jaki próg ryzyka przyjmujemy dla klienta indywidualnego vs korporacyjnego, jakie scenariusze automatycznie wymagają drugiego oka. To nie jest dokumentacja produktu. To jest dokumentacja procesu poznawczego zespołu.
Pytanie zarządu kancelarii nie brzmi "ile płacimy i kogo zatrudniamy". Brzmi: czy wiemy, jak powstaje nasza decyzja - i kto naprawdę nad nią panuje. Większość organizacji systematyzuje wiedzę. Powinny systematyzować sposób podejmowania decyzji.
Mostek do polskiej deontologii i RODO
Decyzja jako jednostka pracy nie jest tylko ekonomicznym przesunięciem. Jest deontologicznym wymogiem, który polski adwokat i radca już mają w kodeksie - tylko nie zawsze nazywają go w ten sposób. Art. 6 KEA i art. 6 KERP wymagają staranności zawodowej, niezależności, godności zawodu - a te wymogi są spełniane na poziomie decyzji, nie godziny. Adwokat, który pracował 12 godzin i podjął decyzję pod presją czasu bez peer review, narusza staranność. Adwokat, który spędził godzinę i podjął decyzję świadomie, z udokumentowanym uzasadnieniem, wypełnił obowiązek.
Ten sam mostek prowadzi do RODO i AI Act. Art. 28 i 32 RODO wymagają środków techniczno-organizacyjnych adekwatnych do ryzyka - jeśli kancelaria nie ma zapisanego sposobu, w jaki podejmuje decyzję o wprowadzeniu danych klienta do narzędzia AI, środki organizacyjne nie istnieją na papierze, mimo że istnieją w głowach. AI Act art. 26 (deployer obligations) wymaga dokumentacji użycia AI plus nadzoru ludzkiego plus raportowania incydentów - bez warstwy zapisu decyzji deployer obligations są fikcją regulacyjną. NIS2, której polska transpozycja weszła w życie 3.04.2026 (nowelizacja UKSC, deadline implementacji 3.04.2027), dla kancelarii obsługujących klientów z 18 sektorów objętych dyrektywą wymaga rejestru incydentów i ścieżki decyzyjnej w cyber security - znów ten sam wymóg architektoniczny.
Sygnały operacyjne dla zarządu kancelarii
Trzy pytania, które zarząd kancelarii lub lider działu in-house może postawić sobie po lekturze Supesu zamiast pytań HR-owych:
- Czy wiemy, jaką decyzję nasi prawnicy podejmują najczęściej tygodniowo - i jakim sygnałem zewnętrznym (akta, AI, baza, konsultacja partnera) ta decyzja się zaczyna?
- Czy nasze decyzje przechodzą drugie oko - i kiedy świadomie z drugiego oka rezygnujemy, dlaczego, na jaki próg ryzyka klienta?
- Czy potrafimy odtworzyć decyzję sprzed sześciu miesięcy - z kontekstem, alternatywami i uzasadnieniem - jeśli klient zażąda tego pod art. 15 RODO, jeśli sąd dyscyplinarny zapyta, jeśli następca w dziale in-house będzie analizował precedens?
Jeśli odpowiedź na trzy pytania brzmi "to siedzi w głowie partnera, nie mamy zapisu" - kancelaria działa w architekturze pracy z poprzedniej epoki. AI w niej tylko przyspiesza eskalację problemów, nie buduje przewagi.
Powiązane materiały MateMatic
- Pełna recenzja raportu Supesu: BW/051 - Supesu pyta polskich prawników o AI. 87 procent korzysta, ale ankieta nie pyta o to, co najważniejsze - 5 obserwacji MateMatic plus 3 luki ankiety plus mapping na art. 6 PoA, RODO art. 28/32, AI Act art. 26.
- Globalny benchmark adopcji organizacyjnej: BW/052 - AI Index Stanford HAI 2026 - 88 procent adopcji organizacyjnej globalnie, 362 incydenty AI 2025, AI sovereignty framework, Polska 28,5 procent adopcji GenAI plus 61 procent zaufania do rządu w regulacji AI.
- Operacjonalizacja bezpieczeństwa decyzji w architekturze AI: BW/053 - Sześć agencji rządowych Five Eyes pisze przewodnik bezpieczeństwa agentic AI - pięć kategorii ryzyk plus lifecycle czterech etapów plus mapping na NIS2 (UKSC w Polsce, wejście w życie 3.04.2026).
- Mostek do warstwy zarządczej kancelarii: BW/050 - Krause Moneyball for Lawyers - Profit Formula plus system A-F klientów jako framework decyzyjny obok warstwy AI.