Polska kancelaria, która doradza klientowi z sektora publicznego - ministerstwu, jednostce samorządu terytorialnego, podmiotowi pod nadzorem KPRM albo MC - prędzej czy później dostaje dokument tego rodzaju przesłany jako załącznik do prezentacji konsultanta. WEF mówi, że 50% funkcji rządu jest gotowych na agentic AI. Capgemini ma case studies. Co o tym myślicie? Pytanie nie brzmi "czy to dobry materiał" - pytanie brzmi "co z niego można uczciwie wziąć, a co należy odrzucić".
Recenzja MateMatic ma jeden cel: pokazać polskiej kancelarii, jak czytać taki dokument analitycznie, a nie wyznaniowo. WEF jako instytucja jest w polskim dyskursie politycznym kontrowersyjny - dla części klientów kancelarii cytowanie WEF bez rezerw jest sygnałem niewiarygodności. Capgemini ma jasną agendę sprzedażową - "pomożemy wam wdrożyć agentic AI" - co nie unieważnia danych, ale wymaga ich filtrowania. Bierzemy metodologię i empiryczne dane; nie endorsujemy ani wydawcy, ani sponsora, ani tezy "agentic state" jako pożądanego docelowego modelu państwa. Z tym filtrem dokument jest wartościowy.
O czym jest ten materiał
Raport ma cztery warstwy. Warstwa konceptualna - przesunięcie z "process digitization" do "outcome orchestration" (Sekcja 1) plus pojęcie "agentic state" jako modelu administracji publicznej. Warstwa metodologiczna - zdefiniowanie 70 core government functions w 9 kategoriach (Public services, Policy and governance, Regulation, Justice, Defence and security, Education, Health, Finance and tax, Infrastructure), oparte na klasyfikacji UN COFOG ale zorganizowane wokół workflows, nie wydatków. Warstwa analityczna - scoring każdej z 70 funkcji na dwóch wymiarach po trzy sub-kryteria każde, calculation readiness score (potential minus complexity), kategoryzacja w trzy readiness areas. Warstwa praktyczna - case studies wdrożeń (Berlin, Bavaria, UAE) plus regional roadmap.
Pięć kluczowych liczb i pojęć do zapamiętania:
Dwa wymiary scoringu są na trzy sub-kryteria każdy. Potential: (1) Potential for automation (czy funkcja inherentnie wymaga ludzkiego osądu), (2) Tangible benefits (oszczędność czasu, redukcja kosztów, jakość usługi), (3) Citizen impact (skala oddziaływania na obywateli). Complexity: (1) Technical implementation barriers, (2) Risk and ethical impact (ethical threat, error consequence i function criticality, privacy and data issues), (3) Organizational and capacity barriers. Threshold values czytania: >1,5 = high, 1,0-1,5 = medium, <1,0 = low.
Recenzja właściwa
Najmocniejsza warstwa - function-based assessment lens
Sekcja 2.1 wprowadza pojęcie, które jest dla polskiej kancelarii najwartościowszym pojedynczym konceptem w raporcie - "function-based assessment lens" zamiast "department-based". Autorzy zauważają poprawnie, że agentic AI nie respektuje granic ministerialnych: workflow "cybersecurity monitoring", "document life cycle management", "eligibility assessment", "fraud detection", "benefit calculation" przebiega pomiędzy departamentami, nie wewnątrz nich. Tradycyjna analiza per-departament nie łapie tej rzeczywistości.
Polska kancelaria czyta to jako krytykę myślenia silosowego, którą doradca może zaadresować klientowi z sektora publicznego (gdzie silos jest normą - Ministerstwo Cyfryzacji osobno, Ministerstwo Spraw Wewnętrznych osobno, GUS osobno). I jako koncept transposable na samą kancelarię: wasza kancelaria nie składa się z "działów"; wasza kancelaria składa się z funkcji - research orzecznictwa, contract review, draftowanie pism, due diligence, doradztwo strategiczne, compliance, billing, knowledge management. Każda z tych funkcji ma własny readiness score na agentic AI. To jest argumentacja, która przebija "wdrażamy AI w dziale doradztwa korporacyjnego" - bo agentic AI nie wdraża się w dziale, tylko w funkcji.
Druga mocna warstwa - capability-impact matrix dla 70 funkcji
Top 4 funkcje wysokoredinessowe (high readiness, score >1,5): cybersecurity monitoring, public information and guidance provision, systems performance monitoring, service appointment and queue management. Pięć z dziewięciu kategorii ma reprezentację w high-readiness area; "Public services" daje aż 3 z top 10. To jest empiryczny dowód, że agentic AI najlepiej startuje od funkcji obsługujących, nie decyzyjnych.
Polska kancelaria transponuje to wprost: wśród funkcji własnych kancelarii w high-readiness area znajdą się research orzecznictwa, FAQ klienta, monitoring zmian regulacyjnych, kalendarz terminów procesowych, billing (analogie do "public information and guidance provision" i "service appointment and queue management"). W medium-readiness: contract review wstępny, draft umowy z szablonu, scoring ryzyka kontraktowego. W low-readiness: doradztwo strategiczne, opinia zarządcza, reprezentacja procesowa, negocjacje krytyczne. To jest mapa, którą partner zarządzający może postawić na stole zarządu - i to działa, nawet jeśli WEF jako instytucja nie jest cytowany w argumentacji.
Trzecia warstwa - calculation methodology readiness = potential minus complexity
Sekcja A1 (Methodology) i Sekcja 2.3 (Topography) razem dają polskiej kancelarii powtarzalny szablon scoringu. Każdą funkcję ocenia się na sześciu sub-kryteriach (3 potential + 3 complexity), oblicza score net (potential minus complexity), kategoryzuje wedle thresholdów. To nie jest abstrakcja - to jest gotowe arkusz kalkulacyjny.
Adwokat doradzający klientowi z sektora publicznego (np. ministerstwu wybierającemu obszar pilotu) może wziąć metodologię z A1, zastąpić "Citizen impact" przez "Wpływ na petenta", "Privacy and data issues" rozszerzyć o RODO art. 9 (dane wrażliwe) i tajemnicę służbową, dodać siódme sub-kryterium "Zgodność z art. 26 AI Act dla deployerów publicznych". Dostaje narzędzie audytu pilotu agentic AI w polskiej administracji w jednym arkuszu - z metodologią pochodzącą z dokumentu WEF/Capgemini, ale dostosowaną do polskiego porządku prawnego.
Czwarta warstwa - augmentation not replacement
Raport wraca do tezy, którą polska kancelaria może spokojnie cytować - "agentic AI is best understood as a model of augmentation rather than replacement". Po stronie autorów jest to częściowo dyplomatia (nikt nie napisze raportu z napisem "zwolnimy ludzi"); po stronie polskiej kancelarii jest to linia obrony, którą można postawić w rozmowie z klientem zarządowym uważającym, że agentic AI to wymiana pracowników na boty. Cytowanie z dokumentu WEF/Capgemini jest tu wartościowe niezależnie od tego, jak ocenia się tych wydawców politycznie - bo teza o augmentation jest prawidłowa empirycznie i pasuje do wymogu art. 14 AI Act (human oversight).
Czego brakuje - z perspektywy polskiej kancelarii
Brak warstwy AI Act art. 26 (deployer obligations). Dokument jest globalny, traktuje EU jako jeden z regionów obok USA i Azji. Polska kancelaria doradzająca podmiotowi publicznemu musi dopisać warstwę: każdy podmiot publiczny wdrażający system AI wysokiego ryzyka jest deployerem w rozumieniu AI Act, ma obowiązki rejestracyjne, transparentnościowe, FRIA (Fundamental Rights Impact Assessment, art. 27), monitoring (art. 26 ust. 5), human oversight (art. 14). Bez tej warstwy framework jest cieplarniany - opisuje co da się wdrożyć, nie co wolno wdrożyć.
Brak warstwy KSH dla spółek komunalnych i Skarbu Państwa. Dokument adresuje "governments" zbiorczo. Polski sektor publiczny obejmuje tysiące spółek komunalnych, spółek Skarbu Państwa, agencji wykonawczych - z których każda ma odpowiedzialność zarządu z art. 293 KSH. Wdrożenie agentic AI bez analizy ryzyka i dokumentacji decyzji jest tu potencjalną ekspozycją członków zarządu.
Brak agendy autora. Dokument nie przyznaje, że Capgemini sprzedaje wdrożenia agentic AI dla rządów. Czytelnik nieświadomy konfliktu interesów może odebrać raport jako neutralny benchmark. Jest neutralny w danych; nie jest neutralny w doborze tezy końcowej "rząd musi wdrażać". Polska kancelaria czyta to z marginesem.
Brak warstwy polskiej. Singapur, Estonia, Berlin, Bawaria, ZEA - tak. Polska, Czechy, Słowacja, Litwa - nie. To znaczy, że "regional roadmap" wymaga polskiej iteracji: ile z 70 funkcji rządu polskie ministerstwa już realizują z wsparciem AI; ile ma pilot; ile nie ruszyło. Bez tej warstwy framework jest punktem startowym, nie diagnozą.
Komu polecam, komu odradzam
Adwokat doradzający klientowi z sektora publicznego (ministerstwo, JST, agencja wykonawcza, spółka skarbu państwa) - tak, ale czytany metodologicznie. Bierz Sekcje 2 (framework) i A1 (metodologia), zostaw Sekcje 1 (foreword), 3 (case studies Capgemini-friendly) i Conclusion (z agendą). Mapuj 70 funkcji na funkcje konkretnego klienta i dolicz polską warstwę regulacyjną - bez tego framework jest niegotowy.
Partner zarządzający kancelarii myślący o własnej transformacji - tak, jako koncept "function-based lens" applikowany do kancelarii. Nie cytuj dokumentu w komunikacji z klientem (klient może mieć anti-WEF reakcję); cytuj metodę myślenia: "rozłóżmy kancelarię na funkcje, a nie na działy".
Compliance officer kancelarii - tak, jako uzupełnienie BW/043 (OASIS CoSAI - jak technicznie wdrożyć agenta) i BW/039 (RAII - polityka). WEF/Capgemini odpowiada na pytanie "gdzie zacząć?", podczas gdy BW/043 odpowiada "jak to bezpiecznie zrobić".
Klient kancelarii bez poradnika prawnego - nie polecam. Dokument jest pisany językiem konsultanta, ma ukryte założenia (państwo musi się modernizować w kierunku "agentic state") i agendę sprzedażową. Bez warstwy filtru klient odbiera tezę normatywną zamiast empirycznej.
Krytyk WEF z pozycji politycznej - tak, ale czytany jako materiał krytyczny. Dane są weryfikowalne (40% projektów anulowanych do 2027 - Gartner; 70 funkcji w 9 kategoriach - opracowanie własne); tezy końcowe ("agentic state") zostają na koncie autorów. Można pisać polemikę z poziomu factualnego.
Powiązanie z innymi tomami Bazy Wiedzy
WEF/Capgemini wpisuje się w Temat 04 (Mapa ryzyk AI) jako warstwa decyzyjna - razem z BW/035 (Laban - LLMs corrupt documents) odpowiada na pytanie "co się dzieje, gdy delegujemy obszar wrażliwy" przez perspektywę sektora publicznego. Temat 03 (Compliance i governance regulacyjne) - komplementarne do BW/039 (RAII Policy Template), które odpowiada "jak napisać politykę"; WEF/Capgemini odpowiada "od jakich funkcji zacząć". Temat 02 (Audyt dostawców LegalTech) - methodology potential×complexity rezonuje z capability-impact matrix z BW/043 (OASIS CoSAI Sekcja 3.2) - ten sam wzorzec myślenia w innym kontekście.
Direct complement do BW/043 (OASIS CoSAI Agentic IAM) - WEF/Capgemini odpowiada "gdzie wdrożyć agentic AI w rządzie", BW/043 odpowiada "jak go technicznie zabezpieczyć". Razem: sektor publiczny dostaje framework prioritization (WEF) plus framework architecture (CoSAI).
Razem z BW/036 (Kuśmierek - Polska wobec AGI) tworzy parę: Kuśmierek pisze o polskich postulatach makro (LVT, UBI, infrastruktura), WEF/Capgemini o globalnej mikro-mapie funkcji rządu. Polska kancelaria doradzająca klientowi rządowemu czyta obie warstwy z filtrem trzech filarów (co bierzemy / czego nie endorsujemy / co dopisujemy z polskiej perspektywy).
Komplementarne do BW/012 (OWASP AIVSS Agentic AI) - OWASP daje threat model, WEF daje opportunity map. Sektor publiczny potrzebuje obu naraz: gdzie zacząć i czego się bać.
Dla MateMatic to warstwa decyzyjna stack'u governance dla podmiotów publicznych. BW/039 polityka, BW/040 vendor assessment, BW/041 forecasting, BW/042 benchmark globalny, BW/043 architektura techniczna - i BW/044 mapa funkcji do priorytetyzacji. Z eksplicytnym dystansem do agendy wydawcy.
WEF/Capgemini Readiness Framework dostarcza polskiej kancelarii doradzającej klientom z sektora publicznego pierwszy systematyczny benchmark 70 funkcji rządu z metodologią scoringu potential-vs-complexity i podziałem na trzy readiness areas. Wartość operacyjna jest dwojaka. Po pierwsze - adwokat doradzający ministerstwu, JST albo spółce Skarbu Państwa zyskuje gotowy szablon priorytetyzacji wdrożenia agentic AI, który po dolaniu polskiej warstwy regulacyjnej (art. 26 AI Act, art. 27 FRIA, RODO art. 9, art. 293 KSH dla zarządów spółek komunalnych) staje się narzędziem audytu pilotu. Po drugie - "function-based assessment lens" jest konceptem transposable na samą kancelarię - rozkładamy kancelarię na funkcje, nie na działy, i dla każdej funkcji liczymy readiness score. Cena czytania: dystans od agendy WEF i Capgemini, świadome odrzucenie tezy "agentic state" jako pożądanego docelowego modelu państwa, świadomość że Capgemini sprzedaje wdrożenia. Z tym filtrem dokument jest punktem startowym strategii AI w polskim sektorze publicznym, nie końcową odpowiedzią. Razem z BW/043 (architektura techniczna OASIS CoSAI), BW/039 (struktura polityki RAII), BW/040 (audyt dostawców King), BW/041 (monitoring trajektorii RAND) i BW/042 (benchmark globalny AICDI) MateMatic ma pełen sześciowarstwowy stack governance AI - z warstwą decyzyjną dedykowaną sektorowi publicznemu. Licencja All Rights Reserved nie pozwala na hosting PDF; oryginał na weforum.org, recenzja MateMatic w pełni cytowalna.