Workbook zaczyna się zdaniem, które polski adwokat doradzający kancelarii obsługującej urząd zna na pamięć. "Governments can reap the benefits of these technologies only if they make considerations of ethics and safety a first priority." Brzmi banalnie, dopóki nie przeczytamy następnej linijki: that wider goal of public benefit can only be reached if data science and AI projects keep this in mind throughout their entire lifecycle. To nie jest deklaracja - to jest hipoteza architektoniczna: jeśli etyka i bezpieczeństwo nie są wbudowane w cykl życia projektu AI od początku do końca, deklaratywne polityki etyki AI w urzędzie są dekoracją. Polska kancelaria, która właśnie napisała klientowi-ministerstwu jedenastopunktowy regulamin użycia AI w decyzjach administracyjnych, czyta to zdanie i pyta sama siebie - czy nasz regulamin spina się z konkretnym etapem cyklu życia projektu, czy żyje w abstrakcji oddzielonej od kroku, w którym się dzieje praca?
O czym jest ten materiał
Workbook ma 68 stron w gęstym layoucie i dzieli się na dwie części plus warsztaty. Part One (s. 10-30) - introduction to AI/ML: czym jest sztuczna inteligencja, czym jest uczenie maszynowe, jakie są techniki (supervised, unsupervised, reinforcement), jakie są ich ograniczenia. Part Two (s. 31-65) - sociotechnical aspect of the AI/ML project lifecycle: tutaj zostaje wprowadzona trójpoziomowa architektura SUM Values → SSAFE-D Principles → PBG Framework, jedenastoetapowy cykl życia projektu, kluczowe pojęcia sociotechniczne (agenda-setting power, embedded values, opt-out fictions). Part Three (s. 66-68) - activities, czyli warsztaty grupowe dla zespołów wdrożeniowych, które bringują koncepty do życia w pracy zespołowej.
Trójpoziomowa architektura jest tym, co odróżnia Turing od reszty literatury etyki AI. Każdy poziom ma inną funkcję i inny adresat. Poziom 1 - SUM Values to fundament normatywny: cztery basic and fundamental beliefs (skróty rozwijane w workbookach domain-specific). Poziom 2 - SSAFE-D Principles to sześć actionable goals, w pełni operacyjnych dla zespołu inżynieryjnego: Sustainability, Safety, Accountability, Fairness, Explainability, Data Stewardship. Poziom 3 - PBG Framework (Process-Based Governance) to mechanizm integracji SSAFE-D w jedenaście kroków cyklu życia projektu plus szablon do dokumentowania działań governance. Mapa, na której każdy aktor (compliance officer, inżynier, prawnik, audytor) ma swoje miejsce.
Sześć zasad SSAFE-D jako podstawowy słownik, który polski adwokat dopisuje sobie do regulaminu kancelarii świadczącej AI advisory:
Jedenastoetapowy cykl życia projektu jest drugim filarem operacyjnym. Cykl jest cyrkularny, nie linearny - kończy się Model Updating or Deprovisioning, który zwrotnie informuje Project Planning kolejnej iteracji. Etapy w trzech meta-fazach: Design (Project Planning, Problem Formulation, Data Extraction or Procurement, Data Analysis), Development (Preprocessing & Feature Engineering, Model Selection & Training, Model Testing & Validation), Deployment (System Implementation, User Training, System Use & Monitoring, Model Updating or Deprovisioning). Każdy etap ma własne pytania etyczne, własne ryzyka, własną dokumentację.
Recenzja właściwa
Najmocniejsza warstwa - trójpoziomowa architektura SUM-SSAFE-D-PBG
Dla polskiej kancelarii największą wartością workbooka jest fakt, że Leslie i zespół rozdzielili etykę AI na trzy poziomy zamiast jednego. Większość polskich i międzynarodowych frameworków etyki AI - Komisja Europejska Trustworthy AI Guidelines, OECD AI Principles, AI Act art. 9, NIST AI RMF - operuje na jednym poziomie zasad ogólnych (transparentność, sprawiedliwość, niedyskryminacja), bez wskazania, jak te zasady mają być wbudowane w konkretny etap pracy zespołu. Turing rozdziela: SUM Values to to, w co wierzymy; SSAFE-D Principles to to, co robimy; PBG Framework to to, gdzie i kiedy to robimy. Ta trójdzielność jest praktycznie cenna, bo pozwala kancelarii argumentować, że polityka etyki AI w urzędzie nie może być jednowarstwowa.
Kancelaria obsługująca ministerstwo, które właśnie wdraża agenta AI do triagowania petycji obywatelskich, stosuje to operacyjnie tak: pierwsza warstwa polityki to deklaracja wartości (SUM Values w polskim wydaniu - godność człowieka, równość wobec prawa, dobro publiczne, państwo prawa). Druga warstwa to sześć zasad SSAFE-D jako konkretne cele przy każdej decyzji projektowej. Trzecia warstwa to mapa jedenastu etapów cyklu z konkretnymi punktami sprawdzającymi - w którym etapie ktoś weryfikuje fairness, w którym ktoś dokumentuje accountability, w którym ktoś rewiduje data stewardship. Bez trzeciej warstwy pierwsze dwie są pobożnym życzeniem, którego nie da się audytować.
Druga mocna warstwa - jedenastoetapowy cyrkularny cykl życia
Sekcja "Stages of the AI/ML Project Lifecycle" (s. 27-30) jest najbardziej operacyjną częścią workbooka. Cykl został opracowany w pracy Burr i Leslie z 2022 roku (Ethical assurance: a practical approach to the responsible design, development, and deployment of AI systems) i zorganizowany w trzy meta-fazy z wyraźną cesurą między aktywnościami projektowymi (Design) a aktywnościami modelarskimi (Development) i wreszcie aktywnościami operacyjnymi (Deployment). Cesury są ważne, bo w polskiej praktyce kancelarie często zaczynają etyczną analizę dopiero w fazie Deployment - gdy system już istnieje i właśnie ma być użyty. Turing pokazuje, że najtrudniejsze decyzje etyczne zapadają w fazie Design, w etapie Project Planning i Problem Formulation, gdzie decyduje się o samym fakcie zbudowania AI-zasilającego systemu w danym obszarze.
Kluczowe jest pojęcie delineated boundary wprowadzone w workbooku - granica między decyzjami projektu a decyzjami modelu. Polska kancelaria czyta to jako granicę odpowiedzialności prawnej między klientem-zamawiającym a dostawcą-wykonawcą. Decyzje przed tą granicą (Project Planning, Problem Formulation, Data Procurement) są dziedziną prawa zamówień publicznych i decyzji kierowniczych urzędu. Decyzje za tą granicą (Preprocessing, Model Selection, Model Training) są dziedziną prawa autorskiego, prawa danych osobowych i odpowiedzialności kontraktowej dostawcy. Workbook nie omawia tej granicy w polskim sensie prawnym - ale dostarcza terminologii, która polskiemu adwokatowi pozwala ją artykułować dokładnie.
Trzecia warstwa - sociotechnical perspective i agenda-setting power
Sekcja sociotechniczna (s. 31-65) wprowadza pojęcie, które jest dla polskiej kancelarii praktycznie cenne w rozmowie z urzędem: agenda-setting power. Cytuję bezpośrednio z workbooka: "agenda-setting power often functions in tandem with goals of democratic governance, public consent, and social license". Władza ustawiania agendy jest fenomenem, w którym to nie sama decyzja jest największym źródłem problemu - tylko fakt, że decyzja w ogóle pojawiła się jako temat do rozważania, podczas gdy alternatywne podejścia zostały wykluczone z dyskusji jeszcze przed jej rozpoczęciem. W polskim sektorze publicznym to jest niezwykle praktyczna obserwacja. Kancelaria, którą ministerstwo prosi o opinię, czy "AI w decyzjach o świadczeniach socjalnych jest zgodne z RODO", dostaje pytanie, które już samo w sobie ustawia agendę - bo zakłada, że AI ma zostać użyte. Pytaniem strategicznie wcześniejszym jest czy AI w ogóle powinno być narzędziem w tej domenie.
Workbook zachęca compliance officera i prawnika do cofnięcia się o jeden krok w analizie. To jest ważne, bo polska kancelaria, którą urząd traktuje jako rzemieślnika prawnego (sprawdź zgodność z art. 22 RODO), zyskuje uzasadnienie dla bycia również strategicznym doradcą (zapytaj, czy w ogóle warto). Turing nazywa to "ethical reflection that occurs before technical design begins". Polski adwokat dopisuje, że to jest etyczna analiza opcji zerowej - opcji niewdrażania AI - która w polskim prawie administracyjnym ma swoje odpowiedniki w obowiązku celowości środków publicznych (art. 44 ust. 3 ustawy o finansach publicznych) i w zasadzie proporcjonalności postępowania administracyjnego.
Czwarta warstwa - curriculum jako struktura edukacyjna
Workbook nie jest samodzielnym dokumentem - jest pierwszym z ośmiu, i ten fakt zmienia jego wartość operacyjną. Pozostałe siedem to: AI Sustainability in Practice (Part One i Part Two), AI Safety in Practice, AI Accountability in Practice, AI Fairness in Practice, AI Transparency and Explainability in Practice, Responsible Data Stewardship in Practice, plus jeden tom horyzontalny (curriculum management). Każdy z workbooków pogłębia jedną z zasad SSAFE-D z domain-specific case studies (transport, healthcare, kryminalistyka, edukacja, polityka społeczna). To znaczy, że An Introduction jest mapą - polska kancelaria po przeczytaniu wprowadzenia ma kompas wskazujący, do którego z siedmiu workbooków należy sięgnąć, gdy klient pyta o konkretne ryzyko (dyskryminację algorytmiczną, biegłość zarządzania danymi, transparentność decyzji, ciągłość systemu).
Wartość curriculum dla MateMatic jest edukacyjno-strukturyzująca. Każdy z siedmiu pozostałych workbooków będzie kandydował na osobny tom Bazy Wiedzy w miarę dostępności i rzetelnej lektury. Nasz pipeline edukacyjny dla compliance officerów kancelarii obsługujących administrację publiczną zyskuje rusztowanie - osiem modułów, każdy z mapowaniem na konkretną zasadę i konkretny etap cyklu życia. To jest pierwszy framework etyki AI w polskiej Bazie Wiedzy, który ma natywną strukturę kursową, nie monograficzną.
Mapping na polskie instrumenty prawne
Warstwa AI Act
Workbook został wydany w 2023 roku, gdy AI Act był jeszcze w fazie negocjacji trilogowych - więc nie zawiera bezpośrednich referencji do finalnego tekstu z 2024 roku. Polski adwokat wykonuje za autorów pracę, która jest dla MateMatic niemal mechaniczna. Sustainability mapuje się na art. 13 AI Act (transparentność trwała w cyklu życia) plus motyw preambuły o sustainable AI plus art. 72 AI Act post-market monitoring jako technologiczne wykonanie sustainability. Safety mapuje się na art. 9 AI Act (risk management throughout lifecycle) plus art. 15 (accuracy, robustness, cybersecurity). Accountability mapuje się na art. 14 (human oversight) plus art. 26 (deployer obligations) plus art. 50 (transparency obligations). Fairness mapuje się na art. 10 AI Act (data and data governance, w tym bias monitoring i mitigation) plus motyw 56 preambuły. Explainability mapuje się na art. 13 AI Act (transparency to deployers) plus art. 86 (right to explanation of individual decision-making). Data Stewardship mapuje się na art. 10 AI Act (training, validation and testing data sets) plus pełen reżim RODO.
Sześć zasad SSAFE-D razem mapuje się dokładnie na rdzeń wymogów dla high-risk AI systems w Załączniku III AI Act - co jest istotne, bo administracja publiczna w Polsce, która wdraża AI w decyzjach świadczących, w nadzorze, w sądownictwie czy w obszarze migracji, niemal zawsze wpada w kategorię high-risk. Tabela mapowań SSAFE-D ↔ AI Act jest dla polskiej kancelarii natywnym narzędziem opinii - klient-ministerstwo dostaje dokument, w którym sześć zasad zostaje sparowanych z sześcioma sekcjami obowiązków regulacyjnych, każda z odniesieniem do artykułu i każda z konkretnym wskazaniem, w którym etapie cyklu życia projektu (z PBG Framework) ma być realizowana.
Warstwa RODO
Data Stewardship z SSAFE-D operacjonalizuje całą zasadę art. 5 RODO. Pięć podzasad jest 1:1 mapowanych: quality Turinga → art. 5 ust. 1 lit. d (prawidłowość); provenance → art. 5 ust. 1 lit. a (zgodność z prawem) plus art. 14 (informacja o źródle); integrity → art. 5 ust. 1 lit. f (integralność i poufność); fairness w wymiarze danych → art. 5 ust. 1 lit. a (rzetelność); data minimization → art. 5 ust. 1 lit. c (minimalizacja). PBG Framework jako mechanizm dokumentowania jest operacyjnym wykonaniem zasady rozliczalności (art. 5 ust. 2) - bo dla każdego z jedenastu etapów cyklu workbook nakazuje generowanie dokumentacji governance, którą IOD i organ nadzorczy mogą audytować.
Drugą warstwą RODO jest art. 35 (DPIA - data protection impact assessment). PBG Framework w fazie Design (etapy Project Planning i Problem Formulation) wykonuje pracę, którą polskie prawo wymaga w DPIA: identyfikuje wysokie ryzyka, dokumentuje ich źródła, projektuje środki zaradcze. Workbook nie używa terminu DPIA, ale jego procedura jest jego natywnym ekwiwalentem. Polska kancelaria, która właśnie pomaga ministerstwu w przygotowaniu DPIA dla agenta triagującego petycje, znajduje w PBG Framework gotowy szkielet - który następnie musi przekonwertować na format wymagany przez UODO.
Warstwa polskiego sektora publicznego
To jest miejsce, w którym workbook dostarcza importowanego know-how, którego polski rynek nie ma. Wielka Brytania ma od 2019 roku oficjalne wytyczne rządowe dotyczące etyki AI w sektorze publicznym (oryginalny Public Sector Guidance); Polska nie ma. Ministerstwo Cyfryzacji wydało w 2024 roku Politykę Rozwoju Sztucznej Inteligencji, ale nie towarzyszą jej operacyjne curriculum etyki AI dla urzędników. Kancelaria obsługująca KPRM, MC, samorządy lub regulatory branżowe znajduje w Turing PBG Framework gotowy wzorzec, który polski klient może zaadaptować bez konieczności tłumaczenia od zera.
Praktyczny use-case: ministerstwo wdraża agenta AI do priorytetyzacji wniosków o świadczenia. Polska kancelaria proponuje klientowi politykę etyki AI opartą na trzech poziomach: (1) deklaracja wartości kierująca - polskie zakorzenienie SUM Values w godności człowieka (art. 30 Konstytucji), równości wobec prawa (art. 32), państwie prawa (art. 2); (2) sześć zasad SSAFE-D jako konkretne cele projektowe - z mapowaniem na AI Act art. 9-15 i RODO art. 5; (3) PBG Framework jako jedenastoetapowa mapa decyzyjna z punktami sprawdzającymi w każdym etapie. Klient otrzymuje dokument, który jest jurysdykcyjnie polski w warstwie wartości, regulacyjnie unijny w warstwie zasad, operacyjnie brytyjski w warstwie procesu. To jest produkt, którego polski rynek dotąd nie miał.
Warstwa tajemnicy zawodowej kancelarii obsługującej administrację
Workbook milczy w tej sprawie, bo brytyjski sektor publiczny nie ma odpowiednika polskiej tajemnicy adwokackiej i radcowskiej. Polska kancelaria dopisuje warstwę krytyczną. Tajemnica adwokacka (art. 6 PoA, KEA) i radcowska (art. 3 ustawy o radcach prawnych, KERP) wchodzi w napięcie z Data Stewardship z SSAFE-D, gdy adwokat doradza urzędowi w sprawach, w których strona postępowania jest jednocześnie klientem kancelarii w innej sprawie. Workbook PBG Framework ma w fazie Design etap Data Extraction or Procurement, w którym dokumentuje się źródła i zgody danych. Polski adwokat dopisuje wymóg dodatkowy - dla danych pochodzących z postępowań, w których kancelaria może być stroną reprezentującą obywatela, niezbędne jest walling, czyli wewnętrzna ściana informacyjna, która zapobiega zbieżności konfliktu interesów z naruszeniem tajemnicy.
Druga warstwa - workbook traktuje accountability jako rozliczalność wobec organu publicznego i obywateli. Polska kancelaria dopisuje rozliczalność wobec organów samorządowych adwokackich i radcowskich (Naczelna Rada Adwokacka, Krajowa Rada Radców Prawnych) - gdy kancelaria świadcząca AI advisory dla urzędu realizuje czynność, która rzutuje na sposób reprezentowania klienta-osoby fizycznej w innym postępowaniu, deontologia wymaga rozliczalności w dwóch reżimach jednocześnie. PBG Framework jako mechanizm dokumentowania ma pojemność, by tę dwuwarstwowość udokumentować - ale Turing nie pokazuje jak, bo nie zna polskiej deontologii.
Czego brakuje - z perspektywy polskiej kancelarii
Brak referencji do AI Act i ogólnego unijnego prawa. Workbook został wydany w 2023 roku i skupia się na brytyjskim soft law (Office for AI guidance) plus akademickiej literaturze etyki AI. Po Brexicie UK nie podlega bezpośrednio AI Act, więc framework nie cytuje ani jednego artykułu. Polska kancelaria czyta to jako materiał źródłowy do mapowania, nie jako gotowy materiał polityki. Przed użyciem workbooka jako wzorca polityki dla polskiego klienta trzeba wykonać przekład regulacyjny - sześć mapowań SSAFE-D ↔ AI Act i sześć mapowań SSAFE-D ↔ RODO.
Brak referencji do ECHR i Karty Praw Podstawowych UE. Workbook cytuje brytyjski Equality Act 2010, brytyjskie ramy human rights (Human Rights Act 1998), ale nie cytuje art. 8 EKPC (prawo do prywatności w wymiarze europejskim), art. 6 EKPC (rzetelny proces) ani art. 21 i 22 KPP UE (niedyskryminacja, prawo dobrej administracji). Dla polskiej kancelarii to jest luka, bo polska kancelaria operuje w reżimie Rady Europy (EKPC) i prawa unijnego (KPP) jednocześnie. Recenzja MateMatic dopisuje te warstwy w mapowaniu - sześć zasad SSAFE-D plus dwa europejskie reżimy praw człowieka.
UK-specific case studies. Workbook używa przykładów z brytyjskiego sektora publicznego: NHS, Department for Work and Pensions, Home Office, councils. Polska kancelaria nie może 1:1 transportować tych case'ów na polskiego klienta, bo systemy są inne (NHS to nie NFZ, council to nie urząd gminy w sensie kompetencyjnym, Home Office to nie Straż Graniczna). Wartość przykładów jest analitycznym - ilustrują typy ryzyk - nie operacyjnym. Polski adwokat dopisuje case'y polskie: ZUS, NFZ, KRUS, sądy administracyjne, Generalna Inspekcja Ochrony Danych Osobowych (UODO), KNF.
Format warsztatowy zamiast operacyjnego. Część trzecia workbooka (s. 66-68) to Activities - warsztaty grupowe dla zespołów wdrożeniowych. Polska kancelaria, która operuje w trybie solo praktyk plus klient bez zespołu warsztatowego, traci tę warstwę funkcjonalną. Wartość pozostaje pojęciowa - ćwiczenia ujawniają, jak workbook ma być używany w organizacji - ale operacyjnie kancelaria potrzebuje listy kontrolnej, a nie scenariusza warsztatowego. Recenzja MateMatic w przyszłej wersji rozważa destylację warsztatów do listy kontrolnej dla solo praktyka.
Brak warstwy responsabilizacji cywilnoprawnej. Accountability w workbooku to audytowalność i transparentność procesu, nie odpowiedzialność za szkodę. Polska kancelaria operuje w reżimie, w którym z agendy klienta zawsze wynika pytanie odpowiedzialnościowe - kto poniesie koszt, gdy AI błędnie zatriaguje wniosek o zasiłek pielęgnacyjny i uprawniony obywatel umrze przed wydaniem decyzji. Workbook nie odpowiada na to pytanie. Polski adwokat dopisuje warstwę art. 417 KC (odpowiedzialność za szkody wyrządzone przez funkcjonariuszy publicznych), art. 417¹ KC (odpowiedzialność za szkody wyrządzone przez wydanie aktu normatywnego) oraz reżim odpowiedzialności kontraktowej dostawcy AI wobec administracji publicznej.
Komu polecam, komu odradzam
Kancelaria obsługująca administrację publiczną (KPRM, ministerstwa, samorządy) - obowiązkowo. Trójpoziomowa architektura SUM-SSAFE-D-PBG to brakujący wzorzec polityki etyki AI dla polskiego sektora publicznego, który trzeba wykonać u klienta-zamawiającego. Workbook dostarcza struktury, kancelaria dopisuje warstwy AI Act, RODO i polskiej deontologii.
Compliance officer kancelarii świadczącej AI advisory - obowiązkowo. Sześć zasad SSAFE-D wprost do regulaminu wewnętrznego polityki AI, mapowane na sześć rozdziałów obowiązków regulacyjnych. PBG Framework jako mechanizm dokumentowania - operacjonalizuje art. 5 ust. 2 RODO i art. 12 AI Act jednocześnie.
Adwokat doradzający urzędowi przed wdrożeniem AI - obowiązkowo. Pojęcie agenda-setting power z Part Two daje narzędzie do cofnięcia rozmowy o jeden krok - z "czy to zgodne z RODO" do "czy w ogóle warto". To jest strategiczna funkcja kancelarii w sektorze publicznym, a nie tylko rzemieślnicza.
IOD organów administracji publicznej - tak. Data Stewardship z SSAFE-D plus PBG Framework to operacjonalizacja art. 5 i art. 35 RODO w jednym dokumencie. Wartość pełna pod warunkiem przekładu warstwy europejsko-regulacyjnej (workbook tego nie wykonuje).
Konsultant LegalTech doradzający dostawcy AI dla administracji - tak. Jedenastoetapowy cykl życia projektu plus delineated boundary między fazami daje strukturę, w której można dokumentować, co dostawca robi, a co zamawiający - granica odpowiedzialności kontraktowej staje się klarowna.
Mała kancelaria 5-10 osobowa bez klientów-administracji - selektywnie. Wartość workbooka spada poza sektorem publicznym, bo case studies i case-driven aktywności są administracyjne. Wartość pojęciowa (sześć zasad, trójpoziomowa architektura) pozostaje, ale operacyjnie lepszym wyborem są tomy w Bazie Wiedzy bardziej zorientowane na sektor prywatny - BW/039 (RAII Policy Template) dla wzorca polityki AI lub BW/040 (King Vendor Assessment) dla audytu dostawcy.
Klient-zarząd urzędu bez doradcy prawnego - nie polecam bezpośrednio. Język akademicki, brak referencji do AI Act, format warsztatowy - utrudnia samodzielną aplikację. Klient powinien pracować przez doradcę-kancelarię, która wykonuje pracę przekładu. Materiał wyjaśniający dla zarządu urzędu to BW/044 (WEF/Capgemini Public Sector Readiness) w kombinacji z recenzją MateMatic tego workbooka.
Powiązanie z innymi tomami Bazy Wiedzy
Direct partner do BW/044 (WEF/Capgemini - Public Sector Readiness Framework) - oba tomy adresują sektor publiczny, ale na różnych warstwach. WEF/Capgemini odpowiada na pytanie "które funkcje administracji są gotowe na AI" w wymiarze ekonomiczno-instytucjonalnym; Turing PBG odpowiada na pytanie "jakimi zasadami i procesem mamy wdrożyć AI w funkcji, którą uznaliśmy za gotową". Razem dają polskiej kancelarii obsługującej administrację publiczną kompletną mapę decyzyjno-operacyjną - decyzję strategiczną o gotowości i decyzję projektową o etyce.
Direct continuation BW/038 (Smuha - Cambridge Handbook of the Law, Ethics and Policy of AI) - Smuha dostarcza akademickie kompendium etyki AI w wymiarze europejskim, Turing dostarcza operacyjne curriculum etyki AI w wymiarze brytyjskim. Razem są parą akademia-praktyka: kancelaria czyta Smuhę dla zrozumienia normatywnej głębokości problemu, Turing dla operacyjnej drogi wykonania. Workbook Turinga jest narzędziem implementacyjnym dla rozdziałów Smuhy o procedurach RODO, fairness i responsibility gap.
Direct complement do BW/039 (RAII Policy Template) - RAII daje strukturę polityki AI w czterdziestu sześciu stronach, Turing daje warstwę procesową, której RAII nie pokrywa. Wzorzec polityki etyki AI dla polskiej kancelarii: szkielet RAII plus rozdział "Process-Based Governance" oparty na PBG Framework Turinga plus mapowanie SSAFE-D do AI Act i RODO. To jest kombinacja, która dotąd nie istniała w polskim rynku.
Direct complement do BW/045 (Kenney - Runtime Enforcement and the AI Governance Stack) - Kenney daje sześć zasad design dla runtime enforcement w pięciu warstwach AI Governance Stack; Turing daje sześć zasad SSAFE-D plus jedenastoetapowy cykl życia projektu. Kenney rozprasza enforcement po pięciu warstwach architektonicznych; Turing rozprasza zasady etyczne po jedenastu etapach procesowych. Polska kancelaria używa obu razem: Kenney dla architektury technicznej (gdzie enforcement żyje), Turing dla procesu (kiedy zasady etyczne są aplikowane).
Direct complement do BW/046 (Berkeley CLTC - GPAI Risk-Management Standards Profile V1.2) - Berkeley syntetyzuje pięć źródeł standardów (NIST AI RMF, ISO/IEC 23894, EU GPAI Code, International AI Safety Report 2025, NIST AI 800-1) w jedną meta-mapę funkcji GOVERN/MAP/MEASURE/MANAGE; Turing dostarcza analogiczną meta-mapę dla zasad etyki w sektorze publicznym. Berkeley jest stack'iem standardów dla high-risk AI; Turing jest stack'iem zasad dla public sector AI. Razem pokrywają dwa najważniejsze obszary high-risk wedle Załącznika III AI Act - high-risk privatny (Berkeley) i high-risk publiczny (Turing).
Razem z BW/009 (MIT AI Risk Repository) tworzy parę taksonomia-procedura. MIT dostarcza katalog 74 ryzyk AI w jednej taksonomii; Turing dostarcza procedurę identyfikacji i mitygacji tych ryzyk w jedenastoetapowym cyklu projektu. Bez Turinga taksonomia jest słownikiem; bez taksonomii MIT procedura jest pustym formularzem.
Razem z BW/030 (ENISA - Security-by-Design and -by-Default) potwierdza analogię cross-cutting - ENISA daje 22 praktyki bezpieczeństwa rozłożone na cykl życia produktu, Turing daje sześć zasad etyki rozłożone na cykl życia projektu AI. Architektura jest ta sama - cross-cutting w cyklu życia, nie one-shot na końcu.
Razem z BW/001 (Kenney - Governing Agents: cztery reżimy regulacyjne) Turing pełni funkcję pierwszego ogniwa: Kenney mówi, kim agent musi się rozliczyć (RODO, AI Act, NIST AI RMF, ISO 42001); Turing mówi, jak ten rozrachunek ma być wbudowany w jedenaście etapów procesu projektowego. Polski adwokat startuje od Kenneya, kontynuuje przez Turing PBG, kończy na Berkeley CLTC i Kenney runtime enforcement (BW/045).
Dla MateMatic to warstwa procesowo-edukacyjna obok warstwy architektonicznej (BW/045 Kenney runtime), warstwy syntezy standardów (BW/046 Berkeley CLTC), warstwy decyzyjnej sektora publicznego (BW/044 WEF/Capgemini), warstwy polityki firmowej (BW/039 RAII), warstwy vendor assessment (BW/040 King), warstwy benchmarku globalnego (BW/042 AICDI), warstwy taksonomii ryzyk (BW/009 MIT), warstwy akademickiej etyki europejskiej (BW/038 Smuha). BW/047 Turing zamyka stack governance MateMatic od strony cyklu życia projektu - bez tej warstwy stack jest mapą bez procesu, formularzem bez zegara.
David Leslie i jedenastoosobowy zespół Public Policy Programme przy Alan Turing Institute publikują pierwszy z ośmiu workbooków curriculum etyki AI dla brytyjskiego sektora publicznego, w aktualizowanej wersji 1.2 pod licencją CC BY 4.0, jako rozszerzenie oficjalnego brytyjskiego Public Sector Guidance z 2019 roku. Wartość operacyjna dla polskiej kancelarii obsługującej administrację publiczną jest trojaka. Po pierwsze - trójpoziomowa architektura SUM Values fundament, SSAFE-D Principles sześć actionable goals, PBG Framework jedenastoetapowy mechanizm integracji w cyklu życia projektu - jest gotowym wzorcem polityki etyki AI dla polskiego ministerstwa, samorządu lub regulatora branżowego, po wykonaniu sześciu mapowań na AI Act art. 9-15, RODO art. 5 i 35, ECHR art. 6 i 8, KPP UE art. 21 i 22 oraz polską deontologię adwokacką i radcowską. Po drugie - pojęcie agenda-setting power przesuwa pozycjonowanie kancelarii z rzemieślniczego (sprawdź zgodność) na strategiczne (zapytaj, czy w ogóle warto), co w polskim sektorze publicznym jest praktycznie cennym ruchem na poziomie partnera zarządzającego. Po trzecie - workbook jest pierwszym z ośmiu, więc otwiera w Bazie Wiedzy MateMatic linię ośmiu kandydatów na kolejne tomy: AI Sustainability, AI Safety, AI Accountability, AI Fairness, AI Transparency and Explainability, Responsible Data Stewardship plus dwa horyzontalne. Razem z BW/044 WEF/Capgemini Public Sector, BW/038 Smuha Cambridge Handbook, BW/039 RAII Policy Template, BW/045 Kenney Runtime Enforcement i BW/046 Berkeley CLTC GPAI Profile MateMatic ma teraz dziewięciowarstwowy stack governance dla sektora publicznego z autorską linią rozwoju polskiej kancelarii czytającej curriculum Turinga jako spójną całość. Licencja CC BY 4.0 pozwala na hosting PDF lokalnie z atrybucją; recenzja MateMatic w pełni cytowalna. Co MateMatic wniesie - audyt edycji polityki etyki AI dla klienta-administracji w trzech sesjach: warstwa wartości polskich, warstwa zasad SSAFE-D mapowanych na AI Act i RODO, warstwa procesu PBG Framework z punktami sprawdzającymi w jedenastu etapach.