Do mojej skrzynki trafił w zeszłym tygodniu, przy okazji rozmowy o RFP, który polski bank szykuje na trzeci kwartał 2026. Dokument ma sto siedemdziesiąt trzy strony, wydała go organizacja o nazwie MindForge Consortium, której europejski prawnik nigdy wcześniej nie słyszał. Warto usłyszeć. To jest konsorcjum dwudziestu czterech globalnych instytucji finansowych, prowadzone przez Monetary Authority of Singapore, z Accenture jako partnerem konsultingowym i AWS, Google Cloud, Microsoft oraz Nvidia jako partnerami technologicznymi. Dwieście osób kontrybutorów. Rok pracy. Nazwiska, które w Europie znaczą: Citi, HSBC, UBS, BlackRock, Standard Chartered, MUFG, Munich Re, State Street.

Pierwsze pytanie, które się nasuwa, brzmi: czy to jest trzeci w kolejce amerykański deck w chińskim opakowaniu. Odpowiedź brzmi nie. To jest regulator-led industry playbook, który w Unii Europejskiej nie powstał, bo jego miejsce zajął EIOPA consultation paper, ESMA call for evidence i zestaw non-binding guidelines. Singapur pracuje inaczej. Bank centralny siada z bankami komercyjnymi i pisze, jak ma wyglądać operacjonalizacja. Efekt jest lepszy niż europejski, przynajmniej w warstwie praktycznej.

O czym jest ten materiał

Handbook jest trzecim dokumentem z serii. Wcześniej ukazały się Executive Handbook (dla zarządów) i Implementation Examples (dla zespołów wdrożeniowych). Ten tom jest operacyjny: dla ryzyka, compliance, IT i audytu wewnętrznego. Struktura: scope i oversight, AI risk management (na poziomie organizacji i use-case), AI lifecycle management (pięć etapów: ideation, data sourcing, development, deployment, monitoring), enablers (talent, tooling, culture), pięć rozbudowanych appendixów.

Intelektualne rodowody są jawne. FEAT Principles z 2018 roku (Fairness, Ethics, Accountability, Transparency) jako ramowy zestaw wartości. Veritas Methodology z lat 2020-2023 jako metoda walidacji use-case. IMDA Model AI Governance Framework for Agentic AI ze stycznia 2026, cytowany w warstwie agentycznej. Ten ostatni dokument wprowadza pięć źródeł ryzyka agentycznego i cztery wymiary zarządzania, których w europejskich materiałach jeszcze nie widziałem.

Jednym zdaniem: to jest operacyjna mapa, z jaką dyrektor ryzyka dużego banku siada w poniedziałek rano i wie, co ma zrobić do końca tygodnia.

Recenzja właściwa

Appendixy, czyli gdzie siedzi wartość

Rdzeń dokumentu jest dobry, ale prawdziwa wartość leży w pięciu appendixach. Appendix A: AI Risk Taxonomy. Systematyczny katalog zagrożeń: prompt injection, re-identification, data leakage, model inference attacks, hallucinations, prompt drift, emergent behaviors w systemach agentycznych. Każde zagrożenie z definicją, przykładami scenariuszy i proponowaną kontrolą. Dokument, którego żaden polski dostawca legal-tech nie przygotuje sam, a który niedługo pojawi się jako wymaganie w przetargu.

Appendix B: AI Card Template. Dwustronicowy template, który wypełnia się per use-case. Pola: opis biznesowy, klasa ryzyka, dane wejściowe, model, architektura, metryki walidacji, guardrails, właściciel biznesowy, owner ryzyka, częstotliwość przeglądu, data ostatniego audytu. To nie jest AI Card w sensie EU AI Act Annex IV, ale spokrewniony kuzyn, operacyjny. Kancelaria, która obsługuje bank w projekcie AI, dostanie kiedyś ten template do wypełnienia w imieniu dostawcy rozwiązania. Lepiej wiedzieć wcześniej, jak on wygląda.

Appendix C: Metrics Library. Sto dwadzieścia cztery wskaźniki pogrupowane w jedenaście kategorii: accuracy, fairness, robustness, explainability, privacy, security, stability, drift detection, incydenty, oversight actions, compliance coverage. Każdy wskaźnik ma wzór, proponowany próg, częstotliwość pomiaru. Fragment, którego uczelniane materiały zwykle nie mają, a który ma każdy bank w tabeli KPI compliance. Appendix D: Guardrails Library. Osiemdziesiąt kilka typów guardraili z kategoryzacją (input, output, behavioral, environmental). Appendix E: Checklist. Sto siedemdziesiąt punktów, pogrupowanych per etap cyklu życia. To jest, uczciwie mówiąc, gotowa mapa due diligence.

Risk materiality assessment, czyli metoda, której nie ma w europejskich guidelinach

Najbardziej metodologiczna część tekstu to sekcja o risk materiality assessment. Autorzy wprowadzają rozróżnienie: inherent risk (ryzyko wbudowane w samą naturę use-case) vs residual risk (ryzyko pozostałe po wdrożeniu kontroli). Do tego trzystopniowy test materialności: impact (finansowy, regulacyjny, reputacyjny, operacyjny), likelihood (prawdopodobieństwo materializacji), autonomy (stopień decyzyjnej autonomii systemu). Wynik determinuje tier przeglądu: low-autonomy/low-impact przechodzi przez lightweight review, high-autonomy/high-impact wymaga pełnej walidacji Veritas z trzema independent challenges.

Tu jest konstrukcja, którą warto skopiować do polskiej praktyki. DPIA z art. 35 RODO mówi, że ocena skutków jest wymagana, gdy przetwarzanie może powodować wysokie ryzyko. Ale samo RODO nie daje metody mierzenia ryzyka AI. AI Act daje klasyfikację (wysokie vs nie-wysokie ryzyko), ale nie daje metody oceny use-case wewnątrz kategorii. MindForge daje. Trzy osie: impact, likelihood, autonomy. Polska kancelaria obsługująca klienta finansowego może na tej siatce ułożyć swoje wewnętrzne DPIA dla każdego wdrożenia AI, z uzasadnieniem, które obroni się przed UODO i KNF jednocześnie.

W europejskich guidelinach odpowiednika tej siatki nie ma. Jest zestaw pryncypiów, jest wymaganie DPIA, jest klasyfikacja AI Act. Metody nie ma.

Case study DBS-GPT, FS-ISAC, i IMDA Agentic AI

Dokument nie boi się konkretnych przykładów. DBS-GPT (wewnętrzny LLM banku singapurskiego) jest case study przez cały tom. Opisane: architektura, segregacja danych, testy bezpieczeństwa, fallback procedures, metryki sukcesu, dwa incydenty z fazy pilotażu i sposób, w jaki zostały obsłużone. To jest poziom transparentności, którego w europejskim sektorze bankowym nie widuję. PKO BP, Santander, Millennium - każdy ma wewnętrzne narzędzia AI. Nikt nie opublikuje case study z dwoma incydentami.

Drugi element wart uwagi to FS-ISAC Gen AI Vendor Tool. To jest wspólny kwestionariusz due diligence dla dostawców AI, wypracowany przez Financial Services Information Sharing and Analysis Center. Dwieście kilkadziesiąt pytań pogrupowanych w dwanaście kategorii, od data lineage po incident response. Handbook cytuje go jako minimum branżowe. W Europie odpowiednika brak. EBA ma guidelines on outsourcing, ESMA ma guidelines on cloud outsourcing, ale wspólnego kwestionariusza AI dla dostawców nie ma. Kancelaria, która obsługuje polski bank, zobaczy ten kwestionariusz w pierwszym przetargu AI w 2027 roku, jeżeli bank chce być serious.

Trzeci punkt to IMDA Model AI Governance Framework for Agentic AI (styczeń 2026), cytowany w sekcji agentycznej. Wprowadza pięć źródeł ryzyka agentycznego (reasoning errors, tool misuse, autonomy drift, memory poisoning, emergent collaboration), cztery wymiary zarządzania (guardrails, monitoring, escalation, kill-switch). Dla polskich kancelarii pracujących nad kontraktami SaaS z funkcją agentową, to jest poziom granularności, który powinien wejść do klauzul SLA jako minimum.

Czego autorzy nie zauważają, a co dotyka polskiej kancelarii

Pierwsza luka. RODO. Handbook pisany jest w singapurskim reżimie PDPA, który jest prostszy i łagodniejszy niż RODO. Analiza data governance w sekcji lifecycle management jest doskonała technicznie, ale nie rozmawia z art. 22 RODO (zautomatyzowane decyzje), nie rozmawia z art. 28 RODO (powierzenie), nie rozmawia z art. 35 (DPIA). Europejska instytucja finansowa, która przyjmie MindForge jako reference, musi dołożyć osobną warstwę RODO. Nie jest to trudne, ale jest konieczne.

Druga luka. Tajemnica bankowa i zawodowa. W Polsce dane klienta banku są objęte tajemnicą bankową z art. 104 Prawa bankowego. Dane klienta kancelarii są objęte tajemnicą zawodową z art. 6 Prawa o adwokaturze albo art. 3 ustawy o radcach prawnych. Kiedy bank wysyła dane do kancelarii (obsługa prawna kredytów, obsługa sporów, windykacja), a kancelaria przetwarza je przez narzędzia AI, kumulują się dwa reżimy tajemnic. Handbook tego problemu nie widzi, bo Singapur ma jedną warstwę (banking secrecy). Polska kancelaria musi go opisać sama, w umowie z bankiem i w swojej polityce AI.

Trzecia luka. Skala. Dokument pisany jest dla UBS, dla Citi, dla DBS. Dwustuosobowe zespoły ryzyka, miliardy dolarów budżetu compliance, siedzibowe teamy AI. Polski bank średniej wielkości ma dziesięć osób w ryzyku operacyjnym i dwie w compliance AI, jeżeli w ogóle. Polska kancelaria obsługująca taki bank musi przełożyć MindForge na skalę wykonalną w osiemnaście miesięcy, nie w trzy lata. To jest zadanie przekładu, nie tłumaczenia.

Compound regime po raz trzeci

Wracam do motywu, który w tej bazie wiedzy powtarza się już po raz trzeci. TOM 001 (Kenney) opisał, jak RODO i AI Act tworzą w Europie compound regime dla agentów AI. TOM 005 (Levy) pokazał, że amerykańska etyka AI dla prawników w ogóle tego compound regime nie zauważa. MindForge jest trzecim głosem z innej strony: Singapur operacjonalizuje, jakby compound regime był lokalnym reżimem sektorowym, a nie nawarstwieniem regulacji kontynentalnych. Każda z tych trzech szkół ma część prawdy. Polska kancelaria, która chce mieć serious framework AI, musi umieć przełączać między nimi, nie trzymać się jednej.

Co z tego wynika

MindForge jest materiałem, którego nie można ominąć, jeżeli kancelaria obsługuje sektor finansowy i przewiduje, że w 2027 roku RFP banku będzie zawierał wymagania AI assurance. Handbook przejdzie do głównego obiegu w Europie w ciągu kwartału-dwóch przez bankowe compliance teamy, które go znajdą i zaczną nim się posługiwać w rozmowach z nadzorem. Lepiej przeczytać teraz, niż zostać zaskoczonym za kwartał.

Dokument polecam czterem grupom. Compliance officerom banków i instytucji finansowych (poziom operacyjny, jakiego w Europie brak). Partnerom kancelarii obsługujących sektor finansowy (checkliście Appendix E i vendor tool FS-ISAC pojawią się w RFP). Compliance officerom kancelarii rozważających wdrożenie agenta AI do obsługi spraw klienta finansowego (sekcja IMDA o agentycznym AI). Dyrektorom IT w kancelariach dużych, którzy rozmawiają z AWS, Google Cloud, Microsoft i Nvidia bez perspektywy compliance (handbook pokaże, jak ich wielcy klienci tych samych dostawców traktują).

Jednej grupie bym go nie polecał. Małym kancelariom dziesięcioosobowym, które szukają prostego frameworka AI na jutro. Sto siedemdziesiąt trzy strony MindForge, nawet z pięcioma appendixami, to nie jest dokument na niedzielne czytanie. To jest materiał roboczy dla zespołu z trzech, czterech osób, które pracują nad tym tygodniami. Lepiej zacząć od TOM 001 i TOM 005, potem wrócić do MindForge z konkretnymi pytaniami.

Dla zarządu kancelarii w trzech zdaniach

MindForge to 173-stronicowy handbook operacyjny AI napisany przez MAS i dwadzieścia cztery globalne instytucje finansowe, z pełnymi appendixami (AI Risk Taxonomy, AI Card Template, Metrics Library, Guardrails Library, Checklist), który w Europie odpowiednika nie ma i który pojawi się w bankowych RFP w 2027 roku. Dla kancelarii obsługującej sektor finansowy wartość operacyjna jest wysoka: checklist Appendix E można wprost przełożyć na due diligence dla dostawcy AI, risk materiality assessment (impact × likelihood × autonomy) można wpisać do wewnętrznej metodyki DPIA. Zanim klient bankowy zapyta was, jak wasza kancelaria spełnia MindForge-aligned assurances, przygotujcie dwa dokumenty: jeden jest waszą wewnętrzną polityką AI przeniesioną na siatkę MindForge, drugi jest klauzulą do engagement letter, która opisuje tajemnicę bankową i zawodową w compound regime z RODO i AI Act - różnica między "mamy politykę AI" a tymi dwoma dokumentami jest różnicą między utratą mandatu a utrzymaniem go.