Polski adwokat coraz częściej dostaje pytanie, którego rok temu jeszcze nie było. Klient korporacyjny prosi o pomoc w napisaniu wewnętrznej polityki AI - bo zarząd zażyczył sobie, bo ubezpieczyciel pyta, bo audytor unijny zagląda w listopadzie. Druga sytuacja jest jeszcze ciekawsza: ten sam adwokat zdaje sobie sprawę, że jego własna kancelaria, która wpuszcza Copilota do Outlooka i ChatGPT do researchu wstępnego, nie ma własnej polityki AI. Na obu biurkach leży to samo pytanie - od czego zacząć.

Responsible AI Institute publikuje pierwszy draft AI Policy Template w czerwcu 2024 roku. Czterdzieści sześć stron, czternaście rozdziałów, aneks, strony do podpisu sygnatariuszy. Recenzja MateMatic czyta to nie jako pracę akademicką, tylko jako narzędzie operacyjne - co bierzemy w całości, co przepisujemy pod polski kontekst, czego brakuje i kto musi to dopisać.

O czym jest ten materiał

Template jest zbudowany jak korporacyjny dokument zgodności - każda klauzula ma puste pola [organization name] __________ do wpisania danych organizacji, a w przypisach są referencje do konkretnych klauzul ISO/IEC 42001 i konkretnych funkcji NIST AI RMF (MAP, MEASURE, MANAGE, GOVERN). To nie jest esej o tym, jak myśleć o AI - to jest wzorzec do podpisu zarządu.

Czternaście rozdziałów grupuje się w cztery warstwy:

  • Warstwa fundamentu - I. Purpose and Scope, II. AI Principles, III. AI Objectives and Strategy. Definicja AI w organizacji, zasady etyczne (przejrzystość, sprawiedliwość, kontrola człowieka, bezpieczeństwo), strategia z mierzalnymi KPI.
  • Warstwa operacyjna - IV. Governance, V. Data Management, VI. Risk Management. Struktura komitetów (Steering + Operational), zarządzanie zbiorami danych, metodyka oceny ryzyka oparta o AI Impact Assessment (AIIA).
  • Warstwa cyklu życia - VII. Project Management, VIII. Stakeholder Management, IX. Workforce Management, X. Regulatory Compliance, XI. AI Procurement. Bramki zatwierdzeń (governance gates), konsultacje z interesariuszami, kompetencje pracowników, zgodność regulacyjna, zakup AI od dostawców.
  • Warstwa zamknięcia - XII. Documentation Management, XIII. Review and Enforcement, XIV. Conclusion. Inwentarze (AI system inventory, IIR database), proces przeglądu polityki, strony sygnatur.

Każda klauzula jest zapisana językiem normatywnym - "shall be established", "shall convene every", "shall document". To język polityki, nie poradnika. Adwokat polski rozpozna ten styl natychmiast - to jest dokument, którego klauzule będą egzekwowane.

Recenzja właściwa

Najmocniejsza warstwa - Governance (rozdział IV)

RAII rozdziela władzę nad AI w organizacji na dwa komitety. Steering Committee spotyka się co dwa miesiące, ustala strategię AI, definiuje ryzyko-tolerancję organizacji, alokuje budżet i zasoby, planuje kompetencje. Operational Committee spotyka się co dwa tygodnie, zatwierdza progresję poszczególnych systemów AI przez bramki rozwoju, zarządza inwentarzami systemów i incydentów, prowadzi szkolenia. Skład Operational Committee to "Head of Information Security, Head of Procurement, Legal, Head of HR" - czyli przekrój funkcyjny, nie tylko technologiczny.

Dla 200-osobowej kancelarii lub średniego klienta korporacyjnego ten model działa wprost. Dla 10-osobowej kancelarii adwokackiej trzeba go zwinąć - jeden zespół roboczy raz w miesiącu, partner zarządzający + IT + osoba odpowiedzialna za RODO. Ale sam pomysł rozdzielenia strategii od egzekucji jest obowiązkowy nawet w małej organizacji. Bez tego polityka AI staje się dokumentem w segregatorze, którego nikt nie czyta po podpisie.

Najmocniejsza klauzula operacyjna - AI Impact Assessment (rozdział VI)

RAII buduje cały rozdział VI wokół AIIA - oceny wpływu, która jest analogonem DPIA z RODO, ale obejmuje też ryzyka niefinansowe i niezwiązane z danymi osobowymi. AIIA wymaga, żeby organizacja zdefiniowała własną impact taxonomy z severity score, łączyła wpływy organizacyjne z wpływami na osoby, grupy i społeczeństwa, i prowadziła AIIA "at the inception of an AI initiative and continuously updated throughout the AI life cycle".

To jest punkt, w którym polski adwokat rozpoznaje swoją pracę. AIIA z template'u RAII nakłada się na DPIA z art. 35 RODO tam, gdzie system AI przetwarza dane osobowe, i na FRIA (Fundamental Rights Impact Assessment) z art. 27 AI Act dla systemów wysokiego ryzyka. Template wprost dopuszcza możliwość, żeby AIIA była komplementarna z innymi ocenami, "compatible with, but distinct from, other existing impact or risk assessments". Polski klient korporacyjny dostaje od kancelarii jedną zintegrowaną ocenę - AIIA + DPIA + FRIA - opartą o wzorzec RAII, ale z polskim kontekstem.

Najmocniejsza klauzula procesowa - AI Procurement (rozdział XI)

Rozdział XI jest dla kancelarii praktycznym złotem. RAII wymaga, żeby procurement team prowadził Responsible Supplier Assessment dla każdego dostawcy AI, zbierał wystarczające informacje do przeprowadzenia Low-Touch AI Impact Assessment, ustalał progi maturity i ryzyka, dla których relacja jest dopuszczalna, i negocjował warunki zawierające: "delineation of liability and responsibility for corrective action in downstream impacts; data sharing, deletion, and privacy agreements; PII processor or controller role; force majeure clause; termination clause".

To jest dokładnie checklist'a, którą kancelaria może postawić przed klientem przy negocjacji umowy z dostawcą LegalTech albo SaaS z AI w środku. Tom BW/037 (Michaels/Saeri/Slattery, MIT AIRI Navigator) i tomy o audycie LegalTech (BW/034 Kumaran, BW/035 Laban) dostarczają warstwy diagnostycznej - czego szukać; rozdział XI RAII dostarcza warstwy umownej - jak to zapisać w kontrakcie.

Najmocniejsza klauzula dokumentacyjna - inwentarze (rozdział XII)

RAII wymaga prowadzenia kilku inwentarzy: AI system inventory, data inventory, project inventory, AI Incident, Impact, and Risk (IIR) database. Każdy system w organizacji ma być wpisany z metadanymi: rola organizacji (Provider, Deployer, Importer, Distributor - to zresztą terminologia AI Act), zakres zastosowania, target audience, business value, intended purpose. Dla każdego incydentu - data, opis, severity, akcja korygująca.

Ten rozdział to jest fundament obrony pozycji prawnej organizacji w razie skargi do UODO, kontroli sektorowej KNF/UKE albo sporu sądowego. Bez inwentarza kancelaria reprezentująca klienta nie ma na czym budować argumentacji. Z inwentarzem ma listę systemów, listę ocen, listę incydentów i listę akcji korygujących - dokumenty, które sąd akceptuje.

Czego brakuje - i kto musi to dopisać

Template RAII jest amerykański. To nie jest wada - to fakt, który polski adwokat musi rozpoznać i nadrobić. Cztery brakujące warstwy:

Brak warstwy RODO. Rozdział V (Data Management) opisuje provenance, jakość, security i procurement zbiorów danych, ale traktuje dane osobowe jako jeden z typów ("includes sensitive personal identifiable information (PII)"). Polska polityka AI musi mieć osobny rozdział - Dane osobowe i AI - oparty o art. 5, 6, 9, 22, 25, 32, 35 RODO i wytyczne EROD. Bez tego dokument nie pójdzie pod podpis polskiego DPO.

Brak warstwy AI Act. Template wspomina AI Act jednym zdaniem w rozdziale o roli organizacji (Provider/Deployer), ale nie operacjonalizuje wymagań - klasyfikacja systemów na zakazane / wysokiego ryzyka / ograniczonego ryzyka / minimalnego ryzyka, obowiązki Providers (art. 16 AI Act), obowiązki Deployers (art. 26), FRIA (art. 27), rejestracja w bazie EU (art. 71), AI literacy (art. 4), kary. Polska polityka AI w 2026 roku musi mieć osobny rozdział mapowania na AI Act z timelinem zastosowania - 2 lutego 2025 (zakazy), 2 sierpnia 2026 (większość przepisów), 2 sierpnia 2027 (high-risk AI w produktach regulowanych).

Brak warstwy zawodowej. Kancelaria adwokacka i radcowska podlega rygorom, których RAII nie zna. Tajemnica adwokacka z art. 6 Prawa o adwokaturze i radcowskiej z art. 3 ustawy o radcach prawnych zakazuje przekazywania informacji klienta osobom trzecim - co ma fundamentalne implikacje dla każdego dostawcy AI w stacku kancelarii (czy dane treningowe? czy log promptu? czy modele zapamiętują?). Kodeks Etyki Adwokackiej i Kodeks Etyki Radcy Prawnego nakładają na prawnika obowiązek osobistej staranności, którego nie da się delegować na model. Polska polityka AI w kancelarii ma rozdział, który w template'cie RAII nie istnieje - Tajemnica zawodowa i AI.

Brak warstwy sektorowej. RAII nie zna polskich wytycznych UODO o przetwarzaniu danych przez systemy AI, rekomendacji KNF dla sektora finansowego, wytycznych UKE dla sektora telekomunikacyjnego, standardów Ministerstwa Cyfryzacji dla zamówień publicznych z AI. Polska polityka kancelarii reprezentującej klienta z regulowanego sektora dopisuje warstwę sektorową jako osobny aneks.

Komu polecam, komu odradzam

Kancelaria, która ma klienta korporacyjnego potrzebującego polityki AI - bierze RAII Template jako szkielet, dopisuje cztery brakujące warstwy (RODO, AI Act, zawodowa nie ich dotyczy, sektorowa). Praca po stronie adwokata: 30-50% objętości dokumentu finalnego. RAII daje strukturę i dyscyplinę normatywną, polski kontekst musi dojść z zewnątrz.

Kancelaria, która sama potrzebuje polityki AI - bierze rozdziały IV, VI, XI, XII (Governance, Risk Management, Procurement, Documentation) i kompresuje resztę. Dopisuje rozdział "Tajemnica zawodowa i AI" jako osobny pierwszy rozdział, a nie jako klauzulę gdzieś w środku. Wynik: 15-25 stron polityki AI dla 10-50-osobowej kancelarii.

Klient na własną rękę bez kancelarii - odradzam wprost. Template wymaga adaptacji w wielu miejscach, a fail-points są ukryte w odsyłaczach do ISO 42001 i NIST AI RMF (każda klauzula ma footnote z numerem paragrafu standardu). Bez kogoś, kto zna te standardy operacyjnie, organizacja podpisuje dokument, który nie jest w pełni spójny ze standardem, którego się wiedzy operacyjnie nie zna. To jest dokładnie sytuacja, w której klauzule AI Act o "appropriate technical and organizational measures" stają się ryzykiem, nie tarczą.

Powiązanie z innymi tomami Bazy Wiedzy

RAII Template jest komplementarny z kilkoma tomami BW. BW/008 (Bird & Bird AI Act Guide) i BW/013 (FAQ AI Act Service Desk) dostarczają warstwy AI Act, której RAII nie ma. BW/029 (CoE CDDH Handbook) dostarcza warstwy praw człowieka i EKPC, której RAII nie pokrywa. BW/030 (ENISA Security Playbook) dostarcza warstwy ISO 27001 i security klauzul kontraktowych, które template ma w wersji ogólnej. BW/037 (MIT AIRI Navigator) dostarcza diagnostycznej bazy ryzyk dla rozdziału VI. BW/034 (Kumaran) i BW/035 (Laban) dostarczają konkretnych pytań audytowych do dostawców AI, którymi można uzupełnić Responsible Supplier Assessment z rozdziału XI.

Innymi słowy: kto ma BW jako bibliotekę referencyjną, ma wszystkie elementy potrzebne do napisania polskiej polityki AI dla klienta korporacyjnego. RAII Template porządkuje je w jeden dokument-szkielet, na którym te elementy się zaczepiają.

Wniosek dla kancelarii

RAII AI Policy Template jest najbliższym standardem, jaki na zachodzie dziś istnieje, dla wzorca organizacyjnej polityki AI. Czternaście rozdziałów na 46 stronach, oparte o ISO/IEC 42001 i NIST AI RMF. Polska kancelaria bierze szkielet w całości i dopisuje cztery warstwy własne: RODO, AI Act, tajemnicę zawodową i sektorowe wytyczne UODO/KNF/UKE. Praca po stronie polskiego adwokata to 30-50% objętości finalnej polityki - ale ta praca to dokładnie to, za co klient korporacyjny płaci. Dla samej kancelarii 200-osobowej template idzie wprost; dla 10-osobowej zwijamy do rozdziałów IV, VI, XI, XII plus własny pierwszy rozdział "Tajemnica zawodowa i AI". Licencja "All Rights Reserved" oznacza, że MateMatic nie hostuje PDF u siebie - kancelaria pobiera oryginał ze strony RAII i pracuje na nim z czerwonym długopisem, dokładnie tak, jak autor recenzji rekomenduje.