Materiał, który dostałem w czwartek rano, zasługuje na drugą kawę, zanim się go skomentuje. Kenney napisał czterdzieści jeden stron praktycznego przewodnika, który mapuje cztery duże reżimy - RODO, EU AI Act, NIST AI RMF i ISO/IEC 42001 - na konkretną klasę systemów. System jest agentem, jeżeli nie tylko generuje odpowiedź, ale planuje, używa narzędzi, ma pamięć między sesjami i wywołuje skutki w świecie, w danych lub w rejestrach, poza zwróceniem pojedynczego outputu.
Ta definicja wygląda niewinnie. Nie jest. Przekroczenie tej granicy aktywuje całą warstwę obowiązków, których obecna praktyka kancelaryjna w Polsce prawie nie obsługuje. Stąd moja rekomendacja otwierająca: dokument Kenneya powinien trafić na biurko każdego partnera odpowiedzialnego za compliance w kancelarii, która już dziś klika "zainstaluj" przy kolejnym agentycznym narzędziu legal-tech. Z kartką papieru obok i z czerwonym długopisem.
O czym jest ten materiał
Kenney występuje jako praktyk. Jest założycielem Digital 520, prezesem Disruptive AI Lab i prezesem Ethical Tech Forum. Governing Agents to aneks do jego wcześniejszego podręcznika Governing Intelligence, ale stoi samodzielnie.
Struktura jest następująca. Część pierwsza definiuje agenta i jego pięć zdolności: planowanie, użycie narzędzi, pamięć i stan, delegację i koordynację wielo-agentową oraz adaptację w kontekście. Część druga przechodzi RODO artykuł po artykule. Część trzecia nakłada na tę siatkę AI Act z rozporządzenia 2024/1689. Część czwarta i piąta obsługują NIST AI RMF i ISO/IEC 42001. Część szósta to master crosswalk, gdzie każda zdolność agenta spotyka każdy z czterech reżimów w jednej tabeli. Część siódma wprowadza koncepcje, które dla wielu polskich compliance officerów będą nowe: policy-as-code, tool gating, memory scoping, delegation controls oraz audit envelopes i decision envelopes. Część ósma to katalog kontroli w pięciu warstwach stacku. Część dziewiąta - moja ulubiona - zostawia uczciwie otwarte pytania, na które autor sam odpowiedzi nie ma.
Jednym zdaniem: to pierwszy dokument, który ustawia agentyczne AI w ramie czterech reżimów jednocześnie, a nie jednego. I który zauważa, że między tymi reżimami zachodzi compound effect.
Recenzja właściwa
Dryft między rolami, czyli dlaczego ROPA nie wystarczy
Kenney identyfikuje cztery strukturalne przyczyny, dla których tradycyjne mapowania RODO nie łapią agentów. Najważniejsza, w moim odczuciu, to controller-processor drift. Jedna sesja agenta może w ciągu minut przechodzić przez różne role: organizacja wdrażająca jest administratorem wobec użytkownika, staje się podmiotem przetwarzającym, gdy agent woła API w imieniu klienta, a przy koordynacji z drugim agentem może stać się współadministratorem ad hoc. Szablon rejestru czynności przetwarzania w większości polskich kancelarii zakłada stabilną rolę. Klasyczne RCPD jest rzeźbione w kamieniu, a agent porusza się po tablicy jak magnes.
W rozmowach z kancelariami, z którymi pracujemy, to jest punkt, który zwykle zostaje pominięty. Pyta się o ochronę danych osobowych klientów, o powierzenie, o umowę z dostawcą. Nie pyta się o to, co się dzieje w ciągu jednej sesji, gdy agent LLM woła narzędzie zewnętrzne, to zwraca enrichment, a enrichment pociąga kolejne narzędzie. Każdy z tych kroków może być powierzeniem, administratorem albo nowym współadministratorem. Kenney proponuje defensywny default: operator orkiestratora jako administrator główny, atestacje ról per narzędzie w rejestrze narzędzi, gotowość do reklasyfikacji. Dobra propozycja. Warta polskiego tłumaczenia.
Compound regime, czyli dlaczego AI Act nie jest tylko dodatkiem do RODO
Trzecia część tekstu zawiera tabelę, którą chciałbym zobaczyć w każdym polskim materiale o AI Act. Kenney pokazuje, że tam, gdzie przetwarzanie danych osobowych łączy się z systemem wysokiego ryzyka, obowiązki z RODO i z AI Act wzajemnie się zaostrzają, nie tylko sumują. DPIA z art. 35 RODO przestaje być dokumentem jednorazowym i staje się living artifact, odświeżanym przez cykl zarządzania ryzykiem z art. 9 AI Act. Transparentność z art. 12-14 RODO spotyka się z art. 50 AI Act i wymaga jednej ujednoliconej architektury informacyjnej. Decyzje zautomatyzowane z art. 22 RODO wchodzą w reżim human oversight z art. 14 AI Act, a rezultatem jest decision envelope: artefakt obsługujący oba reżimy jednocześnie.
To jest dokładnie ta warstwa, której brakuje w większości polskich prezentacji o AI Act. AI Act, który obowiązuje od 2 lutego 2026, pojawia się u nas zwykle jako osobny byt - osobne slajdy, osobna checklista, osobny szkoleniowiec. Nie jest osobnym bytem. Jest warstwą, która dokłada się do RODO i usztywnia je.
Kto tego nie zobaczy, zrobi podwójną pracę albo podwójnie ją źle.
Art. 22 RODO i low-friction oversight
Osobny akapit dla art. 22. Kenney powołuje się na wyrok Trybunału Sprawiedliwości w sprawie SCHUFA (C-634/21) i ostrzega, że rubber-stamp review nie wyprowadza systemu spod art. 22. Agent, który generuje pismo, a partner klika "wyślij" bez rzeczywistej analizy merytorycznej, nie przestaje być "solely automated". Autor proponuje mierzyć intensywność nadzoru: override rate, czas decyzji, częstotliwość korekty. Low-friction oversight traktować jak brak nadzoru.
Z perspektywy polskiej kancelarii to jest temat, który zaraz będzie gorący. Spora część wdrożeń asystentów AI w kancelariach opiera się na modelu "człowiek w pętli" rozumianym jako człowiek, który widzi output i go akceptuje. Autor zostawia w rozdziale z otwartymi pytaniami punkt, którego nie da się uniknąć: orzecznictwo pójdzie w stronę rozszerzania art. 22, nie zwężania. Pytanie nie brzmi, czy polski sąd administracyjny albo UODO pójdzie tą drogą. Pytanie brzmi, kiedy.
Czego autor nie dostrzegł, a co widzi polska kancelaria
Przy całym szacunku do rzetelności pracy, Kenney pisze z perspektywy organizacji, która ma zespół compliance, dział bezpieczeństwa i budżet na audit envelope jako oddzielny artefakt. Jego katalog kontroli z rozdziału ósmego (AG-L1-01 do AG-L5-XX) czyta się świetnie w kontekście firmy z ponad stoma osobami. Co z kancelarią piętnastoosobową w Katowicach, która właśnie kupiła agenta do researchu orzecznictwa i pilotuje go na trzech sprawach?
Odpowiedź brzmi: większość tych kontroli w pełnej wersji jest poza zasięgiem. Ale podzbiór jest wykonalny i daje nieproporcjonalnie duży zwrot. Minimalna wersja, którą każda kancelaria powinna mieć, zanim uruchomi agenta produkcyjnie: rejestr narzędzi z jurysdykcją hostingu i mechanizmem transferu, tiered retention dla logów sesji z krótszym TTL dla reasoning traces i dłuższym dla audit envelopes, tool gating per sprawa i per zespół, documented instructions w formie wersjonowanego system promptu. To nie jest jeszcze zgodność z Kenneyem w pełnej wersji. To jest minimum, po którym da się w ogóle rozmawiać o zgodności.
Drugi punkt, w którym wywód Kenneya nabiera dla polskiej kancelarii innej wagi, to memory erasure and model-embedded personal data. Autor otwarcie zostawia to jako open question - wymazanie z wag modelu nie jest jeszcze dojrzałą techniką. Dla kancelarii ten problem łączy się z czymś, czego autor nie porusza: z tajemnicą zawodową. Jeżeli informacje objęte tajemnicą adwokacką albo radcowską trafiają do pamięci długoterminowej agenta, a pamięć długoterminowa jest parametryczna, to prawo klienta do zakończenia współpracy i usunięcia jego śladu napotyka tę samą ścianę, którą napotyka prawo do bycia zapomnianym z art. 17 RODO. Odpowiedź Kenneya - disclosure limitów w privacy notice plus credible retraining pathways - w kontekście tajemnicy zawodowej jest niewystarczająca. To otwarty problem, który polski compliance będzie musiał rozwiązać niezależnie od orzecznictwa EROD.
Co z tego wynika
Tekst Kenneya to najuczciwszy dokument o agentach AI dla profesji compliance, jaki czytałem w ostatnim półroczu. Nie obiecuje, że coś jest proste. Nie sprzedaje produktu. Mówi, gdzie orzecznictwo jeszcze się nie uformowało, i daje praktykom defensywne defaulty do czasu, aż się uformuje. To rzadki rejestr.
Materiał polecam w trzech kontekstach. Partnerom kancelarii, którzy pilotują agenty legal-tech i chcieliby zobaczyć mapę obowiązków, nie pojedyncze slajdy. Compliance officerom w działach prawnych dużych spółek, które wdrażają agentów do obsługi klienta lub do automatyzacji decyzji. IT directorom w sektorze regulowanym, którzy mają obowiązek uzgodnić architekturę agentową z audytem.
Jednej grupie nie polecam: osobom, które szukają szybkiej listy kontrolnej. Kenney jej nie daje, i bardzo dobrze.
Agentyczne AI aktywuje jednocześnie RODO, AI Act, NIST AI RMF i ISO/IEC 42001, a te reżimy wzajemnie się zaostrzają, nie sumują. Obowiązki compliance zmieniają się w ciągu jednej sesji agenta, więc szablon ROPA z 2019 roku nie wystarczy. Zanim wdrożysz agenta produkcyjnie, wprowadź cztery minimum: rejestr narzędzi z jurysdykcjami, tiered retention logów, tool gating per sprawa i wersjonowane system prompty jako documented instructions z art. 28 RODO.