Compliance officer kancelarii regionalnej przysłał mi w zeszłym tygodniu listę. Wynikała z próby napisania DPIA dla pilotażu asystenta AI. Pięć kolumn, osiemnaście wierszy, większość pozycji w cudzysłowach. "Prywatność" pojawiła się trzy razy - raz jako wyciek danych treningowych, raz jako masowa inwigilacja przez państwo, raz jako profilingowy dobór oferty marketingowej. W trzech różnych dokumentach referencyjnych, w trzech różnych znaczeniach. Compliance officer zapytał grzecznie, którą z tych "prywatności" ma wpisać do analizy z art. 35 RODO.

Odpowiedzi nie miałem, bo nikt jej nie ma. Miałem za to link. MIT FutureTech, projekt Petera Slattery'ego i zespołu, publikuje od 2024 roku rzecz, której branży brakowało bardziej, niż się branża do tego przyznawała. Jedno repozytorium. Siedemdziesiąt cztery taksonomie. Tysiąc siedemset dwadzieścia pięć ryzyk. Nie kolejna klasyfikacja. Atlas wszystkich klasyfikacji.

O czym jest ten materiał

Peter Slattery z MIT FutureTech wraz z zespołem opublikował w sierpniu 2024 roku AI Risk Repository - interaktywną, publicznie dostępną bazę pod adresem airisk.mit.edu. Metodologia wykracza poza typowy literature review. Siedemnaście tysięcy dwieście osiemdziesiąt osiem artykułów przesłano przez ASReview, narzędzie do wspomaganego uczeniem maszynowym screeningu literatury akademickiej. Z tego pola wydobyto siedemdziesiąt cztery istniejące taksonomie ryzyka AI. Każdą rozmontowano do pojedynczych pozycji i zebrano tysiąc siedemset dwadzieścia pięć unikalnych ryzyk w jednej bazie.

Repozytorium zawiera dwie taksonomie współistniejące. Taksonomia przyczynowa pyta, kiedy i jak ryzyko powstaje: kto jest podmiotem (człowiek czy system), jaka była intencja (celowa czy niecelowa) i kiedy się materializuje (przed wdrożeniem czy po). Taksonomia domenowa pyta, co konkretnie zostało naruszone: dyskryminacja i toksyczność, prywatność i bezpieczeństwo, dezinformacja, złośliwi aktorzy i nadużycia, interakcja człowiek-komputer, systemy społeczno-gospodarcze, bezpieczeństwo i ograniczenia samej AI. Siedem domen, dwadzieścia cztery subdomeny.

Najbardziej niewygodne liczby: 42% zidentyfikowanych ryzyk przypisano autonomicznemu działaniu systemu AI, 38% decyzjom ludzkim na etapie projektowania i wdrażania. Rozkład intencjonalności jest zaskakująco symetryczny - około trzydzieści pięć procent ryzyk ma charakter niecelowy. Co obala popularny mit, że zagrożenie AI sprowadza się do złośliwych aktorów.

Dziewięćdziesiąt trzy procent wszystkich dokumentów źródłowych powstało po 2020 roku. To nie jest biblioteka wiedzy uporządkowanej przez lata praktyki. To fotografia dziedziny, która rozsypała się szybciej, niż zdążyła się zorganizować.

Jednym zdaniem: to nie jest artykuł o ryzyku AI. To mapa wszystkich artykułów o ryzyku AI, zebrana i spójnie opisana po raz pierwszy.

Recenzja właściwa

Problem jingle-jangle w DPIA z kwietnia 2026

Psychologia zna od dziesięcioleci zjawisko jingle-jangle. Jingle: dwa różne zjawiska nazywa się tym samym słowem. Jangle: to samo zjawisko nazywa się dwoma różnymi słowami. MIT odnajduje oba w repozytoriach ryzyka AI z taką regularnością, że staje się to problemem systemowym, a nie anegdotycznym.

Weźmy słowo "prywatność". W jednej taksonomii - wyciek danych treningowych, w drugiej - masowa inwigilacja, w trzeciej - profilowanie. W czwartej - ponowna identyfikacja po deanonimizacji. Compliance officer piszący DPIA dla wdrożenia asystenta AI musi rozstrzygnąć, które z nich jest ryzykiem z art. 35 RODO. Bez wspólnej taksonomii rozstrzyga to intuicyjnie, przez analogię do jednego z przeczytanych dokumentów. Jeśli czytał inny, zapisze inne ryzyko.

Drugi kierunek jest równie niewygodny. Reward hacking, specification gaming, prawo Goodharta, mesa-optimization - cztery terminy, to samo zjawisko. System AI optymalizujący mierzalne wskaźniki zamiast zamierzonych celów. W piśmiennictwie akademickim noszą różne nazwy, bo pochodzą z różnych tradycji teoretycznych. W praktyce compliance widzi się z nimi na jednym spotkaniu i nie wie, że to ten sam problem.

MIT nie rozwiązuje tego raz na zawsze. Pokazuje natomiast, że problem istnieje, ma rozmiar i da się go zmapować. Wspólna taksonomia to warunek wstępny rzetelnego audytu. Jeśli mamy audytować wdrożenie AI w kancelarii, a nasz framework używa jednego słownika, framework dostawcy drugiego, framework regulatora trzeciego, a wewnętrzna polityka kancelarii czwartego, audyt stanie się ćwiczeniem z tłumaczenia, a nie z ochrony.

Trzynaście procent i sześćdziesiąt dwa procent

Najciekawsza liczba w raporcie to nie procent autonomicznego działania AI. Najciekawsza liczba to rozkład momentu, w którym ryzyko się materializuje. W istniejących, przeanalizowanych przez MIT ramach zaledwie 13% ryzyk dotyczy etapu przed wdrożeniem. Sześćdziesiąt dwa procent dotyczy fazy po wdrożeniu, a siedemdziesiąt pięć procent ram skupia się na bezpieczeństwie systemów już działających.

Znakomita większość komercyjnie dostępnych narzędzi audytowych jest zbudowana wokół monitorowania produkcji. Tymczasem sporo ryzyk, z którymi RODO i AI Act każą się mierzyć, rodzi się znacznie wcześniej.

Dla compliance officera to dane dramatyczne. Wybór danych treningowych, sposób fine-tuningu, decyzja o cloudowym vs lokalnym hostingu, parametryzacja modelu - wszystko to ustawia blast radius, zanim pierwszy partner napisze w promptcie "zanalizuj ten kontrakt". DPIA, które ogranicza się do opisania monitorowania incydentów, opisuje jedną trzecią ryzyka. Pozostałe dwie trzecie zostają w fazie projektowania, którą dostawca zwykle traktuje jako black box i odsyła do własnej dokumentacji compliance - która, jak pokazuje MIT, rzadko trzyma się tego samego słownika co regulator.

Compound regime po raz szósty

Motyw wraca. TOM 001 (Kenney) zbudował cross-walk między czterema frameworkami regulacyjnymi. TOM 005 (Levy) pokazał, że amerykańskie Model Rules rozumieją tajemnicę zawodową, ale nie rozumieją RODO. TOM 006 (MindForge) dał singapurski playbook operacyjny. TOM 007 (CETaS) dał brytyjski handbook kryzysowy. TOM 008 (Bird & Bird) opisał AI Act dziesięć miesięcy przed wejściem w życie.

MIT wnosi szósty głos, tym razem z warstwy, której żaden z poprzednich autorów nie tknął. Repozytorium jest meta-taksonomią. Nie mówi, co RODO nakazuje, i nie mówi, co zabrania AI Act. Mówi, jakie w ogóle ryzyka można w AI wyróżnić - niezależnie od tego, pod jaki rygor prawny trafią później. To warstwa opisowa pod warstwą normatywną.

Dlaczego to istotne. AI Act używa własnej klasyfikacji ryzyka (zakazy z art. 5, systemy wysokiego ryzyka z Aneksu III, GPAI z art. 51-55). RODO używa własnej (wysokie ryzyko dla praw i wolności z art. 35). NIST AI RMF ma własną. ISO/IEC 42001 ma własną. Każda organizacja wdrażająca AI w Europie w 2026 musi jednocześnie zarządzać czterema różnymi słownikami. MIT nie narzuca piątego. Pokazuje, że pod tymi czterema słownikami leży ten sam krajobraz zdarzeń, ludzi, systemów i czasu - po prostu pocięty cięciami innej natury. Cross-walk między nimi staje się możliwy dopiero wtedy, gdy zobaczy się krajobraz.

Dla kancelarii pracującej z klientem objętym jednocześnie AI Act i RODO - co w 2026 oznacza niemal każdego klienta przetwarzającego dane osobowe przez narzędzie AI - ta warstwa jest operacyjnie cenna. Nie dlatego, że zwolni z obowiązku przejścia przez AI Act art. 26 albo RODO art. 35. Dlatego, że pozwoli zmapować te dwa obowiązki do wspólnej bazy ryzyk, zamiast robić dwa równoległe ćwiczenia, które nie przecinają się nigdzie poza tytułem dokumentu.

Czego autor dostrzegł, ale w przypisie

MIT jest uczciwy wobec własnych ograniczeń. Raport wprost wskazuje cztery obszary, w których istniejące ramy bezpieczeństwa pokrywają fragment zjawiska, a większość go ignoruje. Ryzyka interakcji wielo-agentowych - 7%. Prawa i dobrostan samych systemów AI - 3%. Ryzyka przed wdrożeniem, o których była już mowa - trzynaście procent. I ostatni, najmniej dyskutowany: trade-off risk, czyli ryzyko wynikające z niewdrożenia AI tam, gdzie mogłoby pomóc.

Ten ostatni MIT wymienia dość dyskretnie. W polskiej kancelarii jest tymczasem codziennością. Partnerzy, z którymi pracuję, coraz częściej zadają pytanie: jakie ryzyko podejmujemy, gdy rezygnujemy z wdrożenia asystenta AI do wstępnej kwerendy orzeczniczej, skoro konkurencja już to robi i obsługuje sprawę w godzinach, a my w dniach. To nie jest pytanie retoryczne. Klient jest coraz mniej cierpliwy dla odpowiedzi "prawnik musi sam przeczytać dwieście wyroków". Taksonomia MIT niestety nie ma dobrego miejsca dla tego typu ryzyka. Jest opisowa, a nie decyzyjna - pokazuje, co pójdzie źle, gdy wdroży się AI, ale niemal zupełnie milczy, co pójdzie źle, gdy się nie wdroży.

Drugi brak: repozytorium nie różnicuje skali organizacji. Ta sama taksonomia ma się aplikować do kancelarii piętnastoosobowej w Katowicach i do kancelarii międzynarodowej z dwoma tysiącami prawników. Ryzyka są teoretycznie te same, ale ich praktyczny ciężar zupełnie inny. W małej kancelarii jeden błąd modelu dotyka trzydzieści procent portfela. W wielkiej - dziesiątą procenta. Framework musi widzieć tę różnicę, a MIT jej jeszcze nie widzi.

Dla piętnastoosobowej kancelarii to nie jest ćwiczenie akademickie

Najprostszy test praktycznej użyteczności tego repozytorium wygląda tak. Kancelaria piętnastoosobowa, regionalna, dostaje ofertę od dostawcy asystenta AI. Oferta jest elegancka - trzydzieści slajdów, case studies, benchmarki, tabelka "RODO compliant". Zanim padnie podpis, partner odpowiedzialny za compliance bierze dwadzieścia cztery subdomeny MIT i zaznacza, do ilu z nich dostawca się ustosunkował.

Jeśli dostawca pokrywa explicite co najmniej domenę drugą (prywatność i bezpieczeństwo), piątą (interakcja człowiek-komputer, w tym nadmierne zaufanie modelu) i siódmą (bezpieczeństwo systemu i alignment) - rozmowę można kontynuować. Jeśli pokrywa tylko drugą, a o piątej i siódmej milczy - propozycja nie jest jeszcze gotowa do rozmowy. Jeśli pokrywa tylko "jesteśmy zgodni z RODO" i nic poza tym - rozmowa się kończy, bez zbędnego wyjaśniania.

To nie jest formalny framework. To jest pięciominutowy filtr, który pozwala odrzucić większość ofert jeszcze przed spotkaniem. W kancelarii, w której compliance officer jest częściowo etatowym partnerem, pięć minut to wartość.

Co z tego wynika

MIT nie wymyśla nowych ryzyk. Porządkuje to, czego branża już się nauczyła, często drogą bolesną, w siedemdziesięciu czterech niezależnych dokumentach - od frameworków Anthropic, Google DeepMind i OpenAI po wewnętrzne arkusze compliance officerów, których nazwiska nie padają. Polski kontekst wnosi do tego jedną rzecz, której airisk.mit.edu nie wnosi: umiejscowienie w porządku prawnym, który obowiązuje od 2 lutego 2026. Repozytorium nie powie, czy konkretne wdrożenie wymaga DPIA z art. 35 RODO albo analizy zgodności z AI Act art. 26. Powie za to, że jeśli twoja analiza nie mapuje się na dwadzieścia cztery subdomeny, to nie analizuje ryzyka - analizuje marketing dostawcy.

Dla kogo ten materiał. Dla każdego, kto pisze DPIA dla wdrożenia asystenta AI, konsultuje wdrożenie AI Management System (ISO/IEC 42001) albo przygotowuje kancelarię do audytu compliance w drugiej połowie 2026. Dla DPO, którzy chcą wyjść poza "zgodność z RODO" w ogólności i mieć wspólny słownik z CTO dostawcy. Dla regulatora, który chce operacjonalizować nieostre pojęcie "wysokiego ryzyka" z AI Act do konkretnych wymogów technicznych.

Dla kogo nie. Dla nikogo, kto szuka w tym gotowych odpowiedzi. MIT daje mapę. Teren trzeba przejść samemu.

Dla zarządu kancelarii w trzech zdaniach

Tysiąc siedemset dwadzieścia pięć ryzyk pokryte siedemdziesięcioma czterema istniejącymi taksonomiami - nikt do 2024 roku nie złożył tego w jednej bibliotece, a MIT FutureTech zrobił to i utrzymuje jako żywą bazę pod airisk.mit.edu. Trzydzieści osiem procent ryzyk przypisano decyzjom ludzkim, czterdzieści dwa procent autonomicznemu działaniu systemu - odpowiedzialność nie leży po jednej stronie, więc governance też nie może. DPIA, które nie mapuje się na dwadzieścia cztery subdomeny MIT, jest z definicji niekompletne i audytor to zobaczy wcześniej niż później.