Definicje operacyjne.
Kluczowe pojecia AI governance dla polskich kancelarii - definicje skrojone pod praktyke, nie pod akademie. Kazde haslo odnosi sie do konkretnego artykulu AI Act, artykulu RODO, normy ISO lub pracy naukowej recenzowanej w Bazie Wiedzy.
- EU AI Act
- Rozporzadzenie Parlamentu Europejskiego i Rady 2024/1689 z dnia 13 czerwca 2024 - pierwszy horyzontalny akt prawa unijnego regulujacy systemy sztucznej inteligencji. Klasyfikuje systemy wedlug ryzyka: zakazane praktyki (art. 5), systemy wysokiego ryzyka (Aneks III), ograniczone ryzyko i minimalne ryzyko. Dla kancelarii prawnych kluczowe: Aneks III pkt 8 (systemy w wymiarze sprawiedliwosci i demokratycznych procesach) oraz obowiazki dot. GPAI (art. 51-56).
- EU AI Act art. 14 - nadzor czlowieka
- Obowiazek projektowania systemow AI wysokiego ryzyka tak, by mogly byc skutecznie nadzorowane przez osoby fizyczne przez caly cykl zycia. Nadzor musi obejmowac: zrozumienie systemu, interpretacje wynikow, mozliwosc ignorowania lub odwracania decyzji, mozliwosc zatrzymania systemu. W kancelarii oznacza to walidacje prawnicza kazdego outputu AI przed wyslaniem do klienta - nie 'code review', tylko merytoryczne sprawdzenie przez osobe posiadajaca kompetencje.
- Compound regime
- Sytuacja, w ktorej kancelaria korzystajaca z AI podlega jednoczesnie wielu rownolegle obowiazujacym regimom prawnym: RODO (art. 5, 22, 28, 32, 35), EU AI Act, NIS2, DORA (przy klientach finansowych), kodeks etyki zawodowej. Kazdy regim ma wlasne metryki zgodnosci i wlasne dowody. Compliance nie mozna zaprojektowac warstwowo - architektura musi spelniac wszystkie warstwy jednoczesnie od dnia wdrozenia, a nie 'najpierw RODO, potem dostroimy pod AI Act'.
- Tajemnica adwokacka vs AI
- Art. 6 ust. 1 ustawy Prawo o adwokaturze oraz art. 19 ust. 1 ustawy o radcach prawnych zobowiazuja do zachowania w tajemnicy wszystkiego, o czym dowiedziano sie w zwiazku z udzielaniem pomocy prawnej. Wgranie dokumentu klienta do publicznego modelu AI (ChatGPT, Claude, Gemini) stanowi naruszenie tajemnicy, jesli dane sa retenowane badz wykorzystywane do treningu. Bezpieczna droga: API w infrastrukturze kancelarii, umowa powierzenia DPA, retention=0, polityka no-training, pelna sciezka audytowa.
- Agent AI (vs asystent AI)
- Agent AI to system zdolny do autonomicznego wykonywania wieloetapowych zadan z uzyciem narzedzi (tool use), pamieci i dostepu do zewnetrznych systemow. Asystent AI wymaga promptu na kazdym kroku i nie podejmuje decyzji operacyjnych. W kancelarii agent obsluguje caly workflow (research → draft → kontrola sprzecznosci → wysylka), asystent tylko pojedynczy prompt. EU AI Act traktuje agentow restrykcyjniej ze wzgledu na ich autonomie - art. 14 (nadzor), art. 50 (transparentnosc wobec uzytkownika).
- Suwerenne srodowisko danych
- Architektura, w ktorej dane kancelarii i klientow nie opuszczaja kontroli kancelarii - fizycznie (geograficznie, w wybranym regionie) i logicznie (brak treningu, brak retention, brak udostepnienia dostawcy). Komponenty: klucze szyfrowania zarzadzane przez kancelarie (AES-256-GCM), izolowany tenant, DPA z dostawca modelu, polityka no-training potwierdzona kontraktem, pelny audit log zapytan i odpowiedzi, procedura wycofania danych na zadanie.
- Human-in-the-loop (HITL)
- Wzorzec architektoniczny, w ktorym czlowiek wystepuje w petli decyzyjnej AI - nie tylko jako odbiorca wyniku, ale jako obligatoryjny walidator przed dzialaniem o istotnym skutku. Wymagany przez EU AI Act art. 14 dla systemow wysokiego ryzyka. Trzy warianty: human-in-the-loop (czlowiek waliduje kazdy krok), human-on-the-loop (monitoruje i moze interweniowac), human-in-command (definiuje granice autonomii agenta).
- Cognitive surrender (poznawcze poddanie sie)
- Zjawisko opisane przez Steven D. Shaw i Gideon Nave (Wharton, 2026) w pracy Thinking - Fast, Slow, and Artificial. Trzy preregistered eksperymenty, N=1372: partner kancelarii konsultujacy AI staje sie bardziej pewny siebie - nawet gdy AI sie myli. Gdy AI jest dokladne +25 pp trafnosci ludzkiej, gdy sie myli -15 pp. Pewnosc siebie rosnie nawet po bledzie AI. Implikacja dla kancelarii: HITL bez proceduralnego treningu krytycznego myslenia to teatr bezpieczenstwa.
- Stochastic parrot (stochastyczna papuga)
- Termin z pracy Bender, Gebru, McMillan-Major, Shmitchell, On the Dangers of Stochastic Parrots (FAccT 2021). Model jezykowy jest stochastyczna papuga: skutecznie laczy sekwencje slow na podstawie statystyki korpusu treningowego, ale nie rozumie znaczenia w sposob odnoszacy jezyk do intencji komunikacyjnych. Dla kancelarii: LLM moze poprawnie zacytowac doktryne prawnicza i rownie przekonujaco zhalucynowac nieistniejace orzeczenie - sam model nie rozroznia, ktora odpowiedz jest prawdziwa.
- Bifurkacja BigLaw
- Zjawisko dokumentowane od 2025 r.: podzial rynku prawnego na dwie warstwy - warstwa procesu (document review, due diligence, first draft, standardowe kontrakty), gdzie AI kompresuje ceny o 50-90%, oraz warstwa osadu (strategia, negocjacje, reprezentacja przed sadem, krytyczne opinie), gdzie stawki rosna +45% rocznie (record premiums Am Law 100 YoY). Polska kancelaria mid-size musi zdecydowac, ktora warstwe obsluguje - niemoznosc obslugi obu jednoczesnie bez celowej architektury i podzialu zespolu.
- RODO art. 22 - zautomatyzowane decyzje
- Osoba, ktorej dane dotycza, ma prawo, by nie podlegac decyzji opartej wylacznie na zautomatyzowanym przetwarzaniu (w tym profilowaniu), wywolujacej wobec niej skutki prawne lub w podobny sposob istotnie na nia wplywajacej. W kancelarii: wszelkie rekomendacje AI wplywajace na sytuacje prawna klienta wymagaja swiadomej decyzji prawnika (HITL), a nie stempla automatycznego. Dotyczy m.in. analizy ryzyka sporow, rekomendacji strategii procesowych, klasyfikacji zgodnosci umow.
- DPIA - Data Protection Impact Assessment
- Ocena skutkow dla ochrony danych wymagana przez art. 35 RODO, gdy przetwarzanie moze powodowac wysokie ryzyko dla praw i wolnosci osob fizycznych. Wdrozenie AI w kancelarii prawie zawsze wymaga DPIA (dane szczegolne kategorii, profilowanie, nowe technologie). AI Risk Repository MIT (recenzja w Bazie Wiedzy) dostarcza taksonomie 1725 ryzyk, ktora mozna mapowac 1:1 na sekcje DPIA - uzyteczne przy uzasadnieniu wobec PUODO.
- NIST AI Risk Management Framework
- Dobrowolny framework amerykanskiego NIST (publikacja AI 100-1) dla zarzadzania ryzykiem AI: cztery funkcje - Govern, Map, Measure, Manage. Nie jest prawem, ale de facto standardem w branzy technologicznej i coraz czesciej pojawia sie w umowach dostawcow AI jako wymog. Dla polskiej kancelarii uzyteczny jako kompatybilny szkielet dla EU AI Act art. 9 (system zarzadzania ryzykiem) - pozwala dostawcy pokazac dowody jednoczesnie pod oba regimy.
- ISO/IEC 42001
- Miedzynarodowy standard systemow zarzadzania AI (AI Management System, AIMS), opublikowany w grudniu 2023. Jedyny obecnie certyfikowalny standard w obszarze AI governance. Dla kancelarii prawnej certyfikacja ISO 42001 u dostawcy AI jest realnym argumentem due diligence w ocenie zgodnosci z EU AI Act art. 17 (quality management system) - skraca process weryfikacji i dokumentuje wybor dostawcy.
- Halucynacja modelu (LLM hallucination)
- Generowanie przez model jezykowy tresci, ktora jest faktycznie niepoprawna, ale przedstawiona z pewnoscia i stylem autentycznego zrodla. Szczegolnie niebezpieczna w kontekscie prawnym: zhalucynowane orzeczenia, nieistniejace paragrafy, bledne cytowania. Skala SHS (Muller, Holzinger, 2026) daje 10-pytaniowy instrument psychometryczny do pomiaru. Modele reasoning (o3, DeepSeek R1, Qwen Thinking) halucynuja narzedzia 2-10x czesciej niz ich wersje instruction-tuned (Yin et al., 2026).
- GPAI - General Purpose AI
- Model AI ogolnego przeznaczenia - zgodnie z EU AI Act rozdz. V (art. 51-56) model trenowany na szerokich danych, wykazujacy znaczna ogolnosc i zdolny do wykonywania szerokiego zakresu roznych zadan. Obejmuje wszystkie wielkie modele jezykowe (GPT-4/5, Claude Opus/Sonnet, Gemini). Obowiazki GPAI: dokumentacja techniczna, compliance z prawem autorskim, streszczenie danych treningowych, wspolpraca z AI Office. Dla modeli o ryzyku systemowym (obecnie >10^25 FLOPs) dodatkowe wymogi: model evaluation, adversarial testing, incident reporting.
- DJA Polska (Dobre Jakosci Adwokackich)
- Dobrowolny system znakowania kancelarii adwokackich w Polsce, rozwijany od 2025 r. Czesc kryteriow dotyczy AI: czy kancelaria ma polityke uzycia AI, czy uzywa suwerennego srodowiska, czy wdrozyla HITL, czy prowadzi rejestr uzycia AI z metrykami jakosci. MateMatic publikuje materialy pomocnicze do przygotowania kancelarii do tego standardu - w aktualnosciach i w programie Akademii.