EU AI Act z 2024 roku, Framework Convention on Artificial Intelligence z tego samego roku, CEPEJ Ethical Charter sprzed sześciu lat, klasyczna Konwencja 108+ o ochronie danych. Każdy z tych dokumentów próbuje powiedzieć, jak AI ma się zachowywać w sąsiedztwie praw człowieka. Każdy mówi to z własnej perspektywy. Handbook Council of Europe wydany w kwietniu 2026 jest pierwszym, który próbuje powiedzieć to wszystko naraz, w jednej książce, z jednym głosem.
Steering Committee for Human Rights (CDDH) jest międzyrządowym ciałem Rady Europy. Pisze handbooki wtedy, gdy uważa, że krajowe administracje, sądy i ciała regulacyjne potrzebują pojedynczego punktu odniesienia. Kwietniowe wydanie poświęcone AI nie wymyśla nowego prawa. Czyta istniejące - artykuł 6 Europejskiej Konwencji Praw Człowieka, artykuł 8 (życie prywatne), artykuł 14 (zakaz dyskryminacji), Europejską Kartę Społeczną - przez pryzmat konkretnych systemów AI, które już są używane w Europie.
O czym jest ten materiał
Handbook ma cztery części. Część pierwsza - wstęp. Część druga - słownik pojęć technicznych: AI system, autonomy, adaptiveness, transparency, explainability, interpretability. Definicje są zharmonizowane z AI Act i OECD Recommendation on Artificial Intelligence (OECD/LEGAL/0449, w wersji zaktualizowanej z 2024 roku) - tak, by kraje członkowskie pracowały na tej samej terminologii. Część trzecia mapuje generalne zagadnienia praw człowieka i AI, w tym 3.1.4 (zasady ECHR i ESC w kontekście AI: human dignity, personal autonomy, lawfulness, proportionality, fair balance) oraz 3.2 (Business and Human Rights). Część czwarta to analiza sektorowa w ośmiu obszarach: administracja wymiaru sprawiedliwości, organy ścigania i bezpieczeństwo publiczne, kontrola graniczna, procesy demokratyczne, opieka zdrowotna, opieka społeczna, edukacja, rynek pracy.
Sekcja, od której Handbook otwiera analizę sektorową, to 4.1 Administration of Justice. Wybór nieprzypadkowy. CDDH cytuje European Cyberjustice Network of the Council of Europe: na moment publikacji udokumentowano sto sześćdziesiąt systemów AI używanych lub pilotowanych w europejskich systemach sprawiedliwości. Liczba rośnie z miesiąca na miesiąc.
Pięć kluczowych kategorii, które Handbook wymienia w paragrafie 90 (paragraf 91 zaznacza, że istnieją też dalsze zastosowania - na przykład tłumaczenie, transkrypcja czy zapis przebiegu rozprawy - mogące dotykać artykułu 6):
- AI-facilitated search, review, analysis i Large-Scale Discovery - przeszukiwanie orzecznictwa, dokumentów procesowych, e-discovery na dużych wolumenach.
- Decision support - streszczanie tekstów, ekstrakcja informacji z aplikacji, kalkulacja wymiarów kar i odszkodowań, wytyczne. Handbook zaznacza wprost: w pełni automatyczne podejmowanie decyzji bez nadzoru ludzkiego nie zostało dotychczas raportowane w Europie.
- Prediction of judicial outcomes - systemy uczące się z dużych zbiorów danych, identyfikujące wzorce po to, by przewidywać wyniki nowych spraw.
- Online dispute resolution (ODR) - rozwiązywanie sporów z ograniczonym udziałem człowieka, głównie pozasądowe, ale i sądowe.
- Przydzielanie spraw i powoływanie sędziów - alokacja spraw do sądów, ustalanie poziomów priorytetu, wsparcie procedur nominacyjnych.
Handbook nie jest zaskoczony stanem rzeczy. Handbook po prostu liczy.
Recenzja właściwa
Trzy wektory dla kancelarii
Czytanie sekcji 4.1 z perspektywy polskiej kancelarii ujawnia, że AI w sądzie nie jest jednym zagadnieniem - rozkłada się na trzy wektory. Pierwszy: sędzia korzysta z AI w analizie sprawy. Drugi: jedna ze stron procesowych dysponuje narzędziem AI, druga nie. Trzeci: prokuratura w postępowaniu karnym sięga po predictive tools, których broniący adwokat nie używa i wcześniej nie widział. Każdy z tych wektorów uruchamia inne podpunkty artykułu 6, każdy wymaga innej taktyki procesowej, każdy generuje inne ryzyko zawodowe.
To nie jest ramka, którą Handbook formułuje wprost - formułuje ją pośrednio, w trzech różnych miejscach. Paragraf 96 ostrzega, że bias w systemach AI bywa trudny do dostrzeżenia przez sędziego ze względu na uogólnione przekonanie o algorytmicznej i matematycznej neutralności (mówi o sędzim). Paragraf 100 stwierdza, że w kontekście użycia systemów AI strona powinna w każdej sprawie być świadoma roli systemu w postępowaniu, kryteriów jego działania i możliwego wpływu na wynik (mówi o równowadze procesowej między stronami). Paragraf 98 opisuje ryzyko algorytmicznego uprzedzenia w predictive tools używanych przez prokuraturę i sądy karne (mówi o stronie oskarżenia). Tłumaczenie autorskie z trzech paragrafów.
Trzy wektory są w tekście Handbooku. Tutaj wybieram je i nadaję im imię.
Wektor pierwszy: sędzia używa AI
Paragraf 96 Handbooku wprowadza koncept, którego dotychczas brakowało w polskim dyskursie: algorytmiczna standardyzacja decyzji sądowych. W tłumaczeniu autorskim z paragrafu 96: sędziowie regularnie korzystający z systemów wspomagania decyzji mogą czuć się zmuszeni do podążania za rekomendacjami AI ze względu na postrzeganą "wyższość" - szczególnie w systemach, w których kadencja jest niestała i podlega głosowaniu, lub w których odpowiedzialność osobista sędziego (dyscyplinarna, cywilna lub nawet karna) jest prawdopodobna do poniesienia.
Polski sędzia nie podlega głosowaniu. Polski sędzia podlega odpowiedzialności dyscyplinarnej, w pewnych kategoriach spraw cywilnej (art. 417 KC w sprawach o szkody Skarbu Państwa) i w marginalnych przypadkach karnej. Druga przesłanka dotyczy zatem polskiej kancelarii bezpośrednio. Sędzia, który wie, że może być pociągnięty do odpowiedzialności za błąd merytoryczny, ma silny motyw, by - w sytuacji wątpliwości - zaufać AI bardziej niż własnej intuicji. Tym mocniej, że AI dostarcza pretekst: "system pokazał, że tak się rozstrzyga".
Naruszony zostaje wówczas podpunkt artykułu 6 mówiący o niezależności i bezstronności tribunalu. Tribunal ma być - w tłumaczeniu paragrafu 95 - niezależny zarówno od innych gałęzi rządu, jak i od stron sprawy. Algorytm wytrenowany na historycznych danych orzeczniczych nie jest stroną w sensie procesowym, ale jest czynnikiem zewnętrznym wobec własnego osądu sędziego i wpływa na decyzję w sposób ustrukturyzowany. Sędzia, który podąża za AI bez aktywnej, krytycznej oceny, może spełniać formalny wymóg niezawisłości - ale niekoniecznie jego sens.
Z perspektywy adwokata strony przegranej fakt, że sędzia korzystał z AI w analizie sprawy, nie jest neutralny. Jest okolicznością, która może - w zależności od przypadku - być przedmiotem zarzutu apelacyjnego dotyczącego niezawisłości lub uzasadnienia wyroku. Handbook tego nie mówi wprost, ale wskazuje strukturę argumentacji.
Wektor drugi: jedna strona ma AI, druga nie
Paragraf 99 Handbooku przypomina, że equality of arms - "równość broni" w klasycznym polskim tłumaczeniu, choć uważam, że "równowaga procesowa" oddaje sens lepiej - jest nieodłączną cechą rzetelnego procesu. Wymaga, by każda strona miała rozsądną możliwość przedstawienia swojej sprawy w warunkach, które nie stawiają jej w sytuacji niekorzystnej w stosunku do oponenta.
Paragraf 100 wyciąga z tego wniosek operacyjny: w kontekście AI strona powinna być świadoma roli systemu w postępowaniu, kryteriów jego działania i możliwego wpływu na wynik. To mocna sugestia. W praktyce oznacza, że jeżeli jedna strona w postępowaniu cywilnym używa zaawansowanego systemu AI do analizy materiału dowodowego, a druga strona o tym nie wie i nie ma porównywalnych narzędzi, powstaje sytuacja, w której równowaga procesowa może być zachwiana.
Kalibracja terminologii, zanim ktoś mnie poprawi - Handbook nie mówi, że jakiekolwiek użycie AI jest naruszeniem equality of arms. Mówi coś znacznie bardziej delikatnego: użycie AI staje się okolicznością do oceny przy badaniu, czy proces był rzetelny. Standardy EKPC są ewolutywne (doktryna "living instrument", omówiona w paragrafie 34 Handbooku), więc to, co dzisiaj jest niepokojem teoretycznym, jutro może być argumentem z konkretnego orzeczenia ETPC.
Operacyjny wniosek dla kancelarii. Pierwsze: jeżeli używasz AI w postępowaniu, dokumentuj to. Nie po to, żeby się chwalić, tylko po to, żeby w razie zarzutu drugiej strony mieć materiał do obrony. Drugie: jeżeli druga strona używa AI w sposób, który wpływa na materiał dowodowy lub argumentację - na przykład AI-facilitated discovery na waszych dokumentach - masz prawo, a w niektórych konfiguracjach obowiązek wobec klienta, tego dotknąć. Trzecie: ta dyskusja jeszcze nie dotarła do polskich sądów. Ale dotrze.
Wektor trzeci: prokuratura sięga po predictive tools
Paragrafy 97 i 98 dotyczą domniemania niewinności w postępowaniu karnym. Handbook przypomina: domniemanie niewinności wymaga, by sędziowie podchodzili do swoich obowiązków bez uprzedniej koncepcji winy, ciężar dowodu spoczywał na oskarżeniu, a wątpliwości rozstrzygano na korzyść oskarżonego.
W tłumaczeniu autorskim z paragrafu 98: w wyniku algorytmicznego uprzedzenia potencjalne włączenie do systemów AI zmiennych takich jak historia kryminalna i sytuacja rodzinna oznacza, że wynik sprawy danej osoby może być uwarunkowany dotychczasowym zachowaniem określonej grupy, bez właściwej uwagi dla specyficznego tła, motywacji i ostatecznie winy oskarżonego. Handbook dodaje, że użycie predictive tools przez sędziów w sprawach karnych jest w Europie bardzo rzadkie, ale w innych jurysdykcjach istnieją udokumentowane przykłady negatywnych skutków (paragraf 98 i przypisy 175-176, odsyłające do CEPEJ Ethical Charter).
Bardzo rzadkie. Czyli nie zerowe. Polski adwokat broniący w sprawie karnej, w której prokuratura skorzystała z jakiegokolwiek narzędzia AI - czy to w analizie połączeń telekomunikacyjnych, czy w typowaniu sprawcy z monitoringu, czy w ocenie ryzyka recydywy przy wniosku o tymczasowe aresztowanie - powinien Handbook mieć na biurku. Paragraf 98 nadaje się do bezpośredniego cytowania we wniosku procesowym, bez parafrazy.
Kancelaria nie tylko w sądzie: 3.2 Business and Human Rights
Sekcja 3.2 Handbooku traktuje przedsiębiorstwa jako adresatów zobowiązań w obszarze praw człowieka. Powołuje się na UN Guiding Principles on Business and Human Rights, OECD Guidelines for Multinational Enterprises oraz Rekomendację Komitetu Ministrów Rady Europy CM/Rec(2016)3 w sprawie praw człowieka i biznesu (paragraf 61 Handbooku). Kancelaria adwokacka jest przedsiębiorstwem. Kancelaria, która używa AI w pracy z danymi osobowymi klienta, w pracy z materiałem objętym tajemnicą zawodową, w pracy z dokumentami procesowymi - znajduje się w pełnym zakresie tych ramek.
Konkretnie: pozytywne obowiązki państwa (3.2.1) przekładają się stopniowo na zobowiązania pracodawców, w tym kancelarii. Paragraf 61 Handbooku - parafrazując - wymienia obowiązek zapobiegania naruszeniom praw człowieka, prowadzenia niezależnego i bezstronnego śledztwa oraz zapewnienia środków naprawczych ofiarom, w tym wówczas gdy sprawcami są podmioty prywatne. AI Act jest jednym z instrumentów tego obowiązku. Krajowe przepisy o ochronie pracowników przed AI, w tym ewentualne polskie regulacje sektorowe, są drugim. Kancelaria jest jednocześnie adresatem regulacji - jako pracodawca, który może używać AI wobec własnych pracowników - i podmiotem doradzającym klientowi, który również jest adresatem.
Sekcja 3.2.2 dotyczy bilansowania praw przedsiębiorstwa, w tym wolności prowadzenia działalności (Article 16 Karty Praw Podstawowych UE) i ochrony własności (Article 1 Protokołu 1 ECHR), z prawami osób, na które AI tych przedsiębiorstw ma wpływ. Handbook nie rozstrzyga tego balansu w sposób ostateczny. Rozstrzyga go zasadą proporcjonalności, którą znamy z innych obszarów prawa.
Czego Handbook nie pokrywa
Handbook nie jest podręcznikiem prawa krajowego. Polska kancelaria, która chce z niego korzystać, musi wykonać własną pracę przekładu na ustawę o ochronie danych osobowych, ustawę o radcach prawnych, Prawo o adwokaturze, Kodeks Etyki Adwokackiej, Kodeks postępowania cywilnego i Kodeks postępowania karnego. Handbook daje europejski sufit. Krajowy kontekst mieści się w nim, ale nie jest w nim opisany.
Drugi brak: Handbook ostrożnie obchodzi się z generative AI. Większość uwag dotyczy systemów predykcyjnych, klasyfikacyjnych i decision-support, czyli klas, które dominowały w europejskich sądach do połowy poprzedniej dekady. LLM-y, w 2026 roku znacznie szerzej używane w codziennej praktyce kancelarii niż klasyczne systemy AI, są w Handbooku obecne raczej przez ramki ogólne (transparency, explainability, human oversight) niż przez sektorową analizę.
Co z tego wynika
Handbook CDDH jest dla polskiej kancelarii skondensowanym podkładem, którego dotychczas nie było. Każdy z czterech instrumentów europejskiego AI governance był znany osobno - EKPC od trzech dekad, AI Act od półtora roku, Framework Convention on AI od kilkunastu miesięcy, CEPEJ Ethical Charter od sześciu lat. Zestawienia ich w jednej narracji sektorowej, w której każdy artykuł Konwencji ma swój adres operacyjny w konkretnej sali rozpraw, gabinecie sędziowskim albo biurze adwokackim - dotąd brakowało.
Dla kogo ten materiał. Dla adwokata prowadzącego sprawy karne, który od dziś musi się liczyć z faktem, że narzędzia analityczne prokuratury są materiałem do oceny w kontekście domniemania niewinności. Dla radcy prawnego specjalizującego się w obsłudze biznesu, który ma klientom doradzać o EU AI Act i Framework Convention on AI. Dla wewnętrznego compliance officera, który układa polityki AI na poziomie kancelarii. Dla każdego, kto występuje przed sądem w 2026 roku i kogo druga strona może - choć nie musi - wesprzeć systemem AI.
Dla kogo nie. Dla nikogo, kto szuka instrukcji obsługi konkretnego narzędzia. Handbook nie wymienia GPT, Claude'a ani polskich narzędzi LegalTechu. Pracuje na poziomie klas systemów - "AI-facilitated search", "decision support", "predictive tools" - i pracę przekładu na konkretne narzędzie zostawia czytelnikowi.
Council of Europe (CDDH) wydał w kwietniu 2026 podręcznik, który mapuje sto sześćdziesiąt systemów AI używanych w europejskich sądach do konkretnych podpunktów artykułu 6 EKPC, traktuje przedsiębiorstwa jako adresatów zobowiązań praw człowieka w sekcji 3.2 i daje polskiej kancelarii materiał argumentacyjny w trzech wektorach: gdy sędzia korzysta z AI, gdy kancelaria korzysta z AI, gdy strona przeciwna korzysta z AI. Każdy z tych wektorów uruchamia inne podpunkty Article 6 - niezależność tribunalu, equality of arms, domniemanie niewinności, uzasadnienie wyroku - i każdy wymaga osobnej taktyki procesowej. Handbook nie zastępuje krajowego kontekstu, ale wyznacza europejski poziom odniesienia, do którego krajowa praktyka będzie się musiała ułożyć w kolejnych miesiącach.