UNICRI otwiera Executive Summary zdaniem, którego polska kancelaria nie powinna pomijać: aby osiągnąć legitymację i skuteczność, organy ścigania potrzebują zaufania publicznego - wymóg, którego waga rośnie, gdy agencje ścigania zaczynają używać AI. Tłumaczenie autorskie. Mechanika tego stwierdzenia jest dwustronna. Z jednej strony policja używająca AI bez transparentności traci publiczne przyzwolenie na nowe technologie. Z drugiej - obywatel, oskarżony, podejrzany lub strona postępowania karnego ma w 2026 roku konkretny tekst, do którego może się odwołać, gdy żąda od organu odpowiedzi na pytanie "jakiej AI tu użyto, w jakim celu i według jakich reguł".

Polska policja, prokuratura i służby specjalne sięgają po narzędzia AI w szerokim zakresie - od miejskich systemów monitoringu wzbogaconych o analitykę, przez narzędzia OSINT, po analitykę baz danych telekomunikacyjnych - choć systematyczna publiczna dokumentacja tych wdrożeń pozostaje skąpa. Każde takie zastosowanie spotyka się w pewnym momencie z postępowaniem sądowym, w którym strona ma uprawnienie wiedzieć, jak materiał dowodowy powstał. UNICRI mówi, jak ta odpowiedź powinna wyglądać po stronie organu. Polska kancelaria czyta to z drugiej strony stołu.

O czym jest ten materiał

Raport ma trzy rozdziały merytoryczne plus Executive Summary, Introduction, Conclusion i aneks metodologiczny:

  • Rozdział 1 - Trust and transparency in AI and law enforcement. Czym jest zaufanie publiczne, dlaczego ma znaczenie, co dzieje się z zaufaniem, gdy agencje wprowadzają AI. Definicja transparentności (jako otwartość i jasność komunikacji o tym, jakie systemy AI są używane, w jakich celach, według jakich reguł). Wyzwania praktyczne: kultura organizacyjna, poufność operacyjna, ograniczenia narzucone przez vendora, ograniczone zasoby. Rekomendacja: kultywowanie postawy transparency-first.
  • Rozdział 2 - Communicating about AI innovation. Sześć strategii skutecznej komunikacji: zdefiniuj problem, zrozum publiczność, opracuj strategię komunikacji, przekaż istotne informacje o systemie AI, odpowiednio poinformuj o ryzyku i ograniczeniach, utrzymuj ciągłość komunikacji. Rozdział kończy się sekcją Approaches and strategies to avoid - antywzorcami komunikacji, które niszczą zaufanie zamiast je budować.
  • Rozdział 3 - Public engagement with AI innovation. Sześć strategii skutecznego zaangażowania publicznego: zacznij wcześnie, rozumiej dynamikę, świadomie pracuj z grupami wrażliwymi, planuj angażowanie, zbieraj wkład publiczny i ustanawiaj mechanizmy informacji zwrotnej, włączaj różnorodnych interesariuszy zewnętrznych. Także tu sekcja Approaches to avoid.

Każdy rozdział zamyka się sekcją Recommendations - operacyjnymi wytycznymi dla agencji ścigania. UNICRI dodaje Use Case Snapshots oparte na fikcyjnym scenariuszu privacy-preserving crowd monitoring, opracowanym w ramach AI4Citizens. Szczegóły operacyjne są celowo wymyślone - dokument służy ilustracji, nie referuje konkretnych wdrożeń.

Trzy rozdziały - od zaufania do komunikacji, od komunikacji do zaangażowania. Polski adwokat czyta każdy z nich jako lustro odwrotne: co możesz domagać się od organu, którego ta lustrzana zasada nie spełnił.

Recenzja właściwa

Trzy warstwy argumentacji dla polskiego adwokata

Trzy rozdziały UNICRI, czytane lustrzanie, dają polskiej kancelarii trzy warstwy argumentacji procesowej. UNICRI mówi agencji ścigania, jak ma postępować. Polski adwokat odwraca każdy postulat: skoro UNICRI wymaga, to oznacza, że bez tego organ działa wadliwie - i to jest argument we wniosku, w piśmie procesowym, w skardze do organu nadzorczego.

Warstwa pierwsza - transparentność jako warunek legitymacji (rozdział 1). UNICRI definiuje transparentność jako "jasną, otwartą komunikację o tym, jakie systemy AI są używane, w jakich celach i według jakich reguł i wytycznych" - tłumaczenie autorskie z Executive Summary. Polski adwokat reprezentujący stronę w sprawie karnej, w której prokuratura powołuje się na materiał wyprodukowany przez system AI, ma prawo dopytać o trzy elementy: jaki konkretnie system, w jakim celu został użyty, jaka była reguła decyzyjna. Brak odpowiedzi na którekolwiek z tych pytań nie unieważnia automatycznie postępowania, ale otwiera drogę do zarzutu naruszenia zasady kontradyktoryjności (art. 6 EKPC) i zasady fair trial. Dyrektywa policyjna 2016/680 (transponowana ustawą o ochronie danych osobowych przetwarzanych w związku z zapobieganiem i zwalczaniem przestępczości) daje osobie prawo do informacji o przetwarzaniu danych przez organy ścigania - z wyjątkami, ale nie z całkowitą opt-out.

Warstwa druga - obowiązek komunikacji jako standard staranności (rozdział 2). UNICRI wymienia sześć strategii skutecznej komunikacji - zdefiniuj problem, zrozum publiczność, opracuj strategię, przekaż istotne informacje, poinformuj o ryzyku i ograniczeniach, utrzymuj ciągłość. Każda z nich tworzy lustrzane pytanie procesowe. Czy organ zdefiniował problem, który system AI miał rozwiązać? Czy ujawnił ograniczenia tego systemu, w tym znane fałszywe pozytywy w klasie, do której należy klient? Czy poinformował o stopie błędu i sposobie weryfikacji? W postępowaniu cywilnym z udziałem dowodu wyprodukowanego przez AI po stronie organu (na przykład w sprawie z powództwa cywilnego o naruszenie dóbr osobistych przez monitoring) te pytania można zadawać wprost.

Warstwa trzecia - public engagement jako standard udziału grup wrażliwych (rozdział 3). UNICRI uwypukla obowiązek świadomej pracy z grupami wrażliwymi (w oryginale "vulnerable groups") przy projektowaniu i wdrażaniu systemów AI. To koncept, który w polskim postępowaniu otwiera drugi front: czy organ przeanalizował, że konkretna grupa (na przykład mniejszość etniczna, populacja danego osiedla, grupa wiekowa) będzie nadreprezentowana w wynikach systemu? Czy konsultował się z przedstawicielami tej grupy przed wdrożeniem? Czy ma mechanizm zbierania feedbacku i korygowania błędów? Argumentacja procesowa nie wymaga, by adwokat udowodnił bias systemu - wymaga, by organ udowodnił, że wykluczył bias. Ciężar dowodu, w pewnych konfiguracjach, przesuwa się.

Trzy warstwy są kumulatywne, nie alternatywne. Adwokat budujący wniosek dowodowy w sprawie karnej z udziałem AI po stronie oskarżenia powinien zaadresować wszystkie trzy: czy organ ujawnił, jakim systemem dysponował, czy poinformował o ograniczeniach, czy uwzględnił ryzyko nieproporcjonalnego wpływu na grupę, do której należy oskarżony. Brak odpowiedzi na każde z tych pytań to dodatkowa cegła w argumentacji.

Wyzwania, o których UNICRI pisze, a polska policja milczy

UNICRI wymienia w rozdziale 1 cztery wyzwania transparentności, które zwykle blokują otwartą komunikację - kultura organizacyjna, poufność operacyjna, ograniczenia narzucone przez vendora, ograniczone zasoby. Każde z nich jest dla polskiego adwokata punktem operacyjnym. Kultura organizacyjna oznacza, że przyzwyczajenie agencji do opacity jest argumentem socjologicznym, nie prawnym - sąd ma prawo go nie przyjąć. Poufność operacyjna jest legitymowanym powodem do ograniczenia ujawnienia, ale nie do całkowitego pominięcia obowiązku informacyjnego (orzecznictwo ETPC w sprawach Klass v. Niemcy i Big Brother Watch v. UK ustaliło, że nawet w obszarach służb specjalnych istnieje obowiązek wykazania ram nadzoru).

Najciekawszy z perspektywy polskiej kancelarii jest trzeci punkt: vendor restrictions. UNICRI wprost mówi, że klauzule kontraktowe między agencją a dostawcą AI nie mogą być pretekstem do uchylenia się od obowiązku transparentności wobec obywatela. To jest ramka, która w polskim postępowaniu pomaga przy zarzucie, że organ "nie może udostępnić" informacji o systemie, bo "tak wynika z umowy z dostawcą". Argumentacja UNICRI: umowa z dostawcą jest po stronie organu i organ nie może na nią się powołać jako na barierę względem osoby zewnętrznej. To rzecz, którą polskie sądy zaczną dopiero rozstrzygać - argument UNICRI wprowadza ją do dyskursu wcześniej niż precedens.

Use Case Snapshots: privacy-preserving crowd monitoring

Raport ilustruje rekomendacje fikcyjnym scenariuszem privacy-preserving crowd monitoring AI system - opracowanym w ramach AI4Citizens, ze szczegółami operacyjnymi celowo wymyślonymi. Snapshoty pokazują, jak agencja powinna zakomunikować publiczności wdrożenie AI w przestrzeni publicznej: jaki jest cel, jakie dane są zbierane, jak są chronione, gdzie obywatel może uzyskać dodatkową informację, jak składa skargę, jak odbywa się ewaluacja po pierwszym kwartale wdrożenia.

Polska analogia: monitoring miejski w większych ośrodkach jest stopniowo rozszerzany o funkcje analityczne, choć skala i konkretne narzędzia bywają poza domeną publiczną. W większości przypadków obywatel nie dostaje od miasta lub policji takiej komunikacji jakiej UNICRI oczekuje - jaki dokładnie system, co rozpoznaje, ile fałszywych pozytywów, jaka procedura odwołania. Adwokat reprezentujący osobę poszkodowaną przez błędny match (na przykład wezwaną na komendę na podstawie rozpoznania twarzy, które okazało się błędne) ma w UNICRI listę pytań do złożenia organowi, których brak odpowiedzi staje się argumentem.

Czego UNICRI nie pokrywa

Po pierwsze - polskie postępowanie procesowe. Raport jest międzynarodowy, pisany dla agencji ścigania jako kategorii. KPK, KPC, ustawa o postępowaniu w sprawach o wykroczenia, ustawa o Policji, ustawa o ABW i AW - to wszystko zostaje na polskiej kancelarii. UNICRI dostarcza argumentację o transparentności, polski adwokat dorabia ramę proceduralną.

Po drugie - art. 5 AI Act (zakazane praktyki AI). Wybrane praktyki - na przykład real-time biometric identification w przestrzeni publicznej z wąskimi wyjątkami - są od 2 lutego 2026 zakazane lub bardzo restrykcyjnie ograniczone na poziomie UE. UNICRI o tym wspomina pośrednio, ale nie buduje argumentacji opartej na art. 5 AI Act. Polski adwokat reprezentujący stronę poszkodowaną przez systemy podpadające pod art. 5 ma dodatkową, mocniejszą warstwę argumentacji.

Po trzecie - specyfika dyrektywy policyjnej 2016/680. UNICRI traktuje przetwarzanie danych przez organy ścigania w ramach RODO jako otoczenie ogólne. W UE dla organów ścigania obowiązuje dyrektywa 2016/680 (Law Enforcement Directive), która ma swoje własne reguły - art. 13 (informacje udzielane osobie), art. 14 (dostęp do danych), art. 16 (sprostowanie i usunięcie), art. 47 (uprawnienia organu nadzorczego). Polski adwokat budujący argumentację opartą wyłącznie na RODO ryzykuje niedopasowanie - ramą właściwą dla policji jest dyrektywa 2016/680.

Co z tego wynika

Decoding Transparency jest dokumentem, którego polska kancelaria reprezentująca stronę w postępowaniu z udziałem organów ścigania używających AI nie może zignorować. Dziewięćdziesiąt sześć stron tekstu pisanego po stronie agencji to dziewięćdziesiąt sześć stron, które adwokat czyta lustrzanie. Każda rekomendacja UNICRI dla policji jest potencjalnym pytaniem dla policji ze strony adwokata. Każde wyzwanie transparentności, które UNICRI każe agencji rozwiązać, jest w postępowaniu argumentem, że bez rozwiązania organ działa wadliwie.

Dla kogo ten materiał. Dla adwokata prowadzącego sprawy karne, w których prokuratura powołuje się na materiał wyprodukowany przez system AI. Dla radcy prawnego reprezentującego klienta poszkodowanego przez błąd systemu monitoringu lub rozpoznania twarzy. Dla doradcy organizacji pozarządowej budującej skargę systemową na praktyki agencji ścigania. Dla każdego, kto wie, że polski sąd dopiero zaczyna rozstrzygać sprawy z udziałem AI po stronie organu - i argumentacja oparta na międzynarodowym dokumencie ONZ ma w polskim postępowaniu wagę, której krajowa publicystyka jeszcze nie ma.

Dla kogo nie. Dla kancelarii skupionej wyłącznie na sprawach gospodarczych bez elementu AI po stronie organów ścigania. Dla doradcy, który nie ma w swoim portfelu spraw karnych ani roszczeń wobec administracji publicznej. UNICRI jest dokumentem niszowym - i właśnie dlatego, gdy nisza staje się sprawą, jego waga argumentacyjna jest większa niż dokumentu ogólnego.

Dla zarządu kancelarii w trzech zdaniach

UNICRI w Decoding Transparency (kwiecień 2026) opisuje, jak agencje ścigania powinny komunikować się publicznie o AI: trzy rozdziały, sześć strategii w każdym, rekomendacje na końcu. Dla polskiej kancelarii dokument działa lustrzanie - każda rekomendacja UNICRI dla policji to potencjalne pytanie procesowe ze strony adwokata, każde wyzwanie transparentności (vendor restrictions, organizational culture, operational confidentiality) to argument w skardze do organu nadzorczego lub w piśmie procesowym. Trzy warstwy argumentacji: transparentność jako warunek legitymacji (rozdział 1, art. 6 EKPC kontradyktoryjność), obowiązek komunikacji jako standard staranności (rozdział 2, art. 5 RODO i dyrektywa 2016/680), public engagement jako standard udziału grup wrażliwych (rozdział 3, art. 8 EKPC i art. 5 AI Act).