Nazwiska, które polski adwokat zajmujący się AI powinien znać i mieć w pamięci, są w 2026 roku rozsiane po kilkunastu instytucjach na świecie. Nathalie A. Smuha z KU Leuven jest jednym z nich. Trudno spotkać europejski raport o AI, który by jej nie cytował, i jeszcze trudniej napisać poważny tekst o AI Act, nie odnosząc się do jej krytycznej analizy aktu z perspektywy państwa prawa. Cambridge Handbook, który redaguje, nie jest jej prywatnym tomem - to kompendium głosów wielu autorów. Ale to ona dobiera tematy, układa je, pisze wprowadzenie i autorsko zamyka część o AI Act wspólnym rozdziałem z Karen Yeung. Tom funkcjonuje jako standard, do którego za chwilę będą odsyłać wszyscy.
Recenzja MateMatic czyta paper z dwóch perspektyw jednocześnie. Pierwsza: vendor-agnostic edukator dla kancelarii prawnych, który ma zarekomendować, co kancelaria w 2026 roku ma realnie przeczytać z 600-stronicowego tomu. Druga: polski filtr - co z europejskiej perspektywy się przekłada bez korekty, co wymaga adaptacji. Obie razem dają selekcję siedmiu rozdziałów priorytetowych i cztery sektorowe na zachętę.
O czym jest ten materiał
Książka ma cztery warstwy. Warstwa pierwsza - foundations (rozdziały 1-6): perspektywa techniczna AI, filozofia AI, etyka AI w podejściu "Design for Values", uczciwość, odpowiedzialność moralna i autonomiczne technologie, AI a władza i zrównoważenie. Warstwa druga - prawo i regulacja (rozdziały 7-12): RODO, odpowiedzialność cywilnoprawna (tort), prawo konkurencji, prawa konsumenta, własność intelektualna, AI Act. Warstwa trzecia - sektory (rozdziały 13+): edukacja, media, dane medyczne, usługi finansowe, prawdopodobnie też transport, środowisko, sektor publiczny, praca, zatrudnienie. Warstwa czwarta (jeśli obecna w tym układzie tomu): zagadnienia przekrojowe - zaufanie, transparentność, zarządzanie globalne, reżimy non-EU.
Każdy rozdział ma własnego autora lub współautorów - prawników, etyków, informatyków, filozofów - zazwyczaj z afiliacjami europejskimi (KU Leuven, Tilburg, Oxford, ETH, Tyne, Sciences Po). Każdy rozdział to mniej więcej 25-35 stron, co odpowiada akademickiemu artykułowi przeglądowemu. Razem - kompendium, którego rozmiarem dominuje na rynku open-access publikacji prawa AI w Europie 2026.
Recenzja właściwa
Siedem rozdziałów priorytetowych dla polskiej kancelarii
Selekcja MateMatic. Każdy rozdział oceniony pod kątem "czy mogę przekonać partnera kancelarii, że ta lektura zwróci się w ciągu trzech miesięcy pracy". Siedem przeszło ten test.
The European Union's AI Act: Beyond Motherhood and Apple Pie?
Tytuł sam zdradza ton - "beyond motherhood and apple pie" to anglojęzyczne wyrażenie idiomatyczne oznaczające retorykę pełną ogólników, w którą trudno się sprzeciwić. Smuha i Yeung pytają, czy AI Act dostarcza substancjalnej regulacji ryzyka AI, czy polityczną dekorację. To rozdział obowiązkowy dla każdego adwokata uczącego klienta lub student'a o AI Act - bo daje krytyczną perspektywę autorki znanej z trafności krytyki, nie marketing aktu od Komisji. Czytanie razem z BW/008 (Bird & Bird AI Act Guide) i BW/013 (FAQ Service Desk Komisji) daje trzy warstwy: krytyczna akademicka (Smuha+Yeung), praktyczna komercyjna (Bird & Bird), oficjalna interpretacyjna (Komisja).
AI Meets the GDPR: Navigating the Impact of Data Protection on AI Systems
RODO i AI w jednym rozdziale, autor z KU Leuven (zespołu Smuhy). Dewitte mapuje, jak art. 5 (zasady przetwarzania), art. 9 (dane szczególnej kategorii), art. 22 (decyzje zautomatyzowane), art. 25 (privacy by design), art. 35 (DPIA) wpływają na każdy etap cyklu życia systemu AI - od trenowania na danych historycznych po deployment w produkcji. Dla polskiej kancelarii, której klient pyta "czy mogę użyć ChatGPT do przeszukiwania korespondencji email klientów", odpowiedź zaczyna się od tego rozdziału. Komplementarny do tomu BW/030 (ENISA Security by Design), który robi to samo z perspektywy bezpieczeństwa technicznego.
Tort Liability and Artificial Intelligence: Some Challenges and (Regulatory) Responses
Odpowiedzialność deliktowa w erze AI. Kto odpowiada, gdy autonomiczny pojazd potrąci pieszego? Gdy model diagnostyczny AI w szpitalu zaproponuje błędne leczenie? Gdy LLM w kancelarii zhalucynuje cytat orzeczenia, na którym oprze się pismo procesowe? Polska kancelaria, która prowadzi sprawy o odszkodowanie cywilnoprawne, w 2026 nie ma jeszcze polskiego precedensu, ale wkrótce go dostanie. Rozdział mapuje dyskutowaną Komisją AI Liability Directive, która (w stanie na rok publikacji handbooka) miała ułatwić dochodzenie roszczeń. Kontekst zmienił się w 2025 - propozycja została wycofana - ale argumenty merytoryczne pozostają. Chcąc bronić przed odpowiedzialnością klienta używającego AI lub chcąc dochodzić roszczeń wobec dostawcy AI, ten rozdział daje słownik pojęciowy.
Artificial Intelligence and Intellectual Property Law
Prawa autorskie i AI. Czy output ChatGPT podlega ochronie autorskiej? Czy fine-tuning modelu na korpusie podręczników prawniczych narusza prawa wydawcy? Czy adwokat, który dyktuje argumentację a model formatuje, jest jedynym autorem czy współautorem? Rozdział obowiązkowy dla adwokata IP i każdego, kto pracuje z klientami z branży kreatywnej, mediów, wydawnictw. Czyta się razem z BW/036 (Kuśmierek, sekcja 16.4.2 Lex AI Copyright) - Vanherpe daje teorię europejską, Kuśmierek autorską polską propozycję ustawową. Bardzo różne gatunki, ale komplementarne.
Fairness and Artificial Intelligence
Rozdział z części foundations, ale bez niego część prawna nie ma fundamentu. Fairness w systemach AI - dyskryminacja algorytmiczna, bias w danych treningowych, nierównowagi w outputach modeli. Naudts i Vedder mapują filozoficzne i prawne ujęcia uczciwości w AI - od indywidualnego (każda osoba traktowana sprawiedliwie) przez grupowe (parytety między grupami chronionymi RODO art. 9) do strukturalnego (system jako całość nie generuje niesprawiedliwości w czasie). Dla kancelarii prowadzącej sprawy o dyskryminację (zatrudnienie, kredyt, ubezpieczenia, medycyna) - rozdział obowiązkowy, bo dostarcza taksonomicznego słownika dla argumentacji procesowej.
Moral Responsibility and Autonomous Technologies: Does AI Face a Responsibility Gap?
Filozoficzny fundament dla rozdziału 8 (Tort Liability). Responsibility gap - luka odpowiedzialności - to teza, że gdy decyzję podejmuje autonomiczny system, klasyczne kategorie odpowiedzialności moralnej (intencja, zdolność przewidywania skutków) nie znajdują przyporządkowania. Nikt jako jednostka nie jest w pełni odpowiedzialny - ani projektant (nie kontrolował konkretnej decyzji), ani użytkownik (nie miał wglądu w decyzję), ani sam system (nie ma intencji w sensie etycznym). Dla adwokata, który ma rok 2026 musi argumentować w sprawie z udziałem AI, ten rozdział to arsenał argumentacyjny - zarówno do obrony klienta (pokazać, że ktoś z innego ogniwa łańcucha jest faktycznie odpowiedzialny) jak i do dochodzenia roszczeń (pokazać, że luka jest pozorna - rzeczywiście odpowiada producent).
Artificial Intelligence and Competition Law
Prawo konkurencji a AI. Algorithmic collusion - ciche porozumienia cenowe między modelami AI bez wyraźnego komunikatu między ludźmi. Self-preferencing platform AI. Dominacja foundation models (kilku graczy globalnych dominuje rynek). Dla kancelarii prowadzącej sprawy z UOKiK, dla in-house counsela dużej platformy, dla doradcy startupu LegalTech walczącego o rynek z dominującym dostawcą - rozdział obowiązkowy. Bostoen daje europejską ramę interpretacyjną dla art. 101 i 102 TFUE w erze AI.
Cztery rozdziały sektorowe - do późniejszego czytania per branża klienta
Część III handbooka (rozdziały 13+) to mapa sektorowa. Czytanie nie jest obowiązkowe dla compliance officera kancelarii ogólnopraktycznej - ale staje się obowiązkowe dla kancelarii specjalizującej się w danym sektorze.
- Rozdz. 13 - AI and Education (Molenaar et al.) - dla kancelarii doradzającej szkołom, uczelniom, platformom edutech.
- Rozdz. 14 - AI and Media (Dutkiewicz, Krack, Kuczerawy, Valcke) - z KU Leuven, dla kancelarii medialnych i wydawców.
- Rozdz. 15 - AI and Healthcare Data (Verhenneman) - dla kancelarii medycznych, szpitali, biotech.
- Rozdz. 16 - AI and Financial Services - dla kancelarii bankowych, FinTech, ubezpieczeń.
Każdy z tych rozdziałów jest "drugą warstwą" znajomości - po przeczytaniu siedmiu priorytetowych adwokat ma fundament; sektorowe rozszerzenie czyta gdy trafia konkretna sprawa.
Reszta tomu - filozofia, perspektywy techniczne, zarządzanie
Pozostałe ~10 rozdziałów to obszary, które MateMatic czyta w wolnym czasie, nie pod konkretną sprawę. Filozoficzne (rozdz. 2 Müller, rozdz. 3 Buijsman et al. - "Design for Values"), techniczne (rozdz. 1 Meert et al.), strukturalne (rozdz. 6 Hasselbalch, Van Wynsberghe - AI, Power, Sustainability), regulacyjne na poziomie globalnym (część końcowa). Wartościowe dla mental modelu kancelaryjnego, ale nieprzekładające się na konkretną sprawę z czwartku.
Polski filtr - co się przekłada bez korekty, co wymaga adaptacji
Bez korekty (działa jeden-do-jednego w polskim porządku):
- Rozdz. 7 (RODO) - polski adwokat czyta jako tekst o GDPR/RODO, art. 5/9/22/25/35 są te same.
- Rozdz. 12 (AI Act) - rozporządzenie 2024/1689 jest aktem unijnym, działa w Polsce bezpośrednio.
- Rozdz. 4 (Fairness) - filozofia uczciwości jest niezależna od jurysdykcji.
- Rozdz. 5 (Moral Responsibility) - filozoficzny fundament, transferuje bez problemu.
Z adaptacją (wymaga przemapowania):
- Rozdz. 8 (Tort Liability) - polskie odpowiedniki: art. 415, 430, 444 KC; rozporządzenie produktowe; ustawowa odpowiedzialność cywilna; szkoda niematerialna z art. 448 KC.
- Rozdz. 11 (IP Law) - polski PrAut + dyrektywa 2019/790 + interpretacja UPRP; relacja do Lex AI Copyright Kuśmierka.
- Rozdz. 9 (Competition Law) - polskie prawo konkurencji UOKiK + UoOKiK + art. 101/102 TFUE.
Czego paper nie pokrywa
Brak polskiej perspektywy. Handbook jest europejski w fokusie, ale nie polski. Polskie sądy, polskie samorządy zawodowe (NRA, KIRP), polskie regulatory (UODO, UKE, KNF) - nie są przedmiotem analizy. To naturalne. Polski adwokat czyta paper jako wykładnię europejską, do której dorabia się polskie odniesienie.
Brak skupienia na praktyce kancelaryjnej. Smuha i autorzy piszą do akademika i decydenta, nie do adwokata. Tom nie zawiera rozdziału "AI w pracy adwokata" ani "Verification Stack" ani konkretnych protokołów. Tu wkraczają tomy BW/031 (Levy, AI in Litigation Practice), BW/034 (Kumaran, Verification Stack v2) i BW/035 (Laban, Verification Stack v3).
Stan na rok publikacji. Cambridge Handbook to praca redakcyjna trwająca 18-24 miesiące - od oddania manuskryptu do druku. Niektóre rozdziały opisują stan prawa nieco starszy niż kwiecień 2026. AI Liability Directive w stanie na 2024 była w aktywnej dyskusji legislacyjnej - została wycofana w 2025. Rozdział 8 czyta się z poprawką: argumenty merytoryczne stały się ważniejsze, bo brak dyrektywy oznacza, że odpowiedzialność cywilnoprawna AI w UE pozostaje w obszarze prawa krajowego.
Autorzy z jednej szkoły. Większość autorów ma afiliacje europejskie, kilkoro w szczególności z KU Leuven (Smuha, Dewitte, Lauwaert, Dutkiewicz). To nie jest wada - KU Leuven to jeden z najlepszych ośrodków w temacie - ale efekt: tom ma określoną szkołę myślenia. Dla pełnej perspektywy polski adwokat czyta razem z innymi tradycjami: amerykańska (Levy BW/005, BW/015, BW/031), międzynarodowa (UNICRI BW/033, CoE CDDH BW/029), branżowa (ENISA BW/030, NIST BW/011).
Co z tego wynika
Cambridge Handbook AI redagowany przez Smuhę jest dla MateMatic ważny z czterech powodów. Po pierwsze, to najpełniejsze otwartoźródłowe akademickie kompendium prawa i etyki AI w Europie 2026 - sam fakt jego istnienia w licencji CC-BY jest wielkim ułatwieniem dla polskich kancelarii i bibliotek. Po drugie, siedem rozdziałów priorytetowych daje kancelarii merytoryczny fundament dla każdego z głównych obszarów ekspozycji prawnej AI (RODO, AI Act, tort, IP, konkurencja, fairness, responsibility gap). Po trzecie, autorka redaktorska (Smuha) i jej rozdział o AI Act z Karen Yeung daje krytyczną europejską perspektywę niedostępną w marketingowych przewodnikach komercyjnych. Po czwarte, tom jest komplementarny do istniejącej Bazy Wiedzy MateMatic - ramuje akademicko to, co tomy operacyjne (Levy BW/031, Kumaran BW/034, Laban BW/035, Michaels BW/037) konkretyzują na poziomie protokołu.
Dla kogo ten materiał. Dla adwokata IP - rozdz. 11 i 7. Dla adwokata cywilnoprawnego prowadzącego sprawy odszkodowawcze - rozdz. 8 i 5. Dla compliance officera kancelarii - rozdz. 12 (krytyka AI Act) i 7 (RODO). Dla każdego, kto buduje wewnętrzną politykę AI lub piszę argumentację w sprawie precedensowej - rozdz. 4 (Fairness) jako fundament aksjologiczny. Dla kancelarii sektorowych - dedykowane rozdziały 13-16 plus odpowiednia część cz. I dla kontekstu.
Dla kogo nie. Dla nikogo, kto szuka praktycznego protokołu wdrożeniowego - to nie ten gatunek. Dla nikogo, kto oczekuje polskiej wykładni prawnej - to handbook europejski, polskie odniesienia robi czytelnik. Dla nikogo, kto chce krótkiej syntezy - tom jest 600 stron, recenzja MateMatic stara się streścić, ale poważny adwokat czyta wybrane rozdziały w oryginale, nie przez nasze podsumowanie.
Polski adwokat 2026 ma w bibliotece dwa europejskie tomy obowiązkowe na temat AI - Cambridge Handbook (Smuha, akademicka kompletność) i CoE CDDH Handbook (BW/029, prawa człowieka i sektor sądownictwa). Reszta to specjalizacja - amerykańska praktyka (Levy), międzynarodowy łańcuch organów ścigania (UNICRI), bezpieczeństwo techniczne (ENISA). Smuha jest fundamentem, na który nakłada się reszta.
Cambridge University Press wydaje pod redakcją Nathalie A. Smuha (KU Leuven) około sześciusetstronicowy The Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence w licencji CC-BY Open Access - najpełniejsze europejskie akademickie kompendium prawa i etyki AI dostępne w 2026. Recenzja MateMatic dokonuje selekcji siedmiu rozdziałów priorytetowych dla polskiej kancelarii: krytyka AI Act przez samą Smuhę i Karen Yeung (rozdz. 12), RODO i AI (Dewitte, rozdz. 7), odpowiedzialność cywilna (De Bruyne, rozdz. 8), prawo własności intelektualnej (Vanherpe, rozdz. 11), fairness i dyskryminacja (Naudts, rozdz. 4), responsibility gap filozoficzny (Lauwaert, rozdz. 5), prawo konkurencji (Bostoen, rozdz. 9). Tom jest komplementarny do istniejących tomów BW MateMatic (Levy BW/005, /015, /031 - amerykański; CoE CDDH BW/029 - prawa człowieka; Kumaran BW/034 + Laban BW/035 + Michaels BW/037 - Verification Stack i audyt LegalTech): Smuha ramuje akademicko, tomy operacyjne konkretyzują protokół.