KATALOG · 53 TOMY DOSTĘPNE

Baza Wiedzy

Czytamy dla ciebie papery, raporty i frameworki AI tak, jak adwokat czyta opinię biegłego - z czerwonym długopisem. Każdy tom z polskim filtrem: co bierzemy operacyjnie, czego nie endorsujemy, gdzie dopisujemy własną warstwę.

KATALOG OTWARTY.

Indeksacja ręczna. Dewey nie pomógł. Tom pierwszy już stoi na półce.

// Zacznij stąd

5 TOMÓW PIERWSZEJ LINII · 30 MIN CZYTANIA
Mapa krzyżowa - 8 tematów → Pełny katalog 53 tomów ↓
BW
009

Krok 1 · Mental model

Jeden atlas, siedemdziesiąt cztery mapy. MIT porządkuje chaos ryzyka AI.

MIT AI Risk Repository - 74 mapy ryzyka AI uporządkowane w jednej taksonomii. Fundament, na którym budujemy myślenie compliance officera o ryzykach AI w kancelarii.

Po co teraz: bez mapy ryzyk każda dalsza decyzja jest po omacku. Slattery daje skelet pojęciowy.

BW
037

Krok 2 · Narzędzie operacyjne

MIT centralizuje cztery bazy ryzyk AI w jedno narzędzie. Co compliance kancelarii może z tego wyciągnąć.

AI Risk Navigator (airi-navigator.com, CC BY 4.0) - cztery bazy MIT AIRI w jednym interfejsie. Audyt klienta, due diligence dostawcy LegalTech i polityka użycia AI w jednej sesji pracy.

Po co teraz: Slattery dał mapę, Michaels daje narzędzie. Pierwsza warstwa pracy compliance officera już się zewnętrzyła.

BW
031

Krok 3 · Verification Stack v1

Trzynaście rozdziałów Levy. Polski adwokat czyta dziewięć z nich bez Westlawa.

Colin S. Levy, AI in Litigation Practice (2026). Jakościowy fundament Verification Stack - obowiązek weryfikacji cytatów, autentyfikacja AI evidence, polityka użycia AI w pismach procesowych.

Po co teraz: zanim zrozumiesz mechanikę błędów LLM, musisz zobaczyć skutki - sankcje sądowe i obowiązki adwokackie.

BW
034

Krok 4 · Verification Stack v2

Dwa błędy w pewności LLM. DeepMind diagnozuje, dlaczego model raz się upiera, raz kapituluje.

Kumaran et al. (Nature MI 2026). Dlaczego "AI sprawdza AI" zawodzi w przewidywalny sposób. Pięć reguł architektonicznych zamiast jakościowego "AI to nie weryfikator".

Po co teraz: każda kancelaria ma w głowie pomysł "drugi model sprawdzi pierwszy". Kumaran pokazuje dlaczego to nie działa.

BW
035

Krok 5 · Verification Stack v3

Po dwudziestu poprawkach LLM-em twój dokument to nie jest już twój dokument. Microsoft mierzy 25-50%.

Laban et al. (Microsoft Research 2026). 50% degradacji dokumentu po 20 iteracjach delegowanej edycji. Tools nie pomagają. Trzy reguły czasowe + dwie architektoniczne.

Po co teraz: po Verification Stack v1 i v2 ostatnia warstwa - jak organizować iteracyjną pracę nad dokumentem żeby nie tracić zawartości.

// Katalog

50 TOMÓW · AKTUALIZACJA CIĄGŁA
BW
001

Recenzja · Referencja praktyczna

Cztery reżimy, jeden agent. O czym nie pisze polski compliance.

Recenzja: Noah M. Kenney, Governing Agents: A Practitioner's Cross-Framework Reference. Mapowanie RODO, EU AI Act, NIST AI RMF i ISO/IEC 42001 na agenty AI - z perspektywy polskich kancelarii.

Oryginał: Digital 520, 2026 ok. 10 min czytania PL
BW
002

Recenzja · Praca empiryczna

Lepsze myślenie, gorsze narzędzia.

Recenzja: Chenlong Yin i in., The Reasoning Trap: How Enhancing LLM Reasoning Amplifies Tool Hallucination. Dlaczego wzmocnione rozumowanie modeli LLM zwiększa liczbę halucynowanych wywołań narzędzi - i co to oznacza dla agentów w kancelarii.

Oryginał: Penn State / Nanjing, 2026 ok. 11 min czytania PL
BW
003

Recenzja · Instrument psychometryczny

Dziesięć pytań, cztery minuty, jedna skala. Psychometria dla halucynacji.

Recenzja: Müller, Steiger, Plass, Holzinger, The System Hallucination Scale (SHS). Lekki, 10-pytaniowy instrument do oceny halucynacji w LLM - z perspektywy kancelarii, która chce mierzyć nadzór z art. 22 RODO, a nie tylko o nim deklarować.

Oryginał: MedUni Graz / BOKU Vienna, 2026 ok. 11 min czytania PL
BW
004

Recenzja · Studium kliniczne

Model konformistyczny, model dogmatyczny. Dwa fenotypy jednego asystenta.

Recenzja: Lopez, Horvitz i in. (Stanford/Microsoft), Clinician input steers frontier AI models toward both accurate and harmful decisions. 21 modeli, 61 przypadków NEJM, taksonomia WHO - i bardzo niewygodny wniosek dla każdego, kto pilotuje asystenta AI w kancelarii.

Oryginał: Stanford / Microsoft, 2026 ok. 12 min czytania PL
BW
005

Recenzja · Podręcznik praktyczny

Model Rules bez RODO. Amerykański etyczny playbook w polskim biurze.

Recenzja: Colin S. Levy, AI Ethics for Lawyers: A Practical Guide to Professional Responsibility in the Age of AI. Amerykańska etyka AI oparta o ABA Formal Opinion 512 i Model Rules - w konfrontacji z RODO, AI Act i tajemnicą zawodową.

Oryginał: Edycja autorska, 2026 ok. 11 min czytania PL
BW
006

Recenzja · Handbook branżowy

Playbook, którego w Europie brakuje. MindForge jako wzorzec operacyjny.

MAS wspólnie z dwudziestoma czterema globalnymi instytucjami finansowymi napisał 173-stronicowy handbook operacyjny AI. Dokument, który w Europie nie powstał. Co z niego wynika dla polskich kancelarii obsługujących sektor finansowy.

Oryginał: MindForge Consortium, styczeń 2026 ok. 13 min czytania PL
BW
007

Recenzja · Handbook kryzysowy

Deepfake o dziewiątej rano. Brytyjska instrukcja, polskie pytanie.

CETaS i Alan Turing Institute publikują operacyjny handbook reagowania na kryzysy informacyjne generowane przez AI. Schemat prior-during-after jest mocny. O RODO i AI Act brak jednego słowa. Co z niego bierzemy do polskiej kancelarii.

Oryginał: CETaS / Alan Turing Institute, 2026 ok. 12 min czytania PL
BW
008

Recenzja · Przewodnik branżowy

Przewodnik pisany przed obowiązywaniem. Rok później.

Bird & Bird wydaje w kwietniu 2025 przewodnik po AI Act - dziesięć miesięcy przed wejściem w życie pierwszych obowiązków. Czytany rok później, w kwietniu 2026, pokazuje co przetrwało, co się zdezaktualizowało i czego wtedy wiedzieć jeszcze nie można było.

Oryginał: Bird & Bird, kwiecień 2025 ok. 13 min czytania PL
BW
009

Recenzja · Repozytorium meta-taksonomiczne

Jeden atlas, siedemdziesiąt cztery mapy. MIT porządkuje chaos ryzyka AI.

MIT FutureTech przepuścił 17 288 artykułów przez ASReview, wydobył 74 istniejące taksonomie i złożył z nich jedno repozytorium 1725 ryzyk AI. Podwójna taksonomia (przyczynowa i domenowa), 7 domen, 24 subdomeny. Meta-warstwa pod RODO, AI Act, NIST i ISO/IEC 42001.

Oryginał: MIT FutureTech, 2024 (live) ok. 13 min czytania PL
BW
010

Recenzja · Manifest CLO Intela

Reset relacji. CLO Intela wyznacza granicę.

April Miller Boise (EVP, Chief Legal Officer Intel Corp.) ogłasza w Law360 koniec starego modelu outside counsel. Stawki > 1000 USD/h, adopcja AI inhouse 23%→52% w rok, 64% działów legal planuje mniej zlecać na zewnątrz. Recenzja z perspektywy polskiej kancelarii, tajemnicy zawodowej i compound regime.

Oryginał: Law360, 30.03.2026 ok. 12 min czytania PL
BW
011

Recenzja · Dokument ramowy NIST CAISI

NIST mówi: monitorować musicie. I dodaje: nie do końca potrafimy.

Amerykański Center for AI Standards and Innovation publikuje flagowy dokument o post-deployment monitoringu (AI 800-4 ipd, marzec 2026). Sześć rodzin monitoringu, cross-cutting challenges (niedeterminizm, sycophancy, deceptive behavior, monitorability tax, open-weight impossible to retract), lista otwartych pytań. Ósmy głos w compound regime - luka między RODO/AI Act a stanem techniki wreszcie oficjalnie opisana.

Oryginał: NIST CAISI, marzec 2026 ok. 14 min czytania PL
BW
012

Recenzja · Framework bezpieczeństwa OWASP

Dziesięć sposobów, żeby agent zrobił coś, czego nie miał robić.

OWASP AIVSS v0.8 (2025) - pierwszy dojrzały framework oceny ryzyka dla agentic AI. Dziesięć ryzyk rdzeniowych (Tool Misuse, Access Control, Cascading Failures, Multi-Agent Exploitation, Identity Impersonation, Memory Manipulation, Critical Systems, Supply Chain, Untraceability, Goal Manipulation), matematyka nadbudowana nad CVSS v4.0, alignment z NIST AI RMF i CSA MAESTRO. Review Board: NIST, Anthropic, Stanford, Harvard, CSA.

Oryginał: OWASP Foundation, 2025 ok. 15 min czytania PL
BW
013

Recenzja · FAQ regulatora

FAQ Komisji, który mówi mniej, niż powinien.

AI Act Service Desk FAQ (wersja kwiecień 2026) - oficjalny punkt informacyjny Komisji Europejskiej po AI Act. Digital Omnibus, AI agenci, progi GPAI (10^23/10^25 FLOPS), AI literacy od lutego 2025, piaskownice do sierpnia 2026. Dobry pierwszy kontakt, słaby dokument operacyjny - z perspektywy polskiej kancelarii i compound regime z RODO.

Oryginał: European Commission, kwiecień 2026 ok. 14 min czytania PL
BW
014

Recenzja · Glosariusz referencyjny

Słownik amerykański, rzeczywistość europejska.

IAPP Cybersecurity Law Key Terms (styczeń 2026) - 13 stron, 62 hasła z prawa cyberbezpieczeństwa USA (CFAA, CCPA, HIPAA, NY DFS, NIST). Solidny słownik transatlantycki, który w polskiej rzeczywistości wymaga warstwy europejskiej: jedno hasło breach to cztery obowiązki zgłoszeniowe (RODO 72h, UKSC 24h, DORA 4/24/720h, NIS2 24/72h).

Oryginał: IAPP, styczeń 2026 ok. 13 min czytania PL
BW
015

Recenzja · Podręcznik praktyczny

Agent to nie paralegal. Levy wraca z toolkitem.

Colin S. Levy, AI Agents for Lawyers (2026) - 27 stron, 7 części, worked example intake umowy. Levy dobrze opisuje, jak agent dopina zadanie od końca do końca. Gorzej, gdy przenieść to do kancelarii pod AI Act (art. 14, 26, 50), RODO (art. 22, 25, 32, 35) i tajemnicę zawodową. Jeden przebieg agenta potrafi dotknąć trzech reżimów jednocześnie.

Oryginał: Colin S. Levy, 2026 ok. 15 min czytania PL
BW
016

Recenzja · Raport badawczy

Governance AI ma ulubione ryzyka. MIT liczy, o których milczy.

Simon Mylius, Peter Slattery i zespół MIT FutureTech, Mapping the AI Governance Landscape - April 2026 Update. Około tysiąc dokumentów governance AI przepuszczonych przez sześć taksonomii. Regulacja systemowo preferuje model safety i governance failures, systemowo pomija socioekonomię, consumer-facing, wczesny lifecycle i dobrostan systemów. Dla polskich kancelarii pod AI Act (obowiązuje od 2 lutego 2026) - mapa, która pokazuje, gdzie standardowy audyt compliance zostawi dziury.

Oryginał: MIT FutureTech, kwiecień 2026 ok. 14 min czytania PL
BW
017

Recenzja · Artykuł naukowy

Partner konsultuje AI. AI się myli. Partner jest pewniejszy.

Steven D. Shaw, Gideon Nave (Wharton), Thinking - Fast, Slow, and Artificial (styczeń 2026). Tri-System Theory: Kahneman miał dwa systemy, Wharton dokłada trzeci - sztuczne poznanie poza mózgiem. Trzy preregistered eksperymenty, N=1372, 9593 próby. Gdy AI jest dokładna +25pp, gdy się myli -15pp. Pewność siebie rośnie w obu przypadkach. Dla kancelarii pod art. 14 AI Act (human oversight) - materiał o tym, dlaczego "sprawdziłem Claude'a" rzadko znaczy to, co znaczy.

Oryginał: Wharton, styczeń 2026 ok. 15 min czytania PL
BW
018

Recenzja · Klasyka FAccT

Pięć lat po Stochastic Parrots. Papuga siedzi już w kancelarii.

Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell, On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? (FAccT 2021). Tekst, który kosztował dwie autorki pracę w Google. Dziś: 3954 cytowania, 533 tys. pobrań, fundament dyskursu o LLM. Co wytrzymało próbę pięciu lat - koszty środowiskowe, documentation debt, halucynacje jako strukturalna własność modelu, value lock-in. Dla kancelarii, która chce rozumieć, o co właściwie toczy się spór wokół art. 10 i 53 AI Act.

Oryginał: FAccT 2021 ok. 16 min czytania PL
BW
019

Recenzja · Artykuł naukowy

Cztery iluzje, jedna kancelaria. Mitchell o tym, dlaczego AI jest trudniejsza, niż myślimy.

Melanie Mitchell (Santa Fe Institute), Why AI is Harder Than We Think (kwiecień 2021). Cztery błędy poznawcze, które od siedemdziesięciu lat powodują, że po każdej wiośnie AI przychodzi zima - first-step fallacy, paradoks Moravca, wishful mnemonics, iluzja disembodied intelligence. Pięć lat później, w kwietniu 2026, te same cztery wracają w deckach dostawców, RFP kancelarii i ocenach ryzyka pilotów. Dla compliance officera, który szuka narzędzia rozpoznawania bullshitu - i dla partnera, który chce wiedzieć, dlaczego intuicja o "przepakowanej obietnicy" zwykle się potwierdza.

Oryginał: Santa Fe Institute / arXiv, 2021 ok. 14 min czytania PL
BW
020

Recenzja · Artykuł naukowy

Umiejętność to nie inteligencja. Chollet dla kancelarii, która kupuje agenta.

François Chollet (wówczas Google), On the Measure of Intelligence (listopad 2019). Sześćdziesiąt stron o tym, że benchmarki mierzą umiejętność, nie inteligencję - a umiejętność można kupić większymi priorami, większymi danymi treningowymi albo węższym zakresem testu. Wprowadzenie ARC (Abstraction and Reasoning Corpus), który w grudniu 2024 został pierwszy raz rozwiązany przez o3 kosztem 3400 USD za zadanie. Dla compliance officera mapującego art. 15 AI Act (accuracy, robustness) na operacyjne pytania do dostawcy.

Oryginał: Google / arXiv, 2019 ok. 15 min czytania PL
BW
021

Recenzja · Artykuł krytyczny

Dziesięć słabości deep learningu. Marcus w 2018, kancelaria w 2026.

Gary Marcus (NYU), Deep Learning: A Critical Appraisal (arXiv, styczeń 2018). Dziesięć zarzutów wobec deep learningu: głód danych, słaby transfer, brak struktury hierarchicznej, problemy z wnioskowaniem otwartym, nieprzejrzystość, brak integracji z wiedzą aprioryczną, korelacja zamiast przyczynowości, założenie stabilnego świata, aproksymacja zamiast pewności, trudność inżynieryjna. Osiem lat później połowa zarzutów została rozpuszczona skalą, druga połowa wciąż definiuje listę pytań, które compliance officer musi zadać dostawcy - zanim model trafi do obsługi klienta.

Oryginał: NYU / arXiv, 2018 ok. 15 min czytania PL
BW
022

Recenzja · Editorial briefing

Warstwa procesu, warstwa osądu. Bifurkacja BigLaw i polska kancelaria.

The Bifurcation of BigLaw. An Editorial Briefing on the Legal Economy - trzynastostronicowy briefing graficzny z danymi Am Law 100, Harvey AI, CoCounsel, Luminance, Ropes and Gray. Teza: AI dzieli rynek prawny na warstwę procesu (ceny spadają do zera, 50-90% kompresji czasu) i warstwę osądu (honoraria biją rekordy, +45% YoY). Typowy portfel kancelarii elitarnej - 15,2% natychmiast podatne na wyparcie, 61,6% hybrydowe, 23,2% czysty osąd. Recenzja czyta briefing z Warszawy: co bierzemy, czego nie, gdzie leży różnica polska (AI Act, tajemnica zawodowa, OC zawodowe).

Oryginał: editorial briefing, 2026 ok. 15 min czytania PL
BW
023

Recenzja · Raport techniczny

Pięćset miliardów dolarów. GovAI liczy cybercrime, żeby policzyć AI.

Kamile Lukosiute, John Halstead, Luca Righetti (Centre for the Governance of AI, Oksford), Global Cybercrime Damages. A Baseline for Frontline AI Risk Assessment, aktualizacja 16 marca 2026. Zespół audytuje 27 publicznie dostępnych szacunków, odrzuca marketingowe 10 bln USD rocznie i stawia nowy baseline: ~500 mld USD rocznie globalnie (90% przedział 100 mld - 1 bln). Raport zbudowany pod capability thresholds dostawców frontier AI, ale dla kancelarii jest narzędziem do rozmów o proporcjonalności pod NIS2, DORA, AI Act art. 9, 15, 55 i w negocjacjach z ubezpieczycielami cyber.

Oryginał: GovAI, aktualizacja 16.03.2026 ok. 14 min czytania PL
BW
024

Recenzja · Raport branżowy

Oferty pracy zdradzają strategię. Magic Circle i AI w 4447 ogłoszeń.

Recenzja: Matthew Edwards / Futurice, AI Hiring Intelligence: Legal Sector - The Magic Circle and Beyond. Analiza 4447 ogłoszeń rekrutacyjnych z sześciu kancelarii Magic Circle - trzy różne strategie, rola Forward Deployed i luka adopcyjna, której press releases nie pokazują.

Oryginał: Futurice, marzec 2026 ok. 14 min czytania PL
BW
025

Recenzja · Artykuł naukowy

Siedem modeli zagrożeń. Bengio i Russell patrzą poza alignment.

Recenzja: Piedrahita i zespół (Jinesis Lab, Vector Institute) z udziałem Bengio, Russella, Schölkopfa, Audrey Tang, Mihalcei, Resnicka, AI Poses Risks to Democratic and Social Systems (ICML 2026). Siedem mechanizmów, którymi AI podkopuje instytucje - nawet gdy jest perfekcyjnie aligned - w lekturze polskiej kancelarii, RODO i AI Act.

Oryginał: ICML 2026, 25.03.2026 ok. 16 min czytania PL
BW
026

Recenzja · Artykuł naukowy

Mapa aktywności, mapa ryzyka. MIT mierzy, gdzie naprawdę siedzi AI.

Recenzja: Cai, YeckehZaare, Sun, Charisi, Wang, Imran, Laubacher, Prakash, Malone (MIT CCI / Sloan / SMART Singapore), Where can AI be used? Insights from a deep ontology of work activities (arXiv 2603.20619, 21.03.2026). Ontologia 39 603 czynności, 13 275 aplikacji AI i 20,8 mln robotów - oraz fakt, że górne 1,6% czynności generuje 60% wartości rynku. Co to znaczy dla kancelarii i compliance officerów.

Oryginał: arXiv / MIT CCI, 21.03.2026 ok. 17 min czytania PL
BW
027

Recenzja · Raport branżowy

Europa ma kapitał. Europa nie ma pośpiechu. European AI Report 2026.

Recenzja: Dealroom.co i Prosus (wstęp Fabricio Bloisi, CEO), European AI Report 2026: State of AI in Europe, 73 strony, dane za 2025. 21,8 mld USD inwestycji (+58% r/r), 3x luka na breakout, 9x luka na late stage, ponad 50% późnego kapitału z zagranicy, AI Act jako europejski "top mention hook". Co z tego wynika dla polskiej kancelarii - warstwa ownership, sovereignty i due diligence dostawców AI.

Oryginał: Dealroom.co / Prosus, Q1 2026 ok. 14 min czytania PL
BW
028

Recenzja · Artykuł naukowy

Praktyczna obskurność umarła. Carlini, Tramèr i koniec taniej pseudonimizacji.

Recenzja: Lermen (MATS), Paleka, Swanson, Aerni (ETH), Carlini (Anthropic), Tramèr (ETH), Large-scale online deanonymization with LLMs (24 strony). Agent LLM re-identyfikuje pseudonimowe profile Hacker News i Reddit z precyzją 70-90%. 9 na 125 uczestników Anthropic Interviewer Dataset rozpoznanych. Klasyczna metoda Narayanana: 0,1% recall. Co to znaczy dla RODO (art. 4, motyw 26), tajemnicy zawodowej i audytu pseudonimizacji w polskich kancelariach.

Oryginał: preprint ETH Zurich / Anthropic, 2026 ok. 15 min czytania PL
BW
029

Recenzja · Podręcznik instytucjonalny

AI w sądzie nie jest neutralna. Handbook CDDH liczy artykuły ECHR, które to rozbija.

Recenzja: Council of Europe (CDDH), Handbook on Human Rights and Artificial Intelligence, kwiecień 2026. Sto sześćdziesiąt systemów AI w europejskich sądach. Sekcja 4.1 Administration of Justice mapowana do art. 6 EKPC. Trzy wektory dla kancelarii: sędzia, prawnik, strona przeciwna.

Oryginał: Council of Europe, Strasbourg, 2026 ok. 16 min czytania PL
BW
030

Recenzja · Playbook regulacyjny

ENISA pisze do producentów. Kancelaria czyta to w trzech rolach naraz.

Recenzja: ENISA, Security by Design and Default Playbook, marzec 2026. 22 praktyki, 16 zasad, mapowanie do Cyber Resilience Act (rozporządzenie 2024/2847, obowiązuje od grudnia 2027). Trzy role kancelarii: klient, vendor LegalTech, doradca klientów-producentów.

Oryginał: ENISA, 2026 (CC-BY 4.0) ok. 14 min czytania PL
BW
031

Recenzja · Przewodnik praktyczny

Trzynaście rozdziałów Levy. Polski adwokat czyta dziewięć z nich bez Westlawa.

Recenzja: Colin S. Levy, AI in Litigation Practice, 2026. Trzynaście rozdziałów dla amerykańskich litygantów - Mata v. Avianca, predictive coding, deepfake authentication, ethics. Polski adwokat czyta z filtrem KPC, KPK i Kodeksu Etyki Adwokackiej.

Oryginał: Colin S. Levy, 2026 ok. 13 min czytania PL
BW
032

Recenzja · Raport branżowy

Twoja kancelaria już ma shadow AI. Sandbox to sposób, żeby tajemnica zawodowa to przeżyła.

Recenzja: Safe to Experiment - How Secure AI Sandboxes Give Teams Space to Innovate, Fail, and Learn, Thought Leadership publication, kwiecień 2026. Pięcioetapowy roadmap budowy sandboxa AI w kancelarii - z mapowaniem do RODO art. 25 i 32, tajemnicy zawodowej, AI Act art. 26.

Oryginał: Thought Leadership, kwiecień 2026 ok. 14 min czytania PL
BW
033

Recenzja · Raport międzynarodowy

Policja używa AI bez ujawnienia. UNICRI dostarcza adwokatowi trzy warstwy argumentacji.

Recenzja: UNICRI, Decoding Transparency: How to Foster Public Trust in Responsible AI Innovation in Law Enforcement, kwiecień 2026 (96 stron, projekt AI4Citizens). Trzy rozdziały: trust + transparency, communicating about AI, public engagement. Polski filtr: art. 5/6/8 EKPC, dyrektywa 2016/680, art. 5 AI Act.

Oryginał: UNICRI, kwiecień 2026 ok. 15 min czytania PL
BW
034

Recenzja · Praca empiryczna

Dwa błędy w pewności LLM. DeepMind diagnozuje, dlaczego model raz się upiera, raz kapituluje.

Recenzja: Kumaran, Fleming, De Martino, Veličković i in., Competing Biases underlie Overconfidence and Underconfidence in LLMs (Nature Machine Intelligence, kwiecień 2026, s. 614-627). Choice-supportive bias i hypersensitivity to contradiction w sześciu modelach (12B-675B). Verification Stack v2 - propozycja MateMatic dla architektury weryfikacji w kancelarii.

Oryginał: Google DeepMind / UCL, kwiecień 2026 ok. 14 min czytania PL
BW
035

Recenzja · Praca empiryczna

Po dwudziestu poprawkach LLM-em twój dokument to nie jest już twój dokument. Microsoft mierzy 25-50%.

Recenzja: Laban, Schnabel, Neville (Microsoft Research), LLMs Corrupt Your Documents When You Delegate (preprint arXiv:2604.15597, kwiecień 2026). Benchmark DELEGATE-52: 19 modeli × 52 domeny × 20 round-trip edits. Średnia degradacja 50%, frontier 25%. Najlepszy model gotowy w 11 z 52 domen. Tools nie pomagają. Verification Stack v3 - propozycja MateMatic dla iteracyjnej pracy nad umową, pismem procesowym, opinią.

Oryginał: Microsoft Research, kwiecień 2026 ok. 13 min czytania PL
BW
036

Recenzja · Raport autorski

Polska wobec AGI: 95 stron strategii. Co kancelaria z tego bierze, a co zostawia ekonomistom państwa.

Recenzja: Maksymilian Kuśmierek (AGIPoland), Polska w obliczu AGI - Raport strategiczny, marzec 2026 (95 stron). Pierwszy obszerny polski raport autorski o AGI w 2026. Recenzja MateMatic czyta z filtrem vendor-agnostic - oddziela twardą diagnozę polskiego rynku AI (cenna) od autorskich postulatów ekonomii politycznej (LVT, UBI - poza domeną MateMatic).

Oryginał: AGIPoland, marzec 2026 ok. 14 min czytania PL
BW
037

Recenzja · Narzędzie operacyjne

MIT centralizuje cztery bazy ryzyk AI w jedno narzędzie. Co compliance kancelarii może z tego wyciągnąć.

Recenzja: Michaels, Saeri, Slattery (MIT AI Risk Initiative), Introducing the AI Risk Navigator (2026, CC BY 4.0). Cztery datasety AIRI - AI Risk Repository, AI Incident Database, governance documents, mitigation actions - pod wspólną Risk Domain Taxonomy w airi-navigator.com. Dla compliance officera kancelarii: operacyjna baza pierwszej linii do audytu ryzyk AI i due diligence dostawcy LegalTech. Pytanie audytowe #5 do checklisty MateMatic.

Oryginał: MIT AIRI, 2026 ok. 11 min czytania PL
BW
038

Recenzja · Kompendium akademickie

Smuha i KU Leuven mapują europejską etykę AI w jednym tomie. Polska kancelaria czyta selektywnie.

Recenzja: Nathalie A. Smuha (red.), The Cambridge Handbook of the Law, Ethics and Policy of Artificial Intelligence (Cambridge University Press, Open Access CC-BY). Najpełniejsze europejskie akademickie kompendium prawa i etyki AI w 2026. Selekcja MateMatic: 7 rozdziałów priorytetowych dla polskiej kancelarii (RODO, AI Act, tort, IP, fairness, responsibility gap, competition).

Oryginał: Cambridge UP, ok. 600 stron ok. 16 min czytania recenzji PL
BW
039

Recenzja · Wzorzec polityki

Wzorzec polityki AI w czterdziestu sześciu stronach. Co polska kancelaria bierze, a co musi dopisać sama.

Recenzja: Responsible AI Institute, AI Policy Template - Build Your Foundational Organizational AI Policy (czerwiec 2024). Czternaście rozdziałów polityki AI dla organizacji oparte o ISO/IEC 42001 i NIST AI RMF. Polska kancelaria bierze szkielet w całości i dopisuje cztery brakujące warstwy: RODO, AI Act, tajemnicę zawodową, sektorowe wytyczne UODO/KNF/UKE. Licencja All Rights Reserved - PDF nie hostujemy.

Oryginał: RAII, czerwiec 2024 ok. 12 min czytania PL
BW
040

Recenzja · Framework operacyjny

Trzydzieści trzy pytania, dwanaście domen, trzy poziomy. Praktyczny audyt dostawcy AI w rozmowie, nie w ankiecie.

Recenzja: Dennis Ah King, AI Vendor Assessment Guide, V2.0, kwiecień 2026 (61 stron, licencja CC-BY-NC-SA 4.0). 33 pytania w 12 domenach × 3 tiery (Basic/Intermediate/Comprehensive), 5 pytań screeningowych ustalających poziom audytu, system scoringu ✓/⌑/✗, mapowanie na ISO 42001 + NIST AI RMF + EU AI Act. Skrypt godzinnej rozmowy audytowej z dostawcą LegalTech zamiast 100-stronicowej ankiety. Polska kancelaria dopisuje 4 warstwy: RODO operacyjne, AI Act, tajemnicę zawodową, polskie realia rynkowe.

Oryginał: Dennis Ah King, V2.0 kwiecień 2026 ok. 13 min czytania PL
BW
041

Recenzja · Raport RAND

RAND o prognozach AGI: nie zgadujemy daty, scenariuszami planujemy. Co kancelaria mówi klientowi pytającemu o pięć lat.

Recenzja: Sarma, Bhatt, Jacob, Steratore (RAND Corporation), Artificial General Intelligence Forecasting and Scenario Analysis, RR-A4692-1, marzec 2026 (75 stron). Synteza czterech metodologii prognozowania AGI - expert surveys, prediction markets, compute-centric models, scenario analysis. Asymmetry of costs, capability trajectory indicators, cruxes. Skrypt rozmowy adwokata z klientem korporacyjnym o niepewności technologicznej w trybie analitycznym, nie zgadującym daty.

Oryginał: RAND Corporation, marzec 2026 ok. 12 min czytania PL
BW
042

Recenzja · Raport empiryczny

Trzynaście procent firm ma framework AI governance. Thomson Reuters i UNESCO mierzą rozjazd między deklaracją a praktyką.

Recenzja: Thomson Reuters Foundation + UNESCO, Responsible AI in Practice - 2025 global insights from the AI Company Data Initiative, marzec 2026 (94 strony, ISBN 978-92-3-100863-4, licencja CC-BY-SA 3.0 IGO). 100 000 punktów danych z 2 972 spółek globalnie. Pięć Thematic Findings + 8 case studies (TELUS, Vodafone, SAP, Telefónica, BASF, Banco Bradesco, Infosys, Prudential) + Investor Engagement Checklist + Responsible AI Principles for Proxy Voting. Dla polskiej kancelarii: pierwszy globalny benchmark empiryczny i gotowy zestaw narzędzi audytowych klienta korporacyjnego.

Oryginał: TR Foundation + UNESCO, marzec 2026 ok. 13 min czytania PL
BW
043

Recenzja · Standard branżowy

Agent musi mieć tożsamość. OASIS CoSAI dostarcza brakujące ogniwo audytu wdrożeń AI w kancelarii.

Recenzja: OASIS CoSAI (Coalition for Secure AI), Agentic Identity and Access Management - Workstream 4: Secure Design Patterns for Agentic Systems, version 1.0, 20 marca 2026 (licencja OASIS Open Project rules). Osiem imperatywów Agentic Identity, threat model siedmiu klas zagrożeń, capability-impact matrix, drabina autonomii L0-L5, end-to-end przykład agenta przetwarzającego faktury, fazowa adopcja 1-2-3. Dla polskiej kancelarii: brakująca warstwa techniczna pięciowarstwowego stack'u governance - mapping na RODO art. 5/25/30/32, AI Act art. 9/12/14/26, art. 293 KSH, tajemnicę zawodową adwokacką i radcowską, oraz osiem pytań audytowych do dostawcy LegalTech.

Oryginał: OASIS CoSAI, 20 marca 2026 ok. 14 min czytania PL
BW
044

Recenzja · Raport branżowy

Pięćdziesiąt procent funkcji rządu jest gotowych. WEF i Capgemini mówią które, polska kancelaria pyta po co.

Recenzja: World Economic Forum w kolaboracji z Capgemini, Making Agentic AI Work for Government: A Readiness Framework, Insight Report, kwiecień 2026 (37 stron, licencja All Rights Reserved - PDF nie hostujemy, link do weforum.org). Ocena 70 core government functions w 9 kategoriach na dwóch wymiarach (potential × complexity), trzy readiness areas (high 14%, medium 36%, low 50%). Polska kancelaria czyta z dystansem do agendy WEF i Capgemini: bierze metodologię i dane, transponuje "function-based assessment lens" na funkcje kancelarii prawnej, mapuje na art. 26 AI Act dla podmiotów publicznych, art. 27 FRIA, art. 293 KSH dla spółek komunalnych i Skarbu Państwa. Brakująca warstwa decyzyjna stack'u governance dla klientów z sektora publicznego.

Oryginał: WEF + Capgemini, kwiecień 2026 ok. 14 min czytania PL
BW
045

Recenzja · Companion paper

Enforcement nie jest szóstą warstwą. Kenney rozprasza go po pięciu istniejących i tłumaczy dlaczego.

Recenzja: Noah M. Kenney (Digital 520), Runtime Enforcement and the AI Governance Stack: Embedding Execution Constraint Across the Governance Lifecycle, companion paper do Governing Intelligence (2026, licencja proprietary - PDF nie hostujemy, link na digital520.com). Drugi tom Kenneya w Bazie obok BW/001 (Cztery reżimy regulacyjne). Pięciowarstwowy AI Governance Stack (Data, Model, System Integration, Control & Monitoring, Audit & Evidence) plus runtime enforcement jako cross-cutting capability w każdej z pięciu, nie szósta warstwa. Sześć zasad design: distributed not centralized, continuous not point-in-time, contemporaneous evidence, proportional constraints, context-specific, graceful degradation (fail-closed). Mapping na art. 9/12/14/26/72 AI Act, RODO art. 5 ust. 2 i art. 32, tajemnicę zawodową adwokacką i radcowską jako runtime constraint nie at-design.

Oryginał: Kenney / Digital 520, 2026 ok. 12 min czytania PL
BW
046

Recenzja · Standards Profile

Berkeley CLTC syntetyzuje NIST plus ISO plus EU GPAI Code w jednym profilu. Polska kancelaria dostaje meta-mapę governance.

Recenzja: UC Berkeley Center for Long-Term Cybersecurity (Madkour, Newman, Raman, Jackson, Murphy, Yuan, Hendrycks), General-Purpose AI Risk-Management Standards Profile V1.2, kwiecień 2026 (~150-200 stron, licencja CC BY 4.0 - PDF hostowany lokalnie z atrybucją). Drugi annual update profilu syntetyzującego pięć źródeł - NIST AI RMF, ISO/IEC 23894, EU GPAI Code of Practice, International AI Safety Report 2025, NIST AI 800-1 - zorganizowany wokół czterech funkcji NIST GOVERN/MAP/MEASURE/MANAGE z jedenastoma high-priority subcategories. Dwie nowe v1.2: Govern 5.1 (third-party evaluations) i Manage 4.1 (post-deployment monitoring) - ta druga zbiega się 1:1 z Zasadą 2 Kenneya (BW/045) i imperatywem #6 OASIS CoSAI (BW/043). Section 2.2.1 Risk Taxonomies kompiluje cztery źródła. Osobny dokument Frontier AI Company Practices Evaluation z testami Claude Opus 4.5, GPT-5, Llama 4, Gemini 3 Pro. Dla MateMatic: warstwa syntezy regulacyjnej zamykająca ośmiowarstwowy stack governance.

Oryginał: Berkeley CLTC, kwiecień 2026 ok. 16 min czytania PL
BW
047

Recenzja · Workbook curriculum

Alan Turing Institute pisze etykę AI dla brytyjskiego urzędnika. Polska kancelaria czyta to za polskiego.

Recenzja: David Leslie, Cami Rincón, Morgan Briggs, Antonella Perini, Smera Jayadeva, Ann Borda, SJ Bennett, Christopher Burr, Mhairi Aitken, Michael Katell, Claudia Fischer, AI Ethics and Governance in Practice: An Introduction, The Alan Turing Institute (2023, Version 1.2, licencja CC BY 4.0 - PDF hostowany lokalnie z atrybucją). Pierwszy z ośmiu workbooków curriculum aktualizującego oryginalne UK Government Public Sector Guidance on AI Ethics and Safety z 2019 roku. Trójpoziomowa architektura: SUM Values jako fundament normatywny, SSAFE-D Principles jako sześć actionable goals (Sustainability, Safety, Accountability, Fairness, Explainability, Data Stewardship), PBG Framework (Process-Based Governance) jako mechanizm integracji w jedenastoetapowy cyrkularny cykl życia projektu AI/ML rozłożony na trzy meta-fazy Design/Development/Deployment. Pojęcie agenda-setting power przesuwa pozycjonowanie kancelarii z rzemieślniczego na strategiczne. Polska kancelaria czyta workbook za klienta-administracji publicznej (KPRM, MC, samorządy, sądy administracyjne) - sześć mapowań SSAFE-D na AI Act art. 9-15, RODO art. 5 i 35, ECHR plus polską deontologię adwokacką i radcowską. Otwiera linię ośmiu kandydatów na kolejne tomy Bazy Wiedzy.

Oryginał: Alan Turing Institute, 2023 (v1.2) ok. 17 min czytania PL
BW
048

Recenzja · Dokument regulacyjny

Komisja ocenia własną ustawę o gatekeeperach. Polska kancelaria czyta to za sprzedawcę z Allegro.

Recenzja: European Commission, Commission Staff Working Document accompanying the Report on the Review of Regulation (EU) 2022/1925 (Digital Markets Act), in accordance with Article 53, SWD(2026) 123 final towarzyszący COM(2026) 178 final, Brussels 28.04.2026 (87 stron, licencja CC BY 4.0 - PDF hostowany lokalnie z atrybucją). Pierwszy oficjalny przegląd Digital Markets Act zgodnie z art. 53 DMA - cztery dni przed terminem statutowym 3 maja 2026. Ocena efektów ex ante regulatory framework dla siedmiu designowanych gatekeeperów (Alphabet, Apple, Meta, Amazon, Microsoft, ByteDance, Booking.com) w sześciu obszarach: kontrola danych użytkowników (art. 5), otwarcie ekosystemów (art. 6), fair search, fair marketplaces, advertising transparency, pozostałe obowiązki. Reporting requirements art. 14 (notyfikacja koncentracji M&A) i art. 15 (audytowane raporty profilowania konsumentów). Empiryczna mapa compliance solutions każdego gatekeepera z konkretnymi przykładami: Meta "Consent or Pay" non-compliant decyzją z 24 kwietnia 2025, ByteDance consent screen, Microsoft less-personalised LinkedIn. Polska kancelaria czyta dokument za biznesowego użytkownika gatekeepera (sprzedawca Allegro/Amazon, deweloper App Store/Google Play, advertiser Meta/Google Ads, hotel Booking) - mapowanie na ustawę o ochronie konkurencji art. 9, jurysdykcję UOKiK, art. 415 KC, powiązanie z AI Act art. 5 (manipulative practices). Pierwsza warstwa regulacji konkurencji w Bazie Wiedzy.

Oryginał: European Commission, 28.04.2026 ok. 14 min czytania PL
BW
049

Recenzja · Praca akademicka FAccT

Maastricht i Tübingen mówią adwokatowi: "accuracy" nie jest pomiarem, jest wyborem normatywnym.

Recenzja: Lucas G. Uberti-Bona Marin, Bram Rijsbosch, Kristof Meding, Gerasimos Spanakis, Gijs van Dijck, Konrad Kollnig (Maastricht University Law & Tech Lab plus University of Tübingen Computational Law Lab), Is your AI Model Accurate Enough? The Difficult Choices Behind Rigorous AI Development and the EU AI Act, FAccT '26 (ACM Conference on Fairness, Accountability, and Transparency, Montreal 25-28 czerwca 2026), arXiv:2604.03254v2 [cs.CY], 28.04.2026 (19 stron, licencja CC BY 4.0 - PDF hostowany lokalnie z atrybucją). Centralna teza: accuracy w systemach AI nie jest property obiektywnym, mierzalnym i czysto technicznym - jest sumą czterech techno-normative choices, z których każdy ma konsekwencje prawne pod art. 15 AI Act i społeczne dla affected persons. Cztery wybory: Choice 1 Selecting Metrics (precision/recall/F1/MCC/AUC - który dla którego ryzyka), Choice 2 Balancing multiple metrics (jak rozstrzygnąć trade-off precision-recall), Choice 3 Measuring metrics (na jakim datasecie z jakim sample bias), Choice 4 Determining acceptance thresholds (jaki cutoff jest "good enough" i kto decyduje). Mapping na art. 15 AI Act plus art. 9/10/13/14/26 plus RODO art. 22/35. Polska kancelaria zyskuje narzędzie negocjacyjne wobec dostawcy LegalTech: cztery konkretne pytania audytowe zmieniające dynamikę rozmowy zakupowej.

Oryginał: arXiv 28.04.2026, FAccT '26 czerwiec 2026 ok. 14 min czytania PL
BW
050

Recenzja · Synteza referencyjna

Krause uczy kancelarie liczyć jak Billy Beane. Profit Formula z pięcioma składnikami i system ocen klientów A-F.

Recenzja: Jeffrey S. Krause (Affinity Consulting Group), Moneyball for Lawyers: Using Data to Build a Major-League Practice - prezentacja konferencyjna i ebook (2017-2025, paywall - MateMatic NIE hostuje PDF, recenzja oparta na publicznie dostępnych syntezach pod prawem cytatu). Synteza pięciu źródeł: Wisconsin Bar Inside Track 2019, Illinois State Bar Association IBJ 2017, Missouri Bar News, Lawyerist Podcast 474 (listopad 2023), Lawyerist Podcast grudzień 2025 The Hidden Cost of Bad Clients. Centralna teza: kancelarie robią z danymi to samo, co MLB przed 2002 rokiem - patrzą na surface numbers, ignorują głębsze metryki. Trzy operacyjne narzędzia: Profit Formula z pięcioma składnikami (Leads × Conversion × Transactions × Rate × Margin = Profit) z efektem złożonym 61% wzrostu zysku przy 10% wzroście w każdym składniku, system ocen klientów A-F z korelacją do źródeł leadów, koncepcja hidden cost of bad clients (opportunity cost, koszt moralny zespołu, koszt reputacyjny). Pierwszy tom w Bazie Wiedzy MateMatic poświęcony wewnętrznej ekonomii kancelarii - dwunasta warstwa stack'u governance. Filtr trzyfilarowy: bierzemy Profit Formula i A-F grading, nie endorsujemy agendy sprzedażowej Affinity ani amerykańskiego framingu, dopisujemy polskie realia (tajemnica zawodowa KEA/KERP, RODO art. 4 i 32 przy profilowaniu klientów, AI Augmentation Ratio jako szósty składnik formuły).

Oryginał: Affinity Consulting, 2017-2025 ok. 13 min czytania PL
BW
051

Recenzja · Synteza referencyjna

Supesu pyta polskich prawników o AI. 87 procent korzysta, ale ankieta nie pyta o to, co najważniejsze.

Recenzja: Supesu, Raport Rynku Prawniczego 2025/2026 (IV edycja, opracowanie Q1 2026, metoda CAWI, próba n=507 prawniczek i prawników z polskich kancelarii oraz działów in-house). Patronaty merytoryczne: Deloitte Legal, Bird & Bird, Rödl & Partner, Agencja Rozwoju Przemysłu. Centralna empiryka: 87 procent respondentów korzysta z narzędzi AI w codziennej pracy (ChatGPT 63 procent, Copilot 56 procent, Perplexity 18 procent, Claude i DeepL w jednocyfrowych procentach), top use case research prawny 81 procent. W osobnej sekcji o transformacji wewnętrznych działów prawnych: Wdrożenie AI 33 procent jako jeden z kroków. Pierwszy tom Bazy Wiedzy MateMatic z empirycznymi danymi adopcji AI w polskim rynku prawniczym - obok BW/050 Krause (ekonomia kancelarii) tworzy parę zarządczą. Filtr trzyfilarowy: bierzemy dane adopcji i krajobraz narzędzi, flagujemy trzy luki ankiety (brak rozróżnienia tier i DPA, brak rozróżnienia konto firmowe vs prywatne, self-selection bias CAWI), dopisujemy polską warstwę deontologii (art. 6 PoA / RP), RODO (art. 28 i 32) oraz AI Act (art. 26 deployer obligations).

Oryginał: Supesu, IV edycja, Q1 2026 ok. 12 min czytania PL
BW
052

Recenzja · Synteza referencyjna

AI Index Stanford HAI 2026. Dziewięć rozdziałów, 362 incydenty, 88 procent adopcji - co kancelaria wyciąga selektywnie.

Recenzja: Stanford Institute for Human-Centered AI (HAI), Artificial Intelligence Index Report 2026, dziewiąta edycja, kwiecień 2026, 385+ stron, 9 rozdziałów (R&D, Technical Performance, Responsible AI, Economy, Science, Medicine, Education, Policy and Governance, Public Opinion). Niezależny benchmark globalny rynku AI prowadzony od 2018 roku. Licencja: CC-BY-ND 4.0 International (potwierdzona na s. 5 raportu) - MateMatic NIE hostuje PDF, link do oryginału aiindex.stanford.edu. Pięć obserwacji MateMatic z 385 stron: 88 procent adopcji organizacyjnej globalnie zestawione z 87 procent polskich prawników (Supesu BW/051) - polska kancelaria wyrównana z trendem; 362 udokumentowane incydenty AI w 2025 vs 233 w 2024 (wzrost 55 procent rok do roku), Responsible AI nie nadąża za capability; AI sovereignty z czterema osiami (compute, dane, talent, model) jako definicyjna cecha polityki narodowej; 50-punktowa luka zaufania ekspertów (73 procent) vs publiczności (23 procent), EU 53 procent zaufania w regulacji AI vs USA 37 vs Chiny 27 (Pew); Polska 28,5 procent adopcji GenAI (poz. 22 globalnie, +2,10 punktu YoY) plus polskie benchmarki językowe (PolEval, ok. 19 tys. pytań z polskich egzaminów narodowych) plus Polska 61 procent zaufania do własnego rządu w regulacji AI (10/30 w Ipsos 2025). Trzy luki: US-centric bias chapter Policy, brak tłumaczenia capability benchmarks na metryki kancelaryjne, partnerstwa komercyjne źródeł danych (McKinsey, LinkedIn, GitHub, Quid, Zeki). Drugi tom Bazy Wiedzy MateMatic z empirycznymi danymi adopcji AI - obok BW/051 Supesu domyka mapę dwustronną Polska na tle świata i polskie kancelarie w Polsce.

Oryginał: Stanford HAI, kwiecień 2026 ok. 14 min czytania PL
BW
053

Recenzja · Standard branżowy

Sześć agencji rządowych Five Eyes pisze przewodnik bezpieczeństwa agentic AI. Pięć ryzyk plus lifecycle czterech etapów.

Recenzja: Careful adoption of agentic AI services - joint cyber security guidance opracowany przez sześć agencji rządowych: Australian Signals Directorate's Australian Cyber Security Centre (ASD's ACSC) jako lead, United States Cybersecurity and Infrastructure Security Agency (CISA) i National Security Agency (NSA), Canadian Centre for Cyber Security (Cyber Centre), New Zealand National Cyber Security Centre (NCSC-NZ), United Kingdom National Cyber Security Centre (NCSC-UK). 28+ stron, 2025/2026, licencja CC BY 4.0 - MateMatic hostuje PDF lokalnie z atrybucją. Centralna rekomendacja agencji autorskich: never granting agentic AI broad or unrestricted access; only use agentic AI for low-risk and non-sensitive tasks. Pięć kategorii ryzyk specyficznych dla agentic AI - Privilege risks (uprawnienia agenta i ich nadużycie), Design and configuration risks (błędy projektowe), Behaviour risks (halucynacja, prompt injection w warstwie agenta), Structural risks (kompleksowość integracji), Accountability risks (rozproszona odpowiedzialność). Best practices w czterech etapach lifecycle - Designing, Developing, Deploying, Operating secure agents. Plus Appendix A z prerequisites cyber security przed wdrożeniem agentów AI. Filtr trzyfilarowy MateMatic: bierzemy pięć ryzyk i lifecycle, flagujemy critical infrastructure i defence focus paperu, dopisujemy mapping na art. 32 RODO, dyrektywę NIS2 (nowelizacja UKSC w Polsce - prezydent podpisał 19.02.2026, wejście w życie 3.04.2026, deadline rejestracji 3.10.2026, deadline implementacji 3.04.2027, kary do 10 mln EUR plus odpowiedzialność osobista zarządu, rozszerzenie z 7 do 18 sektorów), AI Act art. 26 deployer obligations, tajemnicę zawodową KEA i KERP. Cross-reference do Aktualności 30.04.2026 (Workspace MCP scoping) - scope'y MCP jako bezpośrednia realizacja zasady least privilege. Trzeci tom dziennego trio z BW/051 Supesu i BW/052 Stanford - empiryka, skala, operacjonalizacja.

Oryginał: ASD ACSC + CISA + NSA + Cyber Centre + NCSC-NZ + NCSC-UK, 2025/2026 ok. 13 min czytania PL
BW
054

Recenzja · Standard regulacyjny EU

EDPB Guidelines on DPIA (2026): szablon to efekt uboczny. Mechanizm baseline-eskalacja od ISO TR 13335 do AI Act to fundament.

Recenzja: European Data Protection Board, projekt wytycznych z oficjalnym szablonem DPIA, 14 kwietnia 2026, konsultacje publiczne do 9 czerwca 2026. Mechanizm art. 32 RODO (ocena ogólna - baseline) do art. 35 RODO (DPIA - eskalacja) to wzorzec zarządzania ryzykiem z ISO/IEC TR 13335-3:1998 - poprzednika ISO 27005 - wpisany w tekst RODO bez przypisu. AI Act art. 9 (system zarządzania ryzykiem dla dostawców) i art. 6 plus Annex III (systemy wysokiego ryzyka - eskalacja do oceny zgodności) dodają trzeci poziom tej samej piramidy. Dla kancelarii jako administratora: art. 32 i art. 35 to jeden proces w dwóch aktach - nie dwa oddzielne checkboxy. Filtr trzyfilarowy MateMatic: bierzemy logikę eskalacji i szablon jako punkt wyjścia, flagujemy status konsultacyjny dokumentu i ryzyko używania szablonu bez baseline'u art. 32, nie endorsujemy traktowania DPIA jako produktu compliance do odhaczenia bez zrozumienia mechanizmu. Mapping na RODO art. 32 i 35, AI Act art. 9 i Annex III, NIS2 KSC, tajemnicę zawodową KEA i KERP. Cross-reference do BW/053 Five Eyes (art. 32 mapping), BW/049 Uberti-Bona Marin (AI Act art. 9-15), Aktualności 6.05.2026 o szablonie EDPB.

Oryginał: European Data Protection Board (EDPB), 2026 ok. 7 min czytania PL
BW
055

Recenzja · Badanie empiryczne

Leiden i TNO pytają 112 pracowników: czy mały model RAG wystarczy do zadań z wrażliwymi danymi. Odpowiedź zmienia rachunek dla kancelarii.

Recenzja: Froma, Kouwenhoven, de Boer, Jonker, van Duijn (Leiden University LIACS, TNO, TU Delft), arXiv:2605.00964v1, 1 maja 2026. Recenzja referencyjna pod prawem cytatu. Human-AI hybrid zawsze bije LLM-only niezależnie od rozmiaru modelu (N=112). Postrzegana użyteczność i satysfakcja porównywalne dla 3B/8B/70B. Modele 3B/8B lokalnie deployowalne z pełną kontrolą nad wrażliwymi danymi - autorzy projektowali scenariusz z EU AI Act compliance jako explicit constraint. Filtr trzyfilarowy: bierzemy empiryczny dowód za lokalnym RAG i walidację HITL (AI Act art. 14), flagujemy brak transferu bezpośredniego do polskich tekstów prawniczych i konieczność walidacji na własnych aktach, nie endorsujemy "3B wystarczy" bez własnej weryfikacji accuracy. Mapping: tajemnica zawodowa KEA/KERP, RODO art. 32, AI Act art. 14, zero-cloud stack. Cross-reference BW/036 Kuśmierek, BW/051 Supesu, BW/053 Five Eyes, BW/054 EDPB DPIA.

Oryginał: Leiden University + TNO + TU Delft (arXiv), 2026 ok. 8 min czytania PL
BW
056

W opracowaniu

Kolejny tom w przygotowaniu.

Nowa pozycja pojawi się po rzetelnej lekturze. Bez pośpiechu.

Wkrótce