Legal Data Hunter wchodzi do connector marketplace Anthropic. Open-source projekt sprzed trzech miesięcy dostarcza Claude jednolity dostęp do 31 mln dokumentów prawnych w 160+ jurysdykcjach.
12 maja 2026, równolegle z launchem Claude for the legal industry, Anthropic potwierdza partnerstwo z Legal Data Hunter (LDH) - projektem open-source maintainowanym przez Zacharie Laïka (CEO Goodlegal, Station F). Od dziś każdy użytkownik Claude (claude.ai, Claude Code, Cowork) może podpiąć LDH przez connector marketplace i przeszukiwać globalne dane prawne bez wychodzenia z czata. Skala: 31 mln dokumentów, 160+ jurysdykcji, 1100+ open-source skryptów agregujących źródła. Czas: projekt wystartował trzy miesiące przed partnerstwem, według deklaracji założyciela w poście z 12 maja 2026.
Aktualne na 2026-05-13. Pisaliśmy o LDH na LinkedIn, gdy projekt był młodszy o kilka tygodni i o kilka rzędów wielkości mniejszy. To nie jest historia o korpusie - to jest historia o tempie, w jakim infrastruktura prawna staje się dobrem publicznym przez fork i pull request.
O czym jest to partnerstwo
Legal Data Hunter wystartował na początku 2026 roku jako open-source projekt na GitHub (repozytoria worldwidelaw/legal-sources i ZachLaik/legal-data-pipeline). Cytat założycielski z posta Laïka: "law worldwide belongs to everyone and an AI agent could somehow collect it into a single omni-jurisdictional database". Trzy miesiące później projekt ma 31 mln dokumentów w 160+ jurysdykcjach, 1100+ skryptów zbierających źródła publiczne, mapę pokrycia (frontend Leaflet.js + GeoJSON) i dashboard statusu źródeł per jurysdykcja.
Partnerstwo z Anthropic ogłoszone 12 maja 2026 dodaje LDH do connector marketplace Claude - obok 20+ pozostałych konektorów MCP wymienionych w blogu Claude for the legal industry (nasza pierwsza aktualność z 13 maja). W oficjalnym wykazie Anthropic LDH siedzi w kategorii Legal research, obok Midpage i Trellis. Plug-in nie wymaga konfiguracji custom MCP - user dodaje przez marketplace, autoryzuje, korzysta. Anthropic team kuratorujący partnerstwo: Mark Pike (ten sam, który koordynował Claude for legal industry), Hadley Mouritzen, Cameron Barnes.
Drugi sygnał wart zapamiętania. 31 mln dokumentów w 160+ jurysdykcjach to liczba, którą Anthropic w blogu Claude for the legal industry przypisuje pozycji "Legal research corpus" - dokładnie ta sama suma, którą Laïk podaje dla LDH. Free Law Project, też podpięty jako konektor, dostarcza osobno największy publiczny dataset US trial court. Dwa różne źródła, dwie komplementarne pokrywy - LDH globalna szerokość, Free Law Project głębokość US.
Liczby
Dokumenty zagregowane
31 mln
Pokryte jurysdykcje
160+
Skrypty OSS
1100+
Czas od pierwszego commitu
~3 miesiące
Średnia per jurysdykcja
~194 tys. dok.
Dostęp
claude.ai · Code · Cowork
31 mln dokumentów prawnych zagregowanych przez 1100+ skryptów open-source. 160+ jurysdykcji z mapą pokrycia (Leaflet + GeoJSON), z dashbordem statusu źródeł per kraj (complete / planned / blocked / requires maintenance). 3 miesiące od pierwszego commitu (data deklarowana przez założyciela) do partnerstwa z największym dostawcą frontier-modelu na rynku - benchmark tempa dla OSS w branży, w której Westlaw, LexisNexis i Wolters Kluwer budują korpusy od dekad. Status dystrybucji: dane przez status.json, repozytorium ZachLaik/LegalDataHunter publiczne, kod skryptów na GitHub pod worldwidelaw/legal-sources.
Trzyfilarowy filtr MateMatic
BIERZEMY
1100+ open-source skryptów jako zaproszenie do roli jurisdiction lead Polska - maintainerski tag "Become a Lead" jest na stronie LDH explicite. Kancelaria z głębokim know-how o krajowych źródłach (SAOS, ISAP, RCL, eKRS, MSiG, dziennikach urzędowych ministerstw) może objąć patronat nad polską jurysdykcją i kierować pokryciem od strony jakościowej, a nie tylko ilościowej. Realny ruch wolny od vendor lock-in - LDH pozostaje open source niezależnie od partnerstwa z Anthropic. Connector w marketplace Claude oznacza, że adoption w polskiej kancelarii nie wymaga budowy custom MCP - plugin Litigation Legal albo Privacy Legal z dzisiejszego launchu Anthropic może wywoływać LDH jako research backend, gdy prawnik pisze brief, bez wymiany DMS, bez integracji własnymi rękami. Tempo OSS jako sygnał kierunkowy - trzy miesiące od pustego repo do 31 mln dokumentów to konsekwencja konfiguracji projektu (skrypty modułowe per jurysdykcja, każda do osobnego forku, każda do osobnego pull requesta); dla polskiej kancelarii rozważającej własną mini-bazę wiedzy jest to konkretna mechanika do podpatrzenia - granularność per jurysdykcja i per typ źródła, nie monolityczny pipeline.
FLAGUJEMY
Polska jurysdykcja - status do sprawdzenia w status.json przed promowaniem klientowi. Strona LDH eksponuje mapę pokrycia z czterema stanami: complete, planned, blocked, requires maintenance. Jeżeli PL jest "planned" albo "blocked" - kancelaria nie ma dziś polskiego korpusu, ma deklarację. 31 mln to liczba globalna, nie deklaracja głębokości per jurysdykcja - 31 mln / 160+ = średnio ok. 194 tys. dokumentów per kraj, średnia myli; USA i UE prawdopodobnie ciężko, Polska może mieć dramatycznie mniej (do potwierdzenia w dashbordzie). LDH agreguje, nie waliduje - skrypty polegają na stabilności źródła zewnętrznego; gdy SAOS zmienia format, LDH ma stary snapshot, dopóki kontrybutor nie zaktualizuje skryptu (natura modelu OSS-aggregator, nie zarzut wobec projektu); konsekwencja: do pism procesowych zawsze weryfikacja bezpośrednio w oficjalnym źródle, LDH jako wstępny przegląd. Tajemnica zawodowa i prompt-flow - wyszukiwanie publicznego prawa to nie problem, ale jeżeli prawnik wpisuje do promptu fakty sprawy ("moja klientka X w sporze z Y o Z, znajdź podobne orzeczenia"), to leci nie tylko do Anthropic, lecz dodatkowo wywołuje konektor LDH z parametrami pochodzącymi z faktów klienta; każdy konektor MCP rozszerza powierzchnię, na której fakty klienta opuszczają środowisko kancelarii (interpretacja MateMatic, nie stanowisko NRA ani KRRP).
NIE ENDORSUJEMY
Tezy "31 mln dokumentów to globalne autorytatywne źródło dla prawnika" - LDH dostarcza ilość; jakość wymaga walidacji per jurysdykcja, per typ źródła (orzecznictwo / akty prawne / dzienniki urzędowe / interpretacje administracyjne), per granularność daty i wersji. Bez tej warstwy 31 mln jest sygnałem o skali projektu, nie deklaracją gotowości produkcyjnej w polskiej praktyce. Tezy "podpinamy LDH i kancelaria ma globalny research stack" - konektor LDH siedzi obok Westlaw, LexisNexis, CURIA, EUR-Lex i obok SAOS, ISAP, eKRS; nie zastępuje żadnego z nich. To dodatkowa warstwa wstępnego przeglądu, która działa najlepiej, gdy kancelaria ma już zaufane oficjalne źródła i wie, kiedy LDH wystarczy, a kiedy trzeba schodzić głębiej.
Partnerstwo LDH z Anthropic zmienia ekonomię research dla kancelarii - jeden konektor zamiast pięciu osobnych integracji. Nie zmienia jednak obowiązku weryfikacji każdej sygnatury i każdego fragmentu uzasadnienia w oficjalnym źródle, zanim trafi do pisma.
Cztery linie polskiego compliance officera
Pierwsza linia. RODO art. 28 i tajemnica zawodowa. Konektor LDH jest trzecim podmiotem w architekturze - obok kancelarii i Anthropic. Mimo że LDH przeszukuje publiczne prawo, parametry zapytań mogą zawierać dane klienta. DPA musi pokryć łańcuch: kancelaria → Anthropic → LDH. Sprawdzenie warunków LDH jako podmiotu dalej powierzającego przetwarzanie po stronie Anthropic jest obowiązkowe przed wdrożeniem (interpretacja MateMatic).
Druga linia. Walidacja pokrycia PL przed jakimkolwiek deploymentem na żywych sprawach. Konkretnie: pobierz dashboard statusu, zobacz, ile dokumentów jest indeksowanych z polskich źródeł, jakie źródła są oznaczone jako "complete" / "planned" / "blocked". Jeżeli kluczowy dla Twojej praktyki SAOS jest "planned" - dziś LDH nie szuka w polskim orzecznictwie, dziś LDH wyszukuje w 159 innych jurysdykcjach.
Trzecia linia. EU AI Act art. 26 - obowiązki wdrażającego. Plugin używający LDH jako research backend nie wpada w Annex III dopóki działa wspomagająco. Ale jeżeli automatyzujesz pipeline "pobierz orzecznictwo z LDH → wygeneruj draft uzasadnienia → wyślij do klienta bez review", przesuwasz się w stronę obowiązków deployera. Zachowaj Decyzja jako jednostka pracy - prawnik jako etap walidacji output research.
Czwarta linia. Citing orzeczeń z LDH w pismach procesowych. To pole, na którym KaBLE-podobne ryzyko (first-person false belief, Stanford HAI overlay z 9 maja 2026) nie znika, choć dotyczy innego typu błędu - tu chodzi o halucynację sygnatury orzeczenia albo fragmentu uzasadnienia. Reguła: każde cytowanie z LDH weryfikuj w oficjalnym źródle, zanim wejdzie do pisma.
Trzy pytania przed włączeniem konektora w kancelarii
Jaki jest status polskich źródeł w LDH (SAOS, ISAP, eKRS, MSiG, dzienniki urzędowe)? Sprawdź status.json i dashboard. Jeżeli "planned" lub "blocked" - LDH dziś nie jest pierwszym narzędziem dla polskiej praktyki, jest opcją dla spraw transgranicznych.
Czy kancelaria chce objąć rolę jurisdiction lead PL? To pozycja maintainera dla polskiej jurysdykcji - widoczność w globalnym projekcie OSS, wpływ na priorytet pokrycia źródeł, obecność w międzynarodowym projekcie LegalTech. Koszt: czas seniora technicznego plus prawnik nadzorujący jakość źródeł.
Czy regulamin promptingu w kancelarii zakazuje wprowadzania faktów klienta do zapytań research? Konektor LDH dodaje powierzchnię, na której takie zapytania wychodzą poza kancelarię. Jeżeli zasady nie ma - LDH ją wymusza.
Legal Data Hunter w connector marketplace Anthropic daje polskiej kancelarii dostęp do globalnego wstępnego przeglądu prawa bez integracji własnymi rękami - i jednocześnie zaprasza do roli jurisdiction lead PL, której objęcie ma sens dla kancelarii inwestującej w obecność w międzynarodowych projektach LegalTech. Pierwszy krok operacyjny: dziś sprawdź status polskich źródeł w dashbordzie LDH, zanim klienci usłyszą "podpinamy LDH". Drugi: zdecyduj, czy polskie pokrycie jest dla Was projektem do współzarządzania, czy tylko opcją do śledzenia.
Co MateMatic wnosi do tematu
Warsztat MateMatic "Walidacja stack-u AI kancelarii na własnym korpusie" w nowej edycji uwzględnia LDH jako baseline research backend obok lokalnych źródeł (SAOS, ISAP, eKRS). Audyt pokrycia LDH dla polskich źródeł (które publiczne źródła są dziś indeksowane, jakie luki), test 30-50 zapytań research wzorowanych na realnych zadaniach kancelarii, mapowanie LDH na pillar Decyzja jako jednostka pracy z eksplicite zapisaną regułą weryfikacji w oficjalnym źródle. Plus opcjonalny moduł Jurisdiction lead PL dla kancelarii, które chcą objąć tę pozycję - mapa zadań, harmonogram, wymagania techniczne (Python skrypty modułowe), wymagania jakościowe (walidacja prawna źródeł).
Interpretacje regulacyjne są stanowiskiem MateMatic, nie zastępują doradztwa prawnego i nie stanowią stanowiska NRA ani KRRP.
Drugi sygnał: dokument blogowy nie waży autorów, waży procesy. 12 pluginów to pluginów praktyki, nie pluginów funkcji. Każdy jest oparty na rytmie pracy konkretnego zespołu - dla M&A diligence, dla DPA review, dla discovery, dla holds, dla deposition prep, dla brief drafting. Skills to dodatkowo warstwa reusable instructions, które kodują playbooki kancelarii - drafting redline z trackowanymi zmianami, formatting check na execution copies, scrub internal comments przed wysyłką do drugiej strony.
Trzeci sygnał: Mark Pike. Prawnik w Anthropic, który zaczął kodować i przyjął rolę product managera. Jego post na LinkedIn z 12 maja 2026 (2 319 reakcji, 125 komentarzy w 13 godzin) opisuje drogę od "zabawek" (wirtualny gavel, Clawd-shaped pager) do launchu produktowego. Motto Anthropic, które cytuje: "do the simple thing that works". To inny rodzaj launchu niż klasyczny BigLaw vendor pitch.
Liczby do zapamiętania
Harvey BigLaw Bench
Claude Opus 4.7 = 90,9%
Pluginów praktyki
12 (open source)
Konektorów MCP
20+ (DMS, e-disco, AI)
Free Law Project korpus
31 mln · 160+ juryd.
Microsoft 365
Word + Outlook
Claude for Nonprofits
discount + 4 free tools
90,9 procent - Claude Opus 4.7 na Harvey BigLaw Bench (najwyższy wynik wśród modeli Claude). Cytat Winstona Weinberga z Harvey: "Harvey for Claude Connector brings our legal intelligence directly into Claude". 31 milionów dokumentów - Free Law Project korpus, 160+ jurysdykcji, największy publiczny dataset trial court w USA. 12 pluginów - commercial, corporate, employment, privacy, product, regulatory, AI governance, IP, litigation, plus law student, legal clinic, legal builder hub, wszystkie w Markdown, w anthropics/claude-for-legal. 20+ konektorów MCP - contract lifecycle (Definely, Docusign, Ironclad), deal rooms (Box, Datasite), DMS (iManage, NetDocuments), e-discovery (Consilio, Everlaw, Relativity), research (Legal Data Hunter, Midpage, Trellis), platformy AI (Thomson Reuters CoCounsel, Harvey, Solve Intelligence), public service (BoardWise, Courtroom5, Descrybe, Free Law Project). Claude for Nonprofits - dyskontowany dostęp dla qualifying legal aid clinics, public defenders, nonprofit legal services. Plus cztery darmowe narzędzia: BoardWise, Courtroom5, Descrybe, Free Law Project.
Cztery cytaty, które warto zachować
Gerrit Beckhaus, Freshfields Lab: "Our approach in the Freshfields Lab has always been to build on the best available technology. Claude's capabilities have become an essential part of our proprietary AI-powered solutions."
Mindy Lok, Accenture: "My legal team at Accenture put Claude to work on everyday legal matters, and we have been very excited to see how productivity gains could be realized." (Konkretu liczbowego brak - sygnał, że Accenture chwali kierunek, nie podaje jeszcze metryki produktywności.)
Joel Hron, Thomson Reuters: "The future of AI won't be defined by where the work happens, it will be defined by whether the results can be trusted." (Najmocniejsze zdanie launchu - przesuwa kryterium oceny stack-u z "gdzie pracuje" na "czy można zaufać wynikowi".)
Jay Madheswaran, Eve: "We evaluate every model against 24+ legal-specific scorers - citation accuracy, ungrounded case quotes, memory leakage, refusal correctness - because in litigation, an authoritative-sounding hallucination is worse than no answer."
Zdanie Madheswarana o authoritative-sounding hallucination jest tezą, którą warto przyswoić w polskiej kancelarii - jeden źle ugruntowany cytat z orzecznictwa w piśmie procesowym kosztuje więcej niż brak odpowiedzi modelu.
Trzyfilarowy filtr MateMatic na launchu Anthropic
BIERZEMY
12 pluginów open source w Markdown jako startery procesu, nie gotowy stack - kancelaria może forkować plugin Privacy Legal pod polskie RODO/PUODO/art. 9 AI Act, plugin Litigation Legal pod KPC, plugin AI Governance Legal pod EU AI Act z polskim layerem. Architektonicznie zgodne z pillarem MateMatic Decyzja jako jednostka pracy - playbook jako artefakt, nie magia w black-boxie. Skills jako reusable instructions - mechanizm, w którym zespół kancelarii koduje własny standard (np. "redline DPA: 12 klauzul + 6 AI-specific addenda z Kenneya, plus polski layer RODO art. 28") i wszyscy associate przy każdym zadaniu pracują na tym samym standardzie. Harvey BigLaw Bench 90,9 procent jako referencja - benchmark istnieje, można podawać klientom liczbę, można porównywać konkurencyjne stack-i. Cztery darmowe konektory public service (Free Law Project, Courtroom5, BoardWise, Descrybe) - sygnał Anthropic, że pro bono i legal aid nie są dodatkiem do pakietu, są w pakiecie od dnia jeden.
FLAGUJEMY
20+ konektorów to anglo-amerykański stack - iManage, NetDocuments, Ironclad, Harvey, Relativity, Thomson Reuters CoCounsel, Everlaw, Consilio. Polska kancelaria w większości przypadków nie ma żadnego z nich. Adopcja launchu w Polsce nie jest "podłącz i działa" - jest "wymień DMS na iManage albo zbuduj custom MCP do polskiego systemu". Plugin AI Governance Legal jest zaprojektowany pod compliance review checklists w stylu use case triage, impact assessments, board-level reporting - architektura zgodna z anglo-amerykańskim podejściem do AI governance, gdzie Legal jest jednym z owners obok IT, Risk i Compliance. Polski layer (EU AI Act art. 9, art. 26, KSC, RODO art. 35 DPIA) wymaga dodania - plugin sam tego nie zawiera (interpretacja MateMatic, nie stanowisko NRA ani KRRP). Harvey BigLaw Bench - benchmark anglojęzyczny, common-law oriented, mierzony na pracy BigLaw firm w USA. 90,9 procent na BigLaw Bench nie jest 90,9 procent na polskiej pracy procesowej. Brak twardych metryk compliance/security w blogu - brak explicite SOC 2, brak HIPAA, brak audit logs jako standardu, brak retention policy w warstwie launchu. Pojawia się fraza "permission-bound, auditable access" (iManage connector) i "permission-scoped workflows" - to deklaracja, nie certyfikacja.
NIE ENDORSUJEMY
Tezy "Claude jest topowy w BigLaw Bench, więc gotowy dla naszych klientów" - bez walidacji na polskim korpusie aktów, z polskim językiem, z polskim systemem prawnym, z polskimi instrumentami (RODO art. 6/9/22/32/35, AI Act art. 6/9/26/50, KPC, tajemnica zawodowa adwokacka). Sam Anthropic nie twierdzi, że plugin Privacy Legal pokrywa RODO - twierdzi, że obejmuje DPA review i DSAR response. Reszta zostaje na barkach kancelarii (interpretacja MateMatic, nie stanowisko NRA ani KRRP). Tezy "12 pluginów = gotowy stack" - to startery, nie kompletne procesy. Plugin Litigation Legal obejmuje intake, holds, depositions, briefs - w common law. KPC, art. 6 prawa o adwokaturze, art. 6 ustawy o radcach, KSC, KRRP rules of conduct - poza scope plugina. Tezy "Anthropic teraz robi za vendora, więc relacja Claude vs polski LegalTech jest rozstrzygnięta" - launch zwiększa zaufanie do platformy, ale nie wymienia stack-u rynku polskiego. Polski LegalTech (mapowany przez nas w aktualności z 27 kwietnia 2026) ma swój własny rytm adopcji - launch Anthropic jest sygnałem, nie wymiennikiem.
Launch Anthropic zmienia architekturę dostępną dla kancelarii. Nie zmienia obowiązku polskiego compliance officera, by zbudować nad nią własny layer regulacyjny i etyczny.
Czego launchowy blog nie mówi, a co musi powiedzieć polski compliance officer
Pierwsza linia. RODO art. 28 - umowa powierzenia. Anthropic jako procesor przetwarzający dane osobowe wymaga DPA, z konkretnym zestawem klauzul (lokalizacja serwerów, podpowierzenie, audyt, zwrot lub usunięcie danych po zakończeniu). Plugin Privacy Legal nie zwalnia kancelarii z negocjacji własnej DPA z Anthropic - sam plugin jest narzędziem do review DPA z klientami, nie z dostawcą AI (interpretacja MateMatic).
Druga linia. Tajemnica zawodowa adwokacka i radcowska. Art. 6 prawa o adwokaturze, art. 6 ustawy o radcach prawnych. Wprowadzenie do stack-u Claude treści objętych tajemnicą wymaga trzech rzeczy łącznie - zgody klienta opartej na informacji o miejscu przetwarzania, umowy z Anthropic gwarantującej zero retention dla treningu, mechanizmu, który technicznie blokuje retencję (nie tylko deklaratywnie). Plugin Litigation Legal pomaga w workflow - nie zmienia tej rachuby. NRA i KRRP nie wydały dotąd jednolitego stanowiska o AI w pracy procesowej - to jest pole otwarte (interpretacja MateMatic, nie stanowisko NRA ani KRRP).
Trzecia linia. EU AI Act, po Omnibus przesunięciu z 7 maja 2026 (nasza aktualność). Pluginy Litigation Legal, Privacy Legal, AI Governance Legal działają w trybie wspomagającym - nie podejmują decyzji o prawach klienta autonomicznie. To utrzymuje je z dala od najtwardszej części aktu (Annex III i systemy wysokiego ryzyka). Ale konfiguracja, w której plugin pracuje bez human-in-the-loop weryfikacji - na przykład auto-generowane pisma z plugina Litigation Legal w workflow demand letter, wysyłane bez review prawnika - przesuwa kancelarię w stronę odpowiedzialności art. 26 (obowiązki wdrażającego). Polski layer wymaga eksplicite zapisanego procesu Decyzja jako jednostka pracy w każdym workflow (interpretacja MateMatic).
Czwarta linia. First-person false belief. KaBLE benchmark, który Stanford HAI wyróżniło w LegalTech overlay do AI Index 2026 (nasza aktualność z 9 maja 2026), dotyczy całej rodziny LLM-ów - również tych użytych w pluginie Litigation Legal do streszczeń zeznań, opinii biegłych, pism drugiej strony. Plugin nie jest zwolnieniem z testu Czy nasz format wymusza rozróżnienie "świadek twierdzi" vs "udowodnione"?. Test ten leży na kancelarii, nie na Anthropic.
Trzy pytania, których launch nie zwalnia z odpowiedzi
Czy kancelaria ma plan walidacji 12 pluginów na polskim korpusie? Plugin Litigation Legal w common-law nie jest pluginem w KPC. Plan walidacji to nie jest "spróbujemy i zobaczymy" - to konkretny zbiór 30-50 zadań testowych w polskim języku, z polskimi instrumentami procesowymi.
Czy mamy DPA z Anthropic przygotowaną do podpisu? Plugin Privacy Legal nie pomoże w negocjacji z Anthropic. Tę umowę kancelaria negocjuje z enterprise sales Anthropic samodzielnie, najlepiej przed migracją wrażliwych treści.
Który z 20+ konektorów jest pierwszym krokiem? Polska kancelaria nie ma iManage. Ma najczęściej SharePoint, OneDrive, czasem własny DMS. Pytanie nie brzmi "podpinamy Claude", brzmi "który punkt integracji ma najwyższy ROI w naszej praktyce" - i odpowiedź różni się między kancelarią procesową, korporacyjną i butikiem regulacyjnym.
Launch Claude for the legal industry zmienia architekturę dostępną dla polskich kancelarii - 12 pluginów open source w Markdown to startery, na których można zbudować polski stack, a nie zamknięty produkt do kupienia. Najgroźniejsza decyzja w tym kwartale to skopiowanie konfiguracji BigLaw firmy z USA bez warstwy walidacji na polskich aktach i bez polskiego layeru regulacyjnego. Najbezpieczniejszy ruch to fork dwóch-trzech pluginów najbliższych praktyce kancelarii, walidacja na zbiorze 30-50 polskich zadań i DPA z Anthropic podpisana przed migracją wrażliwych treści.
Co MateMatic wnosi do tematu
Warsztat MateMatic "Walidacja stack-u AI kancelarii na własnym korpusie" w nowej edycji uwzględnia fork pluginu Anthropic jako wariant referencyjny. Konstrukcja własnego pluginu w Markdown, mapowana na polskie instrumenty - art. 9 RODO, art. 6 prawa o adwokaturze, art. 9 i 26 AI Act, KPC. Plus zbiór testowy 30-50 zadań wzorowanych na CaseLaw v2 i KaBLE w polskim języku - by zmierzyć accuracy modelu z pluginem Anthropic na pracy, którą kancelaria faktycznie wykonuje. Deliverable: forked plugin gotowy do commit do własnego repo + zbiór testowy + DPA template do negocjacji z Anthropic. Materiał osadzony w pillarach MateMatic Decyzja jako jednostka pracy i Stack zero-cloud.
Interpretacje regulacyjne w warsztacie są stanowiskiem MateMatic, nie zastępują doradztwa prawnego i nie stanowią stanowiska NRA ani KRRP.
Co MateMatic wnosi
Audyt pokrycia LDH dla polskich źródeł + opcjonalny moduł Jurisdiction lead PL
Deliverable: mapa polskich źródeł (SAOS, ISAP, eKRS, MSiG, dzienniki urzędowe ministerstw) z aktualnym statusem w LDH + test 30-50 zapytań research na realnych zadaniach kancelarii + regulamin promptingu zakazujący wprowadzania faktów klienta do zapytań research. Plus opcjonalny moduł Jurisdiction lead PL - mapa zadań, harmonogram, wymagania techniczne i jakościowe. Pillary: Decyzja jako jednostka pracy + Stack zero-cloud.