Materiał, który dostałem w czwartek po południu, ma czterdzieści stron i jest napisany przez osobę, która wie, co robi. Colin S. Levy od lat porusza się na styku prawa i technologii, autor kilku playbooków dla działów prawnych i kancelarii, publikuje pod własnym nazwiskiem. To nie jest marketing dostawcy przebrany za etykę. To jest uczciwa próba przełożenia amerykańskiej ramy Model Rules of Professional Conduct na konkretne decyzje, które prawnik podejmuje przed naciśnięciem klawisza Enter w oknie agenta AI.
Pierwszy krok przy takim tekście polega na sprawdzeniu, ile z tego przechodzi przez Atlantyk. Odpowiedź wymaga uwagi. Część konstrukcji Levy'ego przenosi się bez zmian. Część wymaga przepisania przez art. 28 RODO i art. 14 AI Act. A część nie istnieje w polskim kontekście w ogóle, bo nie ma polskiego odpowiednika. Rekomendacja otwierająca: materiał warto przeczytać dwa razy. Pierwszy raz jak dostawca zachwytu nad amerykańską dojrzałością regulacyjną, drugi raz jak audytor, który szuka, czego autor nie napisał.
O czym jest ten materiał
Colin Levy pisze jako praktyk. Struktura jest klasyczna: cztery części, dwanaście rozdziałów, appendix z checklistą. Część pierwsza definiuje etykę AI jako obowiązek zawodowy, nie ćwiczenie filozoficzne. Część druga mapuje Model Rules (1.1 kompetencje, 1.6 poufność, 5.1 i 5.3 nadzór, 3.1 i 3.3 candor toward the tribunal, 1.4 komunikacja) na praktykę AI. Część trzecia to ryzyko przez pryzmat typu zadania: formatowanie, drafting, research, predictive analytics. Część czwarta obsługuje billing, bias i infrastrukturę organizacyjną.
Punkt ciężkości tekstu to ABA Formal Opinion 512 z 29 lipca 2024 roku. To właśnie ta opinia nałożona na istniejące Model Rules tworzy amerykański szkielet etyki AI, który Levy tłumaczy na język operacyjny. Do tego dochodzą opinie stanowe: Floryda Bar Opinion 24-1, Kalifornia Practical Guidance z listopada 2023, Teksas Opinion 705 z TRAIL taskforce i NYC Bar 2025-6 o transkrybowaniu rozmów z klientem. Wisienką są dwa wyroki, których nie brakuje w żadnej amerykańskiej prezentacji o AI w prawie: Mata v. Avianca (S.D.N.Y. 2023, sankcje 5 tys. dolarów za sześć zmyślonych cytatów z ChatGPT) i Park v. Kim (2d Cir. 2024, przekazanie sprawy do postępowania dyscyplinarnego).
Jednym zdaniem: to najbardziej praktyczny amerykański compendium etyki AI dla prawników, jakie dziś można położyć na biurku. Z jednym zastrzeżeniem.
Recenzja właściwa
Co Levy ma dobrze, i co przenosi się przez Atlantyk
Najmocniejsza część tekstu to rozdział czwarty o klasyfikacji danych. Levy proponuje cztery tiery: publiczne (Tier 1), wewnętrzny work product (Tier 2), poufne dane klienta (Tier 3) i komunikacja objęta privilege (Tier 4). Do tego reference card per narzędzie. To konstrukcja, którą można przenieść do polskiej kancelarii bez żadnej modyfikacji poza językiem. Jest operacyjna: attorney w piątek o siedemnastej, pod deadline, ma na biurku kartkę, która mówi, czy do tego narzędzia można wkleić pismo procesowe. Bez kartki polityka istnieje w Notion i nikt jej nie czyta.
Drugi mocny punkt to vendor diligence z rozdziału szóstego. Levy wymaga SOC 2 Type II report (nie Type I, bo Type I to tylko punkt w czasie), kontraktowego zakazu używania danych klienta do trenowania modelu, AES-256 at rest i TLS 1.3 in transit, audit rights, notyfikacji incydentu 24-72 godziny, certyfikowanej destrukcji po zakończeniu umowy. To jest lista, z którą polska kancelaria powinna jechać do każdego dostawcy legal-tech. Reszta rozmowy jest wtórna.
Trzeci moment wart uwagi polskiego czytelnika to rozdział dwunasty o ubezpieczeniach odpowiedzialności zawodowej. Levy mówi rzecz, o której polskie kancelarie jeszcze nie rozmawiają: polisy LPL pisane były przed generatywnym AI i ich standardowa klauzula pokrywa błędy wynikające z wykonywania usługi zawodowej przez licencjonowanego prawnika. Jeżeli prawnik wklei output AI bez meaningful review, ubezpieczyciel ma argument, że to nie była "professional service", tylko delegacja pracy do maszyny. Brak professional service, brak pokrycia. Niektórzy ubezpieczyciele zaczęli dodawać AI-specific exclusions jako manuscript endorsements, które łatwo przeoczyć przy renewalu. Materiał do jednego telefonu do brokera.
Model Rule 1.5, czyli rachunek za efektywność
Rozdział dziesiąty o etyce billingu zasługuje na osobny akapit. Levy pisze wprost: jeżeli AI skraca zadanie z czterech godzin do czterdziestu minut, zafakturowanie czterech godzin jest etycznie niedopuszczalne. ABA Formal Opinion 512 idzie dalej i pozwala potraktować koszt narzędzia jako overhead, jako pass-through albo jako osobną pozycję, pod warunkiem poinformowania klienta z wyprzedzeniem. Kluczowa zasada: nie wolno fakturować czasu zaoszczędzonego przez AI.
To jest temat, którego polskie kancelarie nie domknęły. Kontrakt z klientem korporacyjnym zwykle przewiduje stawki godzinowe. Kiedy AI zaczyna generować osiemdziesiąt procent pierwszego draftu, a prawnik spędza czterdzieści minut na weryfikacji zamiast czterech godzin na pisaniu, rozmowa z klientem robi się niewygodna. Można udawać, że nic się nie stało. Można podnieść stawkę, a obniżyć czas. Można przejść na flat fee. Można rozmawiać szczerze. Levy proponuje test: jeżeli klient wiedziałby dokładnie, jak ta praca została wykonana, czy uznałby fakturę za rozsądną? Jeżeli odpowiedź jest niepewna, pozycja wymaga korekty. Prosty test, trudne wdrożenie.
Czego autor nie dostrzegł, a czego polska kancelaria dostrzec musi
Tu się zaczyna część zastrzeżeń. Levy pisze dla prawników amerykańskich. W czterdziestu stronach nie pada słowo RODO. Nie pada "EU AI Act". Nie pada "GDPR" nawet w przypisie. Cała analiza poufności rozgrywa się w świecie Model Rule 1.6, Federal Rule of Evidence 502(b) i Kovel doctrine. Dla prawnika w Warszawie, który pracuje z klientem mającym dane osobowe i operuje pod reżimem AI Act obowiązującym od 2 lutego 2026, to jest luka, której nie da się zamknąć przez tłumaczenie tekstu.
Drugi problem to privilege. Levy traktuje attorney-client privilege jako kategorię centralną, zastanawia się, czy wpuszczenie komunikacji objętej privilege do narzędzia AI nie stanowi waiver, odwołuje się do Kovel doctrine i FRE 502(b). To jest mapa z innej planety dla polskiego adwokata. Tajemnica adwokacka albo radcowska w polskim systemie nie jest tym samym co privilege. Jest szersza, jest obwarowana art. 6 Prawa o adwokaturze i art. 3 ustawy o radcach prawnych, ma wymiar dyscyplinarny i karny (art. 180 § 2 k.p.k.), nie tylko dowodowy. Analiza Levy'ego o tym, czy AI vendor jest third party for privilege purposes, nie przekłada się wprost. Polskie pytanie brzmi inaczej: czy wpuszczenie informacji objętej tajemnicą zawodową do zewnętrznego narzędzia AI narusza tajemnicę, niezależnie od tego, czy komunikacja byłaby uznana za privileged w amerykańskim sensie dowodowym.
Trzeci punkt, na który patrzę z polską kancelarią w głowie, to engagement letter language z rozdziału dziewiątego. Levy proponuje piękny akapit do umowy o świadczenie pomocy prawnej, opisujący, że firma używa narzędzi AI pod nadzorem attorneyów, z zabezpieczeniami kontraktowymi, z prawem klienta do opt-out. Akapit jest wzorcowy. Problem w tym, że polski odpowiednik musi być przepisany przez art. 13 i 14 RODO (obowiązek informacyjny), art. 28 RODO (powierzenie), art. 22 RODO (decyzje zautomatyzowane) i ewentualnie art. 50 AI Act (transparentność). To nie jest tłumaczenie. To jest osobna praca legislacyjna w skali jednej klauzuli.
Luka, której Levy nie zauważa, a która polską kancelarię dotyczy najbardziej
Brakuje w tym tekście warstwy, którą Kenney w TOM 001 nazwał compound regime. Levy opisuje Model Rules jako pojedynczy system odniesienia. Dla prawnika amerykańskiego to ma sens, bo tam ochrona danych (HIPAA, CCPA, sektorowe akty) toczy się niezależnie od etyki zawodowej, a profesja reguluje się sama. W Europie, a zwłaszcza w Polsce, RODO i AI Act nie są dodatkiem do etyki zawodowej. One ją zaostrzają. Tajemnica zawodowa plus RODO plus AI Act dają compound effect, którego Levy nawet nie przeczuwa, bo nie musi.
Dla polskiej kancelarii, która chce zbudować etyczny framework dla AI, samo czytanie Levy'ego nie wystarczy. Levy daje jeden z trzech potrzebnych słowników.
Brakuje też perspektywy kancelarii piętnastoosobowej. Checklist z appendixa jest piękny. Policy and Governance, Confidentiality and Data Protection, Competence and Verification, Supervision and Quality Control, Disclosure, Billing, Insurance. Dwadzieścia pięć checkboxów. W kancelarii dwustuosobowej z compliance officerem i działem IT to jest roadmapa na kwartał. W kancelarii piętnastoosobowej w Katowicach to jest rozbrojone bezpiecznie minimum, które nikt nigdy nie wdroży w pełni. Levy o tej skali nie pisze. Tymczasem to jest skala, w której odbywa się większość wdrożeń AI w polskim rynku prawniczym.
Co z tego wynika
Tekst Levy'ego polecam z jednym zastrzeżeniem. Jest to najlepszy amerykański compendium etyki AI dla prawników, jakie dziś można dostać, i najbardziej praktyczny. Można go położyć obok TOM 001 (Kenney o czterech reżimach europejskich) i otrzymać stereoskopowy obraz: Levy pokazuje, jak myśli o tym amerykański profesjonalista pod Model Rules, Kenney pokazuje, jak myśleć o tym pod RODO i AI Act. Razem dają punkt odniesienia. Osobno każdy z nich jest połową odpowiedzi.
Materiał polecam trzem grupom. Partnerom kancelarii, które mają ekspozycję transatlantycką i klientów korporacyjnych z USA (Model Rules mogą wejść do engagement letter obok RODO). Compliance officerom, którzy chcą zbenchmarkować polską praktykę z amerykańską. Szefom działów prawnych spółek z grupy kapitałowej, w której matka siedzi w Nowym Jorku albo w Kalifornii.
Jednej grupie bym go odradzał w pierwszym podejściu. Małym kancelariom regionalnym szukającym prostej listy kontrolnej na jutro. Dla nich czterdzieści stron Levy'ego bez polskiego kontekstu będzie producentem lęku, nie spokoju. Lepiej zacząć od cztero-kolumnowej tabeli: RODO, AI Act, tajemnica zawodowa, kontrakt z dostawcą. Potem wrócić do Levy'ego po narzędzia.
Colin Levy dostarcza amerykański etyczny playbook dla AI w praktyce prawniczej, który jest uczciwy, praktyczny i operacyjny, ale w ogóle nie rozmawia z RODO ani z AI Act. Elementy, które przenoszą się bez zmian to klasyfikacja danych w czterech tierach, vendor diligence z SOC 2 Type II jako minimum i ostrzeżenie o lukach w polisach LPL, które ubezpieczyciele zaczynają zamykać manuscript endorsements. Zanim dział prawny spółki matki albo zagraniczny klient zapyta was o engagement letter z klauzulą AI, przygotujcie dwa dokumenty: jeden zgodny z Levy'm (Model Rules, privilege), drugi zgodny z Kenneyem (RODO, AI Act) i uzgodnijcie, który z nich stosujecie w której matter.