Daniel Kahneman w Pułapkach myślenia opisał dwa systemy, z których składa się ludzki osąd. System 1 - szybki, automatyczny, intuicyjny. System 2 - wolny, deliberatywny, kosztowny energetycznie. Prawnik rozpoznaje oba z własnej praktyki bez żadnego wysiłku. Szybkie "coś mi tu nie gra" przy czytaniu umowy - System 1. Dwugodzinne rozpisanie ryzyk na tablicy z partnerem - System 2. Ten model leży u fundamentu tego, co nazywamy profesjonalnym osądem.
Steven Shaw i Gideon Nave z Wharton dokładają system trzeci. Sztuczne poznanie, które dzieje się poza mózgiem. Claude, ChatGPT, Harvey, Lexis+ - każda z tych platform staje się dla użytkownika Systemem 3, niezależnym od jego własnych zasobów poznawczych. I to tu zaczyna się problem, o którym psychologia zdążyła się dowiedzieć w styczniu 2026, a kancelarie prawne poznają w praktyce dopiero w drugiej połowie roku.
O czym jest ten materiał
Shaw i Nave proponują Tri-System Theory, czyli rozszerzenie klasycznego dwu-systemowego modelu Kahnemana o trzeci system - poznanie sztuczne, zewnętrzne wobec mózgu, automatyczne, nap?dzone danymi i dynamiczne. System 3 nie jest narzędziem, jak kalkulator albo wyszukiwarka. Jest agentem poznawczym, który produkuje sądy i oferuje je użytkownikowi na równi ze sądami własnymi.
Kluczowa predykcja teorii to cognitive surrender, co autorzy tłumaczą jako "przyjmowanie odpowiedzi AI z minimalną weryfikacją, przesłaniające zarówno intuicję Systemu 1, jak i deliberację Systemu 2". W polskim tłumaczeniu roboczym - poznawcza kapitulacja. Zaprzestanie myślenia wtedy, gdy ktoś inny już myślał.
Hipotezę sprawdzili w trzech preregistered eksperymentach z adaptowanym Cognitive Reflection Testem Frederick (2005) - klasycznym narzędziem, które mierzy skłonność do przełamywania intuicyjnych, błędnych odpowiedzi dzięki refleksji. Łącznie 1372 uczestników, 9593 próby. W każdej próbie uczestnik mógł skonsultować asystenta AI lub rozwiązać zadanie samodzielnie. Kluczowy zabieg metodologiczny: dokładność asystenta była manipulowana przez ukryte prompty systemowe, niewidoczne dla uczestnika. W jednym warunku AI dawała odpowiedzi poprawne, w drugim - wadliwe.
Wyniki na poziomie agregatu. Uczestnicy konsultowali AI w ponad połowie prób. Gdy AI była dokładna, ich wyniki rosły o +25 punktów procentowych ponad baseline. Gdy AI się myliła, wyniki spadały o -15 punktów procentowych. Rozmiar efektu (Cohen's h = 0.81) klasyfikuje się jako duży. W Studium 2 dodano presję czasu. W Studium 3 - bodźce finansowe za poprawność i feedback po każdej próbie. Ani presja, ani bodźce nie zlikwidowały wzorca. Gdy AI była dokładna, buforowała koszty presji czasu i wzmacniała korzyści z bodźców. Gdy się myliła, konsekwentnie obniżała wyniki niezależnie od kontekstu.
Najciekawsze jednak dopiero teraz. Korzystanie z AI zwiększało pewność siebie uczestników - także wtedy, gdy AI się myliła. Skutek: użytkownik, który przed konsultacją wiedział, że nie jest pewien, po konsultacji z błędnym asystentem jest przekonany, że zna odpowiedź. Badacze identyfikują również trzy moderatory: większa skłonność do cognitive surrender u osób z wyższym zaufaniem do AI, niższym need for cognition i niższą inteligencją płynną.
Jednym zdaniem: gdy człowiek ma obok siebie System 3, myśli rzadziej sam, a gdy System 3 się myli, myli się z pewnością siebie, której sam by nie miał.
Recenzja właściwa
Paradoks pewności po błędzie
To jest zdanie, którego znaczenie operacyjne dla kancelarii prawnej trudno przecenić. Partner konsultuje Claude'a w kwestii orzecznictwa SN. Claude odpowiada pewnie, cytuje sygnatury, które brzmią wiarygodnie. Część sygnatur jest halucynacją. Partner przed konsultacją miał średnią pewność. Po konsultacji - wysoką. Tym większą, że odpowiedź "zgadza się" z jego intuicją, którą Claude potwierdził.
W eksperymencie Wharton to zjawisko jest zmierzone ilościowo. W praktyce kancelarii - jest obserwowane intuicyjnie, ale rzadko nazywane. Compliance officer, który przychodzi z DPIA napisanym przez asystenta AI i mówi "już sprawdziłem, wszystko się zgadza", najprawdopodobniej nie sprawdził. Sprawdził zgodność z własną intuicją, którą AI potwierdziła. Trzeci system myślał za niego, a pierwszy system - ten szybki, automatyczny - zaakceptował.
Z perspektywy art. 14 AI Act (human oversight), która od 2 lutego 2026 obowiązuje deployerów systemów wysokiego ryzyka, to obserwacja kluczowa. Regulacja zakłada, że człowiek nadzorujący AI ma zdolność krytycznej oceny jej wyników. Wharton mierzy, że ta zdolność spada, gdy człowiek korzysta z AI regularnie. Nie dlatego, że użytkownik jest leniwy. Dlatego, że tak skonstruowana jest poznawcza maszyneria ludzkiego mózgu w kontakcie z systemem, który oferuje gotowy sąd.
Meaningful human oversight w sensie art. 14 AI Act nie jest deklaracją w polityce. Jest stanem poznawczym, który wymaga aktywnej, kosztownej obrony przeciwko cognitive surrender. W każdej konsultacji z osobna.
Co to znaczy dla tajemnicy zawodowej i profesjonalnego osądu
Adwokat podpisujący pismo procesowe bierze na siebie odpowiedzialność za jego treść. Nie za to, że w pisaniu pomogła sztuczna inteligencja. Za to, co w piśmie zostało napisane. Kodeks Etyki Adwokackiej nie rozróżnia źródła, z którego adwokat zaczerpnął argumentację - rozróżnia, czy argumentacja jest rzetelna, czy nie.
Wharton pokazuje, że regularnie korzystający z Systemu 3 prawnik jest bardziej narażony na przyjęcie wadliwej argumentacji jako własnej. I co gorsza, z większą pewnością niż gdyby tę argumentację wymyślił samodzielnie. To jest realne ryzyko odpowiedzialności dyscyplinarnej, realne ryzyko odpowiedzialności odszkodowawczej wobec klienta (art. 471 KC), realne ryzyko ubezpieczeniowe w polisie OC zawodu.
Istotne: badanie nie sugeruje, że prawnicy powinni przestać używać AI. Sugeruje, że powinni używać jej z pełną świadomością mechanizmu, który opisuje. Moduł "sprawdziłem Claude'a" wymaga innego protokołu niż moduł "przeczytałem orzeczenie". Pierwszy jest aktem cognitive surrender, jeśli nie zostanie przerwany. Drugi jest aktem Systemu 2 z definicji.
Presja czasu nie pomaga, feedback też nie
Studium 2 dodało presję czasu. Studium 3 dodało pieniądze za poprawność i feedback po każdej próbie. Pierwsze z tych interwencji odpowiada codziennemu tempu kancelarii. Drugie - jakiemuś ideałowi szkolenia, w którym prawnik dostaje bieżącą informację o tym, kiedy się pomylił. Ani jedno, ani drugie nie eliminuje cognitive surrender. Kiedy AI jest dokładna, pomaga. Kiedy się myli, szkodzi - i szkodzi tak samo, niezależnie od tego, ile presji i ile bodźców wokół.
Z perspektywy architektury procesu w kancelarii to wniosek radykalny. Standardowe recepty na redukcję błędu - "pracuj wolniej", "dawaj feedback", "wprowadź QA" - nie neutralizują efektu przy System 3. Co działa (badanie tego jeszcze nie wyjaśnia do końca, ale sugeruje): jawne uprzedzenie użytkownika o wadliwości AI w konkretnym przypadku, obowiązkowe niezależne rozwiązanie problemu przed zobaczeniem odpowiedzi AI, architektura typu "red team" - jeden prawnik pracuje z AI, drugi sprawdza bez dostępu do niej.
Moderatory, czyli kto kapituluje szybciej
Shaw i Nave identyfikują trzy cechy osobowe, które wzmacniają cognitive surrender: wysokie zaufanie do AI, niski need for cognition (czyli skłonność do angażowania się w wymagające zadania poznawcze dla samej przyjemności myślenia) i niższa inteligencja płynna. Pierwsza jest kulturowa i zmienna w czasie - rośnie z każdym miesiącem po wejściu AI do praktyki. Druga i trzecia są cechami indywidualnymi.
Praktyczny wniosek nie jest wygodny. W kancelarii piętnastoosobowej, w której partnerzy decydują o wdrożeniu narzędzia AI dla całego zespołu, nie wszyscy członkowie zespołu zareagują tak samo. Młodsi prawnicy z silnym need for cognition mogą wykorzystać AI jako akcelerator własnego myślenia. Starsi koledzy, przyzwyczajeni do mniej intensywnej pracy poznawczej, mogą znacznie łatwiej oddać myślenie maszynie. Rozłożenie ryzyka nie jest równomierne.
Nie piszę tego z perspektywy oceniającej - piszę z perspektywy compliance. AI Management System (ISO/IEC 42001), jeśli ma być uczciwy, musi wziąć tę heterogeniczność pod uwagę. Polityka "wszyscy używają AI w ten sam sposób" jest polityką średniej. W kancelarii średnia nie obsługuje klienta - obsługuje go konkretna osoba.
Czego autorzy nie dostrzegli
Shaw i Nave pracowali z Cognitive Reflection Test - zadaniami, w których jest jedna poprawna odpowiedź. Prawo nie działa w tym rejestrze. Opinia prawna rzadko jest "poprawna" albo "niepoprawna" w sensie binarnym. Jest lepsza albo gorsza, mocniej albo słabiej uzasadniona, lepiej albo gorzej uwzględniająca ryzyko specyficzne dla klienta. Tri-System Theory tego nie obejmuje. A dla kancelarii to właśnie tam rozgrywa się największe ryzyko: nie w binarnym błędzie, tylko w subtelnym uproszczeniu, które AI narzuca tekstowi.
Drugi brak: autorzy testują konsultacje z AI w formule odpowiedź-odpowiedź. Nie testują pracy zespołowej, w której prompt jest iteracyjny, a model "uczy się" w obrębie sesji. W kancelarii właśnie ten tryb jest dominujący. Cognitive surrender w rozmowie iteracyjnej może być silniejszy niż w pojedynczej konsultacji - albo słabszy, bo iteracja wymusza zaangażowanie Systemu 2. Empirycznie tego nie wiemy.
Trzeci brak: kultura pracy. Stanowy Wharton testuje uczestników eksperymentalnych, anglojęzycznych, amerykańskich. Polski partner zarządzający, wychowany w tradycji "najpierw przeczytasz, potem zapytasz", może mieć niższą bazową podatność na cognitive surrender niż amerykański student Wharton. Może też mieć wyższą - jeśli AI jest dla niego nowością traktowaną z szacunkiem. Nie wiemy.
Co z tego wynika
Artykuł Shaw i Nave jest najważniejszą pozycją, jaką w ostatnich miesiącach czytałem w sprawie wdrożeń AI w kancelariach - choć w ogóle o kancelariach nie mówi. Mówi o mechanizmie poznawczym, który w kancelarii działa tak samo jak w laboratorium Wharton, a pewnie mocniej, bo prawo jest terenem, na którym deliberacja jest produktem końcowym, nie tylko środkiem do niego.
Dla kogo ten materiał. Dla partnera zarządzającego, który podejmuje decyzję o wdrożeniu asystenta AI w kancelarii i chce zrozumieć, co zostanie zinternalizowane, a co oddelegowane. Dla compliance officera piszącego regulamin korzystania z AI dla pracowników. Dla DPO mapującego wymogi art. 14 AI Act na realne protokoły pracy. Dla każdego, kto zarządza zespołem i widzi, że praca z AI zmienia jakość deliberacji jego ludzi - i nie umie tego nazwać.
Dla kogo nie. Dla nikogo, kto szuka potwierdzenia, że AI jest rewolucją i trzeba się rzucić. Albo że jest zagrożeniem i trzeba się bronić. Shaw i Nave nie mówią ani jednego, ani drugiego. Mówią: jest nowy system poznawczy, ma zmierzone efekty, efekty są duże i nie znikają pod naciskiem standardowych interwencji. Resztę musisz wymyślić sam. Ale przynajmniej wiesz, przeciwko czemu.
Wharton eksperymentalnie potwierdza, że korzystanie z AI zwiększa wyniki, gdy AI jest dokładna, i znacząco obniża je, gdy się myli - a pewność siebie użytkownika rośnie w obu przypadkach, z rozmiarem efektu klasyfikowanym jako duży (Cohen's h=0.81). W praktyce kancelarii oznacza to, że partner, który "sprawdził Claude'a", najprawdopodobniej nie przerwał cognitive surrender - a jego świadectwo "wszystko się zgadza" nie jest tym, za co je uważa. Protokoły pracy z AI muszą zakładać, że meaningful human oversight w sensie art. 14 AI Act jest kosztowną, aktywnie wymuszoną operacją - nie domyślnym stanem rzeczy.