O czym jest ten materiał
Postawione pytanie jest proste. Gdzie dziś technicznie i ekonomicznie opłacalnie stosuje się AI, i jak ta mapa może się zmienić. Dotychczasowa literatura odpowiadała na nie, biorąc O*NET - amerykańską bazę zawodów zawierającą ok. 20 000 opisów zadań - i sprawdzając, które zadania AI może wykonać. Autorzy pokazują, że to za mało. O*NET zawiera zadania złożone, kompozytowe, wielowątkowe. "Cast molds of patient anatomies to create medical or dental devices" to jedno zadanie w O*NET, ale w istocie jest to sekwencja kilku różnych rzeczy, z których każda ma inną podatność na AI.
Dlatego zespół Malone'a rozłożył zadania O*NET na atomic activities (czynności atomowe), dodał warstwę generic activities (czynności abstrakcyjne) i zorganizował je w drzewach genealogicznych - od korzenia "Act" przez trzy gałęzie główne ("Act on information" czyli Think, "Act on physical objects" czyli Do, "Act with other actors and activities" czyli Interact) aż do bardzo szczegółowych czynności atomowych typu "Select method" czy "Write text". Razem 39 603 pozycji, mediana głębokości hierarchii 9 poziomów. W tej strukturze autorzy stosują pojęcie dziedziczenia: jeśli abstrakcyjna czynność "Write" ma wysoką podatność na AI, to prawdopodobnie mają ją też jej bardziej szczegółowe potomkinie, takie jak "Write report", "Write email", "Write contract".
Na tę ontologię nanieśli dwa zbiory danych. Pierwszy to 13 275 aplikacji AI z serwisu "There's an AI for That®" - kompletne opisy, tagi, ceny, momenty wejścia na rynek. Drugi to 20,8 miliona zainstalowanych robotów z dorocznego raportu World Robotics Międzynarodowej Federacji Robotyki (IFR). Każdą aplikację i każdą kategorię robota zaklasyfikowano do konkretnej pozycji ontologii, a następnie policzono udziały. Wynik to diagramy sunburst, w których widać, jak wygląda dzisiejsza obecność AI w ludzkiej pracy - i co się w niej zmienia.
Kilka liczb, które warto zapamiętać. Oprogramowanie AI dziś siedzi prawie wyłącznie w "Think": 92% aplikacji to czynności informacyjne, 0% to fizyczne, 32% to interaktywne (z czego większość to "Transfer information" dziedziczony z obu gałęzi). W "Think" dominuje "Create information" (58%), a w niej "Write" (11%), "Create content" (4%), "Generate image" (7%), "Create video" (3%). Roboty - przeciwnie: 89% to "Do", 11% to "Interact", 2% to "Think". Kategoria "Clean floor" sama w sobie to 76,7% wszystkich instalacji robotów. Po zsumowaniu po wartości rynkowej, oprogramowanie stanowi 75% wartości całego AI, robotyka 25%; rozkład czynności: Think 72%, Interact 48%, Do 12% (z wielokrotnym dziedziczeniem, stąd więcej niż 100%). Najważniejsza z punktu widzenia strategii: top 1,6% czynności pochłania ponad 60% wartości rynkowej AI, a top 20 czynności to 35% wszystkich aplikacji AI. Koncentracja jest drastyczna i utrzymuje się od lat.
Recenzja
Perspektywa compliance: ontologia jako narzędzie mapowania ryzyka
Od 2 lutego 2026 obowiązuje AI Act. Jego Załącznik III wymienia kategorie systemów wysokiego ryzyka - zatrudnienie, edukacja, dostęp do usług publicznych, wymiar sprawiedliwości, egzekwowanie prawa. Problem, który każdy compliance officer w kancelarii albo w dziale prawnym dostrzega po drugim przeczytaniu tych przepisów, brzmi: w praktyce klienta ten sam system AI jednego dnia jest narzędziem wsparcia, a drugiego - elementem decyzji wysokiego ryzyka. Granica zależy nie od samego modelu, tylko od tego, do której konkretnej czynności się go używa.
Ontologia Malone'a daje temu problemowi język. Zamiast mówić "używamy ChatGPT do HR" - można mówić precyzyjnie: używamy go do "Summarize information" (niskie ryzyko), do "Write text" (niskie ryzyko, jeśli ostateczny autor jest człowiekiem), do "Analyze dataset" wspierającego "Select personnel" (to już wchodzi w art. 6 AI Act, Załącznik III pkt 4 - employment, workers management). Struktura dziedziczenia pozwala kancelarii, która doradza klientowi przy mapowaniu ryzyka, pokazać mu drzewo: na poziomie abstrakcyjnym "Act on information" - to pół firmy, ale gdy zejdziemy do atomowych poziomów, okazuje się, że tylko kilka konkretnych czynności wpada w kategorie wysokiego ryzyka. Reszta jest akceptowalna.
Druga warstwa compliance dotyczy obowiązku transparentności z art. 50 AI Act. Autorzy pokazują, że "Generate image using computer" to czynność, w której koncentruje się 7,18% całego rynku aplikacji AI. Czyli zawsze, gdy klient używa AI do produkcji materiału wizualnego, wchodzi w obowiązek oznaczania deepfake - niezależnie od branży, od kraju, od rodzaju działalności. Kancelaria, która prowadzi audyt compliance klienta, potrzebuje mapy, na której widać, gdzie te obowiązki faktycznie żyją, a nie tylko listy systemów wysokiego ryzyka z załącznika. Ontologia Malone'a pełni tę funkcję lepiej niż klasyfikacja typu "generatywne AI vs. predykcyjne AI", która dziś krąży po materiałach szkoleniowych.
Po stronie RODO również. "Analyze dataset" zajmuje 1,11% rynku aplikacji AI. W języku RODO "Analyze" na danych osobowych to zwykle profilowanie w rozumieniu art. 4 pkt 4. "Create record" i "Modify information" dziś są prawie banalne; gdy zejdziemy do atomowych potomków typu "Create medical record" czy "Update patient file", trafiamy w dane szczególnej kategorii z art. 9. Hierarchia dziedziczenia ontologii daje nam narzędzie do zadawania precyzyjnych pytań, których bez niej nie potrafilibyśmy sformułować.
Perspektywa bezpiecznej architektury: monokultura czynnościowa
Najbardziej niewygodne dane w tym raporcie to te dotyczące koncentracji. 13 275 aplikacji AI obsługuje łącznie ok. 6,8% wszystkich czynności w ontologii. Mimo sześciokrotnego wzrostu liczby aplikacji w latach 2022-2024, pokrycie czynności rosło tylko 1,2 raza. Branża pompuje kapitał, ale nie szerzy horyzontu. Autorzy nazywają to wprost: "limited functional diversity and generalizability". W języku kancelarii - cała branża AI robi dziś z grubsza tę samą rzecz, tylko w różnych opakowaniach.
Dla architektury wdrożenia konsekwencja jest konkretna. Jeśli kancelaria kupuje dziś trzy różne rozwiązania AI - jedno do streszczania akt, jedno do redakcji umów, jedno do analizy orzecznictwa - najprawdopodobniej kupuje trzy interfejsy do tego samego typu modelu bazowego, wytrenowanego na podobnych danych, dostosowanego do podobnych metryk. W ontologii Malone'a te trzy narzędzia żyją w trzech sąsiadujących liściach jednego drzewa ("Write - Summarize", "Write - Modify contract text", "Analyze - Investigate precedent"). Redundancja jest pozorna. Jeśli model bazowy ma bias, ma go wszędzie. Jeśli jego trening wzmacnia pewne framowanie, to framowanie wejdzie w kancelarię trzema drzwiami naraz. To wzmacnia wnioski z BW/025 - jednolitość wdrożenia jest problemem strategicznym, a nie operacyjnym.
Autorzy wprowadzają też w rozdziale o limitach rozróżnienie, które jest bardzo istotne dla AI Act, a którego sami nie rozwinęli w bieżącej wersji - między automate a augment. Obecna ontologia klasyfikuje czynność po jej werbalnym opisie, bez rozstrzygania, czy aplikacja pełni rolę człowieka, czy go wspiera. Dla compliance tą różnicą stoi cały art. 14 AI Act (human oversight). Narzędzie, które augmentuje pracę prawnika przy "Summarize legal precedent" i narzędzie, które automatyzuje "Draft decision letter" to dwa zupełnie różne reżimy ryzyka. W obecnym rozkładzie rynku AI, cytując autorów, dominują narzędzia trudne do jednoznacznej kategoryzacji - i właśnie to jest najciekawszy obszar do uważnego audytu. Kancelaria, która projektuje politykę wdrożenia AI, powinna to rozróżnienie wyartykułować explicite w każdym use case, nawet jeśli sami autorzy raportu jeszcze tego nie zrobili.
Trzecia konsekwencja architektoniczna. Roboty 76,7% instalacji mają w jednej kategorii (Clean floor). Oprogramowanie AI ma analogiczną koncentrację w "Think/Write" i "Think/Create content". Gdy patrzy się na oba zbiory łącznie, widać wyraźnie, że innowacja działa wolno w kierunku szerokości, a szybko w kierunku głębokości konkretnych klas czynności. Dla kancelarii to oznacza, że bardziej opłaca się głęboko wytrenować jednego asystenta AI pod bardzo konkretny segment praktyki (np. redakcja umów M&A) niż kupić szeroko zdefiniowane "narzędzie dla prawników". Rynek idzie w tym kierunku i dane to potwierdzają - pięć lat temu absorbował ogólne rozwiązania, dziś absorbuje wyspecjalizowane.
Czego autorzy nie dopowiadają
Po pierwsze, ontologia jest oparta na amerykańskim O*NET. O*NET klasyfikuje zawody amerykańskiej gospodarki. Polska kancelaria to nie jest średnia zawodu "Lawyer" w O*NET. Polski radca prawny, polski adwokat, polski notariusz - to trzy zawody regulowane, które w polskim porządku prawnym mają inne obowiązki, inne zakresy odpowiedzialności, inne reguły tajemnicy zawodowej. O*NET tego nie odzwierciedla. Dlatego gdy Malone pokazuje, że "Write legal document" jest czynnością o wysokiej podatności na AI, warto tę tezę konfrontować z polskim kodeksem etyki adwokackiej i uchwałą Prezydium NRA z marca 2025 dotyczącą stosowania narzędzi AI. Amerykanin, który automatyzuje "Draft motion" działa w innym reżimie odpowiedzialności zawodowej niż polski adwokat, który to samo robi.
Po drugie, autorzy używają wartości rynkowej jako proxy dla "AI applicability". Sami przyznają, że to imperfect estimator. Warto pamiętać, co stoi po drugiej stronie tej proxy: to, że aplikacja istnieje i ma płacących klientów, mówi, że ktoś myśli, że AI tu pomaga. Nie mówi, że pomaga faktycznie. Halucynacje w aplikacjach prawnych, które zalały rynek w 2024 i 2025 roku, są tu dobrym kontrprzykładem - czynność "Research legal precedent" ma aktywne produkty, ale jakość tych produktów jest, delikatnie mówiąc, niejednolita. Ontologia pokazuje, gdzie rynek wierzy, że AI działa, a nie gdzie działa. Dla compliance officera to ważna różnica.
Po trzecie, perspektywa właściwa dla Polski i dla polskiej kancelarii. Autorzy notują, że robotyka rośnie powoli po stronie szerokości i jest skoncentrowana w "Clean floor" i w robotach przemysłowych. Polska ma zaskakująco wysoką densytę robotów przemysłowych na tle regionu (szczególnie w Śląsku, w motoryzacji, w logistyce), a równocześnie bardzo słabą adopcję AI informacyjnego w administracji publicznej i usługach prawnych. Oznacza to, że krzywa wzrostu, którą widzą autorzy na poziomie globalnym, w Polsce będzie przebiegać asymetrycznie. Najpierw zobaczymy eksplozję wykorzystania AI w kancelariach międzynarodowych operujących w Warszawie, potem dopiero w kancelariach regionalnych, a dopiero na końcu w sądach i administracji. To okienko czasowe (szacuję 3-5 lat między pierwszą a trzecią falą) jest strategicznie istotne. Kancelaria, która zainwestuje w wyspecjalizowane narzędzia AI teraz, zyska nie dlatego, że AI dziś robi dużo - ona robi wciąż niewiele - ale dlatego że oswoi ją zanim konkurencja się z nią zmierzy.
Po czwarte, raport całkowicie pomija kwestię ownership danych treningowych. Autorzy klasyfikują 13 275 aplikacji po ich opisie marketingowym. Nie mówią, które z nich były trenowane na danych osobowych zbieranych bez podstawy prawnej, które naruszały prawa autorskie, które korzystały z scraper'ów przekraczających ToS platform. To jest mapa deployment'u, nie mapa legalności. Polska kancelaria, która czyta ten raport, powinna pamiętać, że wartość rynku AI = wartość rynku aplikacji funkcjonujących, a nie wartość rynku aplikacji legalnych. Te dwa zbiory nie są identyczne, a ich różnica rośnie.
Co z tego wynika
120 stron z gęstą metodologią i 30 dużymi diagramami sunburst to nie jest raport weekendowy. Warto go przeczytać, bo daje rzecz rzadką - dane zamiast intuicji. Dane pokazują, że AI dziś siedzi w bardzo wąskim segmencie czynności ludzkiej pracy; że te czynności to prawie dokładnie to, co robi kancelaria w trakcie swojego normalnego dnia; że koncentracja inwestycji jest drastyczna; że ekspansja szerokości idzie wolno; i że rozróżnienie między automate a augment jeszcze nie dotarło do mainstreamowych klasyfikacji. Każda z tych rzeczy osobno to materiał na dłuższą rozmowę z zarządem kancelarii.
Pytanie, które zostaje - dla kancelarii i dla compliance: jakiej ontologii wdrożenia AI używamy my, żeby zmapować własne ryzyka. Jeśli nie używamy żadnej, a mamy trzy różne narzędzia AI wdrożone w trzech różnych działach, warto dziś wieczorem usiąść i taką ontologię naszkicować. Nie trzeba mieć 39 603 czynności. Trzeba mieć trzy kolumny - Think, Do, Interact - i wiedzieć, co w nich siedzi.
Komu polecam. Headom innowacji, dyrektorom knowledge management, partnerom zarządzającym po 25 roku praktyki, compliance officerom i osobom projektującym politykę AI w kancelarii. Komu niekoniecznie. Komuś, kto szuka recenzji konkretnego produktu na rynku - tu jej nie ma. Jest mapa terenu, dla której produkty są punkcikami.
Obecna mapa światowego rynku AI pokazuje, że 92% aplikacji siedzi w działaniach, które kancelaria wykonuje codziennie - pisanie, analizowanie, streszczanie, komunikowanie - i że koncentracja inwestycji w 20 konkretnych czynności to 35% całego rynku, co oznacza, że rynek idzie w głąb kilku klas, nie w szerokość. Decyzja strategiczna dla kancelarii: nie kupować "narzędzia AI dla prawników", tylko zbudować własną mapę użyć na trzech osiach (Think - Interact - Do) i pod każdym z użyć zadać osobne pytania o ryzyko, ownership danych i zgodność z reżimami zawodowymi plus AI Act. Rekomendacja praktyczna: przed kolejnym wdrożeniem AI - poświęcić tydzień na wewnętrzną ontologię własnych procesów kancelaryjnych, nawet w uproszczonej formie tabeli czynności x działów x narzędzi, bo bez niej każda decyzja zakupowa jest wyciąganym z kapelusza kompromisem między marketingiem dostawcy a intuicją partnera.
Bezpieczna architektura AI dla kancelarii.
matematicsolutions.com