Dwunasty września 2025, kilkanaście godzin po zabójstwie Charlie'ego Kirka. Chatboty w aplikacjach społecznościowych zaczynają produkować fałszywe fact-checki dotyczące zamachowca. W czasie rzeczywistym, dla milionów użytkowników. Nie deepfake wideo. Nie rosyjska farma trolli. Po prostu model językowy wpuszczony w rolę, do której nie był projektowany, odpowiadający z pewnością siebie na pytania, na które nie powinien odpowiadać. Chaos informacyjny przez weekend, potem korekta, potem publikacja France24 i cytat w kolejnych dziesięciu artykułach branżowych.
Materiał, który wziąłem na biurko w środę rano, zaczyna się właśnie od tego incydentu i od kilku podobnych z 2024 i 2025 roku. Piętnaście stron, dwaj autorzy (Oxford, King's College London, Alan Turing Institute plus CETaS), logika chronologiczna: zanim, w trakcie, po. To nie jest whitepaper dostawcy. To jest operacyjny handbook pisany dla rządu brytyjskiego. I to jest jednocześnie jego największa zaleta i jego główny problem dla polskiej recepcji.
O czym jest ten materiał
Broderick McDonald i Sam Stockwell publikują pod szyldem CETaS, brytyjskiego think-tanku usadowionego w Alan Turing Institute, w którym powstają opracowania na styku technologii i bezpieczeństwa narodowego. Handbook jest domknięciem dłuższego raportu "Adding Fuel to the Fire" z lutego 2026. Tamten raport diagnozuje. Ten tłumaczy diagnozę na rekomendacje operacyjne.
Struktura jest prosta i funkcjonalna. Trzy rozdziały chronologiczne: Prior to Crisis Events, During Crisis Events, After Crisis Events. Każdy rozdział rozbity na trzy sektory: Government, Industry, Civil Society. Do tego czwarty rozdział o szerszych priorytetach polityki, pięć ciągłych obszarów: AI preparedness framework, wsparcie małych startupów AI narażonych na nadużycie, chatbot guidance dla użytkowników, koordynacja międzynarodowa i dalsza praca badawcza.
Cała mapa rozpisana jest na konkretne instytucje brytyjskie. NSOIT (National Security Online Information Team) monitoruje treści. AISI (AI Security Institute) dostarcza eksperckiej wiedzy i kanałów komunikacji z frontier labs. DSIT pełni rolę liaisona z przemysłem. Cabinet Office i jego National Situation Centre robią sklejanie obrazu. Frontier Model Forum rozbudowuje swój mechanizm information-sharing do trybu kryzysowego na wzór GIFCT Incident Response Framework. Civil society dostaje zadania edukacji medialnej, automatycznych narzędzi szybkiego reagowania (model WITNESS Deepfake Rapid Response Force), platformowania wiarygodnych głosów.
Jednym zdaniem: to jest brytyjski plan B na dzień, w którym sztuczna inteligencja dolewa paliwa do trwającego zamieszania. Plan napisany z godnością urzędniczą, osadzony w realnych instytucjach, z przypisami do Southport 2024 i do Kirka 2025. Lektura konkretna i uczciwa.
Recenzja właściwa
Co w tym handbooku jest mocne i co przenosi się do każdej jurysdykcji
Najmocniejsza jest sama rama. Trójdzielny podział prior-during-after to nie jest odkrycie, ale zastosowanie tego schematu do zagrożeń informacyjnych AI, z rolami rozpisanymi na sektory, to rzetelna robota. Rozdział pierwszy mówi o tabletop exercises i red-teamingu międzyresortowym. Rozdział drugi mówi o liaison channels z realnymi nazwami osób po obu stronach. Rozdział trzeci mówi o post-incident review procesach i monitoringu wskaźników, które podlegają cyklicznej rewizji, bo krajobraz zagrożeń ewoluuje szybciej niż cykl budżetowy. To są rzeczy, których w większości materiałów o AI i bezpieczeństwie brakuje. Tu są.
Drugi mocny punkt to myślenie o threshold for inclusion. Autorzy piszą wprost, że monitoring treści musi mieć wysoki próg, żeby skupiać się tylko na viralnej dezinformacji, która podżega do realnej przemocy, nie na treściach politycznych. Ta linia, nakreślona przez akademików, nie przez polityków, jest w 2026 roku warta uwagi, bo pokazuje, że autorzy rozumieją, gdzie przebiega granica między bezpieczeństwem a cenzurą. Ta sama logika powinna obowiązywać każdą kancelarię zastanawiającą się nad wewnętrznym filtrowaniem komunikacji AI.
Trzeci mocny punkt to AI incident content database w wersji FMF. Autorzy proponują hashowane repozytorium prominentnych zagrożeń informacyjnych, które następnie mogłoby zasilać safety patches w modelach. Inspiracja GIFCT. Pomysł nietrywialny, bo rozwiązuje dylemat usuwania dowodów przy usuwaniu treści. Firmy utrzymujące repozytorium zachowują informację, która inaczej znikłaby wraz z postem.
Czego w handbooku nie ma, a polska kancelaria musi sobie dopisać
Tu zaczynają się pytania. Handbook jest w stu procentach brytyjski. W piętnastu stronach nie pada RODO. Nie pada AI Act. Nie pada "GDPR". Żadnego odniesienia do reżimu europejskiego, który od 2 lutego 2026 wiąże także Wielką Brytanię w zakresie produktów wprowadzanych na rynek UE. To zastanawiające przemilczenie w materiale opisującym industry obligations, bo FMF obejmuje dostawców, którzy na rynku europejskim podlegają GPAI duties z art. 51-55 AI Act. Autorzy robią tak, jakby reżim kończył się na Kanale La Manche.
Drugi brak to warstwa, którą w TOM 001 (Kenney) nazwaliśmy compound regime. McDonald i Stockwell piszą tak, jakby pytanie brzmiało tylko "jak reagujemy na deepfake przed weekendem". W europejskiej rzeczywistości drugie pytanie brzmi: co mówi o tym RODO, co mówi AI Act, co mówi Digital Services Act, co mówi Online Safety Act. Każde z tych źródeł zaostrza to, co inne dopuszcza. Kancelaria, która pracuje z klientem dotkniętym kryzysem informacyjnym, nie może czytać handbooka osobno od rozporządzenia 2016/679, art. 33 i 34 RODO o zgłaszaniu naruszeń oraz art. 50 AI Act o transparentności treści syntetycznych.
Handbook pisany jest z poziomu rządu, platformy i organizacji pozarządowej. Ofiary w tekście nie ma. W polskiej praktyce to ofiara dzwoni pierwsza, a kancelaria jest pierwszym punktem kontaktu.
Trzeci brak to brak perspektywy ofiary. Cały handbook jest pisany z poziomu rządu, platformy lub organizacji pozarządowej reagującej na kryzys. Ofiara w tekście się nie pojawia. Tymczasem w polskiej praktyce kancelaria dowiaduje się o kryzysie informacyjnym najczęściej jedną z trzech ścieżek: klient dzwoni, bo deepfake z jego twarzą krąży po Telegramie, klient dostał phishing głosowy imitujący CEO, klient odkrył że jego komunikacja prawna jest streszczana przez zewnętrznego chatbota. W żadnym z tych scenariuszy NSOIT nie zadzwoni pierwszy. Kancelaria będzie pierwszym punktem kontaktu. I żadna z rekomendacji McDonalda i Stockwella nie przekłada się wprost na to, co ma wtedy zrobić dwunastoosobowy zespół z Wrocławia.
Whole-of-society, whole-of-firm, whole-of-nobody
Handbook używa pojęcia whole-of-society response. Brzmi dobrze w deck'u. Kancelaria 15-osobowa nie jest whole of society. Kancelaria 15-osobowa ma dwóch partnerów, pięciu seniorów, compliance officera w niepełnym wymiarze i jednego informatyka na kontrakcie. "Crisis command centre", które autorzy proponują dla AI companies i social media platforms, musi zostać przetłumaczone na coś, co mieści się w tym rozmiarze.
Praktyczna translacja wygląda tak. Prior: jedna osoba odpowiedzialna za monitoring wzmianek o kancelarii i kluczowych klientach, jeden numer telefonu do członka zarządu, jeden kontakt do kancelarii reagującej na incydenty cyber, jedna umowa z dostawcą forensic readiness. During: kto decyduje o komunikacji, kto robi logi, kto dzwoni do klienta, kto dzwoni do UODO, jeżeli naruszenie dotyczy danych osobowych. After: post-incident review w ciągu tygodnia, aktualizacja checklisty, jedna notatka dla zarządu. Brzmi banalnie. W trzech na cztery kancelariach tego nie ma.
Pytanie, na które handbook nie odpowiada, brzmi: kto jest polskim odpowiednikiem AISI dla kancelarii, która o dziewiątej rano we wtorek dostaje informację, że klient padł ofiarą deepfake'u. Odpowiedź na dziś: nikt. UODO zajmie się naruszeniem danych osobowych, NASK CERT obsłuży incydent techniczny, policja ewentualnie prokuratura obsłuży aspekt karny. Żadna z tych instytucji nie jest AISI. Żadna nie ma specjalistów od treści syntetycznych w realnym czasie. Brzmi nieprzyjemnie. W deck'u tego nie ma.
Compound regime po raz czwarty
Motyw wraca. TOM 001 (Kenney) nazwał europejski compound regime. TOM 005 (Levy) pokazał, że amerykańska etyka AI w ogóle go nie widzi. TOM 006 (MindForge) pokazał, że singapurski regulator operacjonalizuje bez niego. McDonald i Stockwell piszą z czwartej perspektywy: brytyjska wspólnota bezpieczeństwa reaguje na kryzys tak, jakby europejski reżim ochrony danych i AI nie obowiązywał. Polska kancelaria musi umieć czytać każdego z nich z własnej wieży kontroli i wiedzieć, co w którym z tych tekstów przeskakuje nad Warszawą.
Co z tego wynika
Materiał wart przeczytania przez każdego, kto w kancelarii odpowiada za compliance, bezpieczeństwo albo politykę AI. Jest krótki (piętnaście stron), konkretny (realne instytucje, realne incydenty), dobrze napisany (urzędnicza godność bez zgrzytu). Trzy rzeczy z niego wziąłbym do polskiego sejfu: schemat prior-during-after jako szablon protokołu reagowania, próg viralnej dezinformacji jako kryterium filtrowania uwagi, ideę hashowanego repozytorium incydentów jako inspirację dla wewnętrznej bazy precedensów.
Polecam trzem grupom. Kancelariom obsługującym klientów korporacyjnych z ekspozycją na dezinformację (zarządy, osoby publiczne, marki konsumenckie). Compliance officerom w firmach, które same rozważają integrację narzędzi AI z obsługą klienta, bo perspektywa industry obligations z handbooka jest użyteczna jako checklista dla własnych dostawców. Szefom zespołów prawnych spółek giełdowych, w których incydent informacyjny potrafi ruszyć kurs akcji przed otwarciem sesji.
Jednej grupie odradzam czytanie handbooka w oderwaniu. Kancelariom regionalnym szukającym prostej procedury na jutro. Handbook napisany jest dla Whitehall. Polska kancelaria w Bydgoszczy potrzebuje trzystronicowego dokumentu z numerami telefonu i wzorem e-maila do UODO, nie piętnastu stron o roli DSIT. Najpierw trzeba przepisać handbook na lokalny kontekst, potem go używać.
McDonald i Stockwell dostarczają operacyjny schemat reagowania na kryzysy informacyjne generowane przez AI, zbudowany na osi prior-during-after i rozpisany na sektory, ale napisany wyłącznie pod Wielką Brytanię i całkowicie pomijający reżim RODO oraz AI Act obowiązujący w polskiej kancelarii od 2 lutego 2026. Elementy przenoszalne bez zmian to ramowa struktura reagowania, próg viralnej dezinformacji jako kryterium działania oraz idea wewnętrznej bazy hash'y znanych incydentów, które mogą zasilić szkolenie i kontrolę jakości. Zanim w kancelarii pojawi się pierwszy klient z deepfake'iem na Telegramie, ustalcie cztery rzeczy: kto dzwoni, kto decyduje, kto loguje, kto zgłasza do UODO w ciągu 72 godzin.