Jakie są główne cele powołania stanowiska pełnomocnika ds. wdrażania sztucznej inteligencji w Policji?
Cele powołania stanowiska pełnomocnika Komendanta Głównego Policji ds. wdrożenia sztucznej inteligencji w Policji zostały zdefiniowane w decyzji nr 323 Komendanta Głównego Policji z 29 października 2025 r. W szczególności polegają one na koordynacji działań formacji w obszarze analizy, wdrażania, edukacji i promocji zastosowań sztucznej inteligencji. Skuteczność w tym zakresie wymaga stałego monitorowania rozwoju technologii ze szczególnym uwzględnieniem tych, które mają znaczenie dla procesu zwalczania przestępczości, zarządzania bezpieczeństwem oraz wsparcia pracowników i funkcjonariuszy. Należy również zwrócić uwagę na aspekt normatywny związany z implementacją narzędzi sztucznej inteligencji w pragmatyce służbowej. Niezbędne będzie zainicjowanie prac w tym obszarze. Zaproponowane regulacje w szczególności muszą być zgodne z rozporządzeniem (UE) 2024/1689 tzw. AI Act, który propaguje jednolite zasady wprowadzania ich do obrotu, stosowania i nadzoru nad nimi w Unii Europejskiej w kontekście ochrony zdrowia, bezpieczeństwa oraz, co jest bardzo istotne, funkcjonowania Policji i praw podstawowych obywateli. Jak powszechnie wiadomo, żadne przedsięwzięcie nie obędzie się bez finansowania. Pełnomocnik inicjuje i nadzoruje działania zmierzające do pozyskania środków budżetowych oraz pomocowych. W działaniach, które będę podejmował, szczególny nacisk zostanie położony na opracowanie wymaganych aktów prawnych, szkolenia oraz koordynację realizowanych działań komórek i jednostek organizacyjnych Policji.
Jak wygląda obecnie strategia Policji w zakresie cyfryzacji i automatyzacji zadań z wykorzystaniem AI?
Opracowanie, uzgodnienie oraz przedłożenie Komendantowi Głównemu Policji projektu strategii wykorzystania sztucznej inteligencji w Policji to najważniejsze zadanie pełnomocnika. Na realizację tego zadania przewidziano dziewięć miesięcy. Opracowany dokument musi być zgodny z działaniami państwa, Unii Europejskiej (UE), a także strategii organizacji międzynarodowych, których Polska jest członkiem. Drogowskazem pokazującym działania w perspektywie krótko-, średnio- i długoterminowej jest Polityka dla rozwoju sztucznej inteligencji w Polsce od roku 20201. Dyskusję na temat cyfryzacji i automatyzacji zadań należy rozpocząć od danych. To od ich jakości wszystko zależy. Wraz z rozwojem metod AI wartości powstają nie w samej informacji, lecz w algorytmicznym przetwarzaniu danych, które pozwala identyfikować wzorce, przewidywać zdarzenia i optymalizować działania w czasie rzeczywistym. Kluczem stają się identyfikacja i szczegółowa charakterystyka własnych zasobów w tym obszarze. W świecie, w którym dane są strategicznym zasobem, konieczne jest zrozumienie, iż ryzyka związane z danymi nie są jedynie techniczne, lecz także prawne, organizacyjne, operacyjne i etyczne. Istotą podejścia opartego na ryzyku jest wiedza, jak dane pozyskujemy, przetwarzamy, udostępniamy i chronimy. W efekcie środki bezpieczeństwa będą dostosowane do realnego poziomu zagrożenia, a nie arbitralnych lub sztywnych zasad. Dopiero takie podejście pozwala organizacjom się rozwijać, wdrażać innowacje oparte na danych i algorytmach, jednocześnie zapewniając zgodność z regulacjami (np. RODO, AI Act), ochronę prywatności obywateli oraz odporność na cyberzagrożenia. Właściwe zarządzanie danymi pozwoli odpowiedzieć na kluczowe pytania, które definiuje się jeszcze przed przystąpieniem do opracowania strategii: gdzie, w jakich obszarach Policja może być bardziej wydajna? Gdzie, w jakich obszarach należy wdrożyć nowe rozwiązania? Jakie dane, a w efekcie przetworzenia – jaką informację można lepiej zrozumieć?
Jakie są największe wyzwania, z jakimi mierzy się Pan jako pełnomocnik ds. AI?
Momentem przełomowym mającym wpływ na dynamiczny rozwój generatywnej sztucznej inteligencji jest opublikowanie w 2020 r. w pełni funkcjonalnego tzw. dużego modelu językowego (LLM), GPT-3 (Generative Pre-Trained Transformer 3) charakteryzującego się zdolnością generowania naturalnie brzmiącego tekstu na podstawie podpowiedzi. Model został wytrenowany na dużych zbiorach tekstów (około 45 TB danych), po analizie miliardów wzorców językowych, co pozwala mu na wykrywanie subtelnych zależności semantycznych i rozumienie kontekstu całych wypowiedzi. Wykorzystywany jest w chatbotach, asystentach wirtualnych, analizie danych tekstowych, tłumaczeniach i wielu innych sytuacjach. Dzisiaj użytkownik ma dostęp do kilkudziesięciu dużych modeli językowych dostępnych z przeglądarek w sieci Internet i wciąż powstają nowe. Rozwiązania z obszaru GenAI zyskały niezwykłą popularność. Wraz z udostępnieniem interfejsów konwersacyjnych opartych na LLM świat stanął w obliczu nowego paradygmatu, w którym analiza danych, modelowanie zjawisk i synteza informacji stały się bardziej dostępne i efektywne.
Według dostępnych raportów około 50 proc. pracowników firm korzysta z nieautoryzowanych narzędzi AI, a co bardziej intrygujące – 46 proc. z nich wskazuje, że będą z nich korzystali nawet wbrew wyraźnemu zakazowi. Powstaje zjawisko określane mianem shadow AI. Pracownicy korzystają z publicznie dostępnych modeli językowych czy generatywnych AI do wykonywania codziennych zadań, stwarzając ryzyko wycieków danych, naruszeń regulacji oraz pojawienia się niekontrolowanych luk bezpieczeństwa. Bezpośrednim skutkiem najczęściej jest zwiększenie podatności na cyberzagrożenia. Zjawisko nie zostało zdiagnozowane w Policji, ale sądzę, że wyniki mogą być zbliżone.
Niezbędne są więc budowanie świadomości na temat istniejących zagrożeń oraz przygotowanie i wdrożenie regulacji w obszarze możliwości korzystania z publicznie dostępnych modeli LLM.
Jakie konkretnie rozwiązania z zakresu AI są już testowane lub wdrażane w Policji? Dochodzenia są/będą prowadzone w przestrzeni cyfrowej, co z analizą danych?
Jak wynika z krótkiej historii, którą przytoczyłem, również w Policji nie ma próżni w tym obszarze. Wiele jednostek i komórek organizacyjnych realizuje przedsięwzięcia w obszarze AI. Obecnie zbieram informacje na ten temat, żeby skutecznie skoordynować te prace w przyszłości, co powinno przełożyć się zwłaszcza na optymalizację kosztów i uzyskanie lepszych, bardziej dopasowanych do potrzeb rozwiązań. Jako przykład już zbudowanych rozwiązań wymienię te wytworzone i testowane przez Biuro Łączności i Informatyki Komendy Głównej Policji, które zostały wykonane z wykorzystaniem infrastruktury lokalnej. Zasoby IT, takie jak serwery, pamięć masowa, sieć i oprogramowanie, są fizycznie zainstalowane i zarządzane przez pracowników i funkcjonariuszy KGP. Konfiguracja, utrzymanie i bezpieczeństwo całej infrastruktury są realizowane siłami własnymi, co zapewnia pełną kontrolę nad danymi oraz większe bezpieczeństwo.
Obecnie Komenda Główna Policji prowadzi prace nad rozwiązaniami opartymi na sztucznej inteligencji, w szczególności wykorzystującymi duże modele językowe (LLM). Jednym z kluczowych projektów jest Policyjny Asystent AI (PAAI) – narzędzie stworzone z myślą o udzielaniu funkcjonariuszom i pracownikom Policji odpowiedzi na pytania związane z ich codzienną służbą. PAAI ma charakter ogólny, nie jest ukierunkowany na jedno wąskie zadanie. Jego rolą są wspieranie szerokiego zakresu potrzeb informacyjnych użytkowników oraz rozpoznawanie tych potrzeb. Z wykorzystaniem tych doświadczeń powstaje również specjalistyczny system DAAI (Dochodzeniowy Asystent AI). Jest to wieloagentowe rozwiązanie, wyposażone w zestaw modułów umożliwiających analizę materiałów dotyczących śledztw i dochodzeń.
System potrafi przetwarzać policyjną dokumentację, analizować zdjęcia oraz wspierać interpretację złożonych spraw dzięki specjalnym technikom analitycznym oraz modelom LLM. Integralną częścią DAAI jest rozwijany moduł transkrypcji, który umożliwia automatyczne pozyskiwanie tekstu z nagrań. Duży nacisk położono na skalowalność rozwiązania oraz możliwość jednoczesnej obsługi wielu użytkowników. W celu weryfikacji jakości analiz Wydział Ochrony Systemów Informatycznych BŁiI KGP pozyskał dwie złożone sprawy archiwalne, składające się z wielu tomów. Jedna z nich zawiera liczne dokumenty sporządzone odręcznie, co stanowi istotne wyzwanie dla modeli LLM. W związku z tym są prowadzone prace nad specjalnym systemem tzw. optycznego rozpoznawania znaków (OCR), który umożliwi przekształcenie pisma odręcznego w format cyfrowy. Trwają także prace nad chatbotem przeznaczonym dla osób zainteresowanych procesem rekrutacji do Policji. Ma on zapewniać szybki dostęp do najczęściej poszukiwanych informacji i docelowo będzie dostępny na stronie policja.pl. W tym miejscu warto wspomnieć, że dla potrzeb wsparcia procesu edukacyjnego w szkołach Policji zostało zakupione oprogramowanie HeyGen, które pozwala na szybkie tworzenie materiałów wideo z wykorzystaniem realistycznych awatarów AI. Wdrożenie rozwiązania przyspieszy proces tworzenia materiałów edukacyjnych.
Jak przestępcy wykorzystują sztuczną inteligencję?
Odpowiadając na pytanie, posłużę się przykładem. Jedna z firm badawczych zajmujących się sztuczną inteligencją w listopadzie 2025 r. opublikowała raport na temat wyjątkowo zaawansowanej kampanii cyberszpiegowskiej prowadzonej we wrześniu bieżącego roku. Atak wyróżniał się tym, że 80–90 proc. działań operacyjnych wykonywała autonomicznie sztuczna inteligencja (Claude Code), a ludzie pełnili jedynie funkcję nadzorców strategicznych. Jako cel obrano duże firmy technologiczne, banki, sektor chemiczny i instytucje rządowe – około 30 podmiotów.
Jaki był skutek opisanego wyżej ataku? Kilka włamań zakończyło się sukcesem, w tym dostępem do systemów wysokiej wartości. Należy zwrócić uwagę, że w całym cyklu ataku AI pełniła funkcję agentowego, autonomicznego testera penetrującego (PenTester), wykonującego rekonesans, analizującego duże zbiory danych i dokumentację działań. Ludzie jedynie zatwierdzali kluczowe decyzje. Opisany atak jest przełomem na miarę odkrycia podatności 0-day (atakujący odkrywa lukę w oprogramowaniu i wykorzystuje ją do ataku, podczas gdy producent oprogramowania nie wiedział o luce i w związku z tym ma „zero” dni na jej załatanie). Redefiniuje sposób prowadzenia cyberataków. Systemy mogą być kompromitowane, ponieważ AI przejmuje ciężar całego łańcucha ataku (ang. kill chain). Przedstawiona sytuacja dotyczy bezpośrednio obszaru cyberbezpieczeństwa. Jednak nie należy zapominać o innych działaniach przestępców, które mogą być wspierane przez AI. Wykorzystywana jest ona głównie do automatyzacji i skalowania ataków, co pozwala działać szybciej, taniej i skuteczniej. Wskażę tylko kilka: phishing i social engineering, tworzenie i modyfikacja malware, ataki na hasła i uwierzytelnianie, prowadzenie OSINT i profilowanie potencjalnych ofiar oraz dezinformacja i manipulacja. Proponuję, żeby wskazane zagadnienia omówić przy innej okazji.
Jakie korzyści dla funkcjonowania Policji przewiduje Pan w związku z wdrożeniem rozwiązań opartych na AI, czyli jak Policja może odpowiedzieć na działalność przestępców wspieranych przez AI?
Uniwersalną siłą wszystkich narzędzi Generative AI jest przyspieszenie. Przyspieszają pierwsze 80 proc. wielu zadań – wstępny szkic, badania podstawowe, burzę mózgów. Ostatnie 20 proc. – udoskonalenie, weryfikacja i strategiczne dostosowanie – pozostaje kluczową odpowiedzialnością człowieka. Dzisiaj dla modeli AI nie jest problemem zadawanie pytań czy analiza danych w języku naturalnym. Doskonale radzą sobie z językiem SQL, co pozwala na szybsze wnioskowanie i korelowanie informacji. Doskonale radzą sobie również z innymi językami programowania. Jednak należy pamiętać o roli człowieka w zatwierdzaniu ostatecznych wyników czy wdrożeniu kodu do systemów produkcyjnych. Istotny jest fakt, że modele AI mogą halucynować – to jest generować – odpowiedzi brzmiące pewnie, ale faktycznie nieprawdziwe, nieistniejące lub sprzeczne z rzeczywistością. Powstają, gdy model wypełnia luki statystycznymi skojarzeniami zamiast rzetelną wiedzą, prowadząc do pozornie logicznych, lecz błędnych odpowiedzi. Najważniejszym ograniczeniem, które należy zrozumieć, jest to, że modele generatywnej sztucznej inteligencji nie są bazami danych faktów, są probabilistycznymi dopasowaniami wzorców. Odpowiedzią na działalność przestępców wspieraną AI będzie szybsza i bardziej precyzyjna analiza informacji zapewniająca pomoc w dochodzeniach i wykrywaniu przestępstw. Możemy sobie również wyobrazić predykcyjne wsparcie pionu prewencji w zakresie analizy trendów i przewidywania miejsc lub wskazanie okresów zwiększonego ryzyka przestępczości, co pozwoli na podjęcie optymalnych decyzji dotyczących dyslokacji sił i środków.
Jak wygląda współpraca z firmami technologicznymi lub instytutami badawczymi przy tworzeniu takich systemów?
Współpraca z firmami technologicznymi i instytutami badawczymi jest kluczowa. Często potrzebne jest spojrzenie z zewnątrz na projektowane systemy i usługi. Dużego znaczenia nabiera również możliwość konsultacji oraz wymiany opinii z ekspertami. Często również przed podjęciem decyzji o wydatkowaniu środków publicznych są wykonywane testy w laboratoriach uczelni i jednostek badawczych lub w ramach współpracy z podmiotami komercyjnymi. Obecnie pracujemy nad porozumieniami o współpracy z kilkoma polskim uczelniami. Powołanie pełnomocnika stwarza również korzystne okoliczności do usystematyzowania formuły kontaktów w ramach wspólnej platformy wymiany doświadczeń. W tym zakresie również trwają prace.
Czy rozważane są rozwiązania AI oparte na języku naturalnym (np. chatboty do kontaktu z obywatelami)?
Oczywiście. Kilka przykładów wskazałem wcześniej. Definiujemy również kolejne obszary, zwłaszcza dotyczące sfery kontaktu Policji z obywatelami. Doskonałą platformą, która może zostać wzbogacona o rozwiązania typu ChatBOT, to policyjne e-Usługi. Inne narzędzie, które zyska na atrakcyjności, to Krajowa Mapa Zagrożeń Bezpieczeństwa czy Moja Komenda. W przypadku tych narzędzi pierwsze testy wykorzystania LLM zostały zrealizowane, a wyniki zaprezentowane w trakcie konferencji traktującej o systemach informacji przestrzennej. Prelekcja spotkała się z dużym zainteresowaniem.
W miarę jak rosną obawy o prywatność i bezpieczeństwo, rośnie również presja na stworzenie silniejszych regulacji dotyczących danych. Nowe regulacje mogą wpływać na to, jakie dane można zbierać i jak je analizować, co będzie miało duży wpływ na przyszłość informatyki śledczej. Jak Policja zamierza zagwarantować, że wykorzystanie AI nie naruszy praw obywatelskich i prywatności?
Jak grzyby po deszczu powstają standardy, dobre praktyki i wytyczne w obszarze bezpiecznego wdrożenia oraz zapewnienia zgodności z obowiązującymi regulacjami dotyczącymi praw człowieka oraz ochrony danych osobowych dla rozwiązań wykorzystujących AI. Wspomniany wcześniej AI Act wskazuje na zastosowania sztucznej inteligencji, które mogą być zbyt ryzykowne dla poszanowania praw człowieka, demokracji i bezpieczeństwa. Wśród nich znalazły się manipulacja zachowaniem, wykorzystywanie słabości, scoring społeczny, prognozowanie przestępczości, masowe pozyskiwanie wizerunków z internetu lub CCTV, analiza emocji w pracy i szkole, kategoryzacja biometryczna według cech wrażliwych, zdalna identyfikacja biometryczna w czasie rzeczywistym. Zainteresowanych tą problematyką odsyłam do publikacji dotyczących stricte tego tematu.
W kontekście prognozowania przestępczości – co w przypadku Policji może wzbudzić wątpliwości – należy wyjaśnić, że ocena ryzyka popełnienia przestępstwa nie może odbywać się wyłącznie na podstawie cech osobistych. Nie wystarczy tylko obszar wykorzystania technologii. Trzeba m.in. udowodnić, że AI działa wbrew autonomii użytkownika, wywołuje szkodę (fizyczną, psychiczną, ekonomiczną), prowadzi do niesprawiedliwego traktowania lub masowej inwigilacji. Regulacje te muszą być bezwzględnie przestrzegane, a wdrożenia produkcyjne poprzedzone niezależnymi audytami.
Czy są planowane szkolenia dla funkcjonariuszy z zakresu obsługi i zrozumienia działania systemów AI?
Tak. Pierwsze szkolenia planuję już w grudniu. Będą to szkolenia podstawowe, które wprowadzą w technologię oraz wyjaśnią kwestie bezpieczeństwa, skupiając się na wyciekach danych. Uzgadniam również blok szkoleń technicznych omawiających m.in. wyzwania i dobre praktyki w aspekcie budowy kompleksowej platformy AI.
Czy Policja planuje stworzenie wewnętrznego zespołu specjalistów ds. AI, czy raczej będzie opierać się na podmiotach zewnętrznych?
Dzięki zaangażowaniu kilku osób, BŁiI KGP może się szczycić posiadaniem takiego zespołu. Samoistnie powstała struktura stała się sercem innowacji i rozwoju technologicznego, niosąc światło wiedzy tam, gdzie pojawiają się złożone wyzwania. Jego członkowie, pełni pasji i oddania, budują narzędzia, które wzmacniają zdolność służb do przeciwdziałania przestępczości nowej generacji. To dzięki ich zaangażowaniu możliwe jest wdrażanie rozwiązań AI, które nie tylko wspierają analizę danych, lecz także mogą się przyczynić do zwiększenia ochrony społeczeństwa przed zagrożeniami. Zespół organizuje szkolenia i warsztaty, przekazując innym funkcjonariuszom wiedzę, odwagę i pewność w korzystaniu z nowoczesnych technologii. Jego praca łączy zaawansowane narzędzia z codziennymi procesami operacyjnymi, czyniąc w perspektywie Policję bardziej skuteczną i przygotowaną na wyzwania XXI wieku. Specjaliści ci czuwają nad trendami i zagrożeniami, zapewniając, że każdy kolejny krok jest świadomy i bezpieczny. W ich rękach AI staje się nie tylko narzędziem, lecz także symbolem mądrości, odpowiedzialności i niezłomnego ducha służby dla dobra społeczeństwa. Oczywiście nie wykluczamy udziału w prowadzonych przedsięwzięciach podmiotów zewnętrznych na zasadzie doradztwa czy wykonawstwa ściśle określonych elementów.
Jakie są plany na kolejne lata w zakresie rozwoju sztucznej inteligencji w Policji?
W najbliższym czasie należy się skupić na budowaniu kompetencji i kapitału ludzkiego skupionego wokół AI oraz nowych technologii, co pozwoli elastycznie i szybko reagować na zmieniające się otoczenie w sferze technicznej i prawnej. Należy wzmocnić – a właściwie wybudować – własną infrastrukturę techniczną, rozwijając lub tworząc nowe centra obliczeniowe. Niezbędne są wytypowanie kluczowych obszarów dla formacji oraz wskazanie priorytetowych projektów, w którym zastosowanie elementów AI przyniesie największy efekt w relacji koszt – zysk. Prowadzone będą monitoring i ewaluacja postępów z wykorzystaniem mierzalnych wskaźników, co pozwoli oceniać skuteczność działań i wprowadzać korekty. Ogromnym wyzwaniem będą popularyzacja nowych technologii, promowanie bezpiecznych postaw w obszarze stosowania w pragmatyce służbowej oraz aktywizacja pracowników i funkcjonariuszy do innowacji. Pamiętajmy, że według wielu autorytetów zmierzamy w kierunku AGI (Artificial General Intelligence). Obecnie to hipotetyczny typ AI, który potrafiłby rozumować, uczyć się i działać w sposób zbliżony do człowieka w szerokim zakresie zadań. AGI pozostaje w sferze badań i eksperymentów teoretycznych, ponieważ istniejące najbardziej zaawansowane modele działają w ramach określonych zadań i nie mają pełnej autonomii, świadomości ani uniwersalnej zdolności adaptacyjnej.
Dziękuję za rozmowę.
zdj. Jacek Herok
1 Załącznik do uchwały nr 196 Rady Ministrów z 28 grudnia 2020 r. (poz. 23).