Sztuczna inteligencja w sektorze publicznym przestaje być technologiczną ciekawostką, a staje się narzędziem realnej zmiany. W rozmowie z dr Dotą Szymborską – etyczką nowych technologii i liderką sekcji ds. AI i demokracji Grupy Roboczej ds. Sztucznej Inteligencji przy Ministerstwie Cyfryzacji – pytamy, jak mądrze wdrażać AI w urzędach, nie tracąc z oczu obywatela.
Raporty pokazują, że polska administracja publiczna może zyskać nawet 8 miliardów złotych rocznie, gdyby w pełni wykorzystała potencjał sztucznej inteligencji. Tymczasem AI bywa traktowana głównie jako sposób na łatanie braków kadrowych. Czy takie podejście – zamiast myślenia o strategicznej transformacji – nie ogranicza potencjału sektora publicznego?
Rzeczywiście oszczędności i wzrost jakości usług pojawiają się wtedy, gdy sztuczną inteligencję traktujemy jako element strategii organizacyjnej. Nie chodzi o to, żeby wpisać AI w grafik dyżurów, lecz żeby włączyć je w sposób myślenia o tym, jak instytucja służy obywatelowi. Zamiast pytać: „gdzie AI może odciążyć urzędnika?”, powinniśmy zadać sobie pytanie: „w jakim miejscu system oparty na sztucznej inteligencji skróci ścieżkę obywatela o kilka dni i zmniejszy liczbę odwołań od decyzji?”.
W praktyce oznacza to wdrażanie zasady „ethics by design”, czyli etyki projektowanej od początku, a nie dopisywanej na końcu projektu. Już na etapie planowania ustalamy więc jasne cele, kryteria jakości (np. terminowość lub równe traktowanie wnioskodawców), wskaźniki ryzyka oraz sposób nadzoru człowieka nad działaniem systemu. W tym kontekście mówimy o tzw. human oversight, czyli ludzkiej kontroli nad procesami zautomatyzowanymi – urzędnik pozostaje odpowiedzialny za decyzję, nawet jeśli korzysta z podpowiedzi maszyny.
AI powinno uzupełniać, a nie zastępować człowieka. Automatyzujemy czynności powtarzalne i żmudne, jak analiza dokumentów, klasyfikacja wniosków czy porządkowanie danych. Czas specjalistów inwestujemy natomiast w to, co wymaga interpretacji, empatii i rozumienia kontekstu. Właśnie tu ujawnia się etyka współpracy człowiek – maszyna: technologia pomaga, ale nie przejmuje odpowiedzialności.
Największe korzyści pojawiają się tam, gdzie budujemy wspólny „rdzeń” rozwiązań, które można współdzielić między instytucjami. Przykładem są być moduły OCR (ang. Optical Character Recognition, czyli rozpoznawanie tekstu z dokumentów papierowych lub skanów) albo systemy kolejkowania wniosków. Dzięki takim komponentom każda instytucja nie musi tworzyć własnych narzędzi od zera, lecz korzysta ze wspólnej, sprawdzonej infrastruktury. To nie tylko zwiększa efektywność, ale też pozwala łatwiej wprowadzać standardy etyczne i techniczne na poziomie całego sektora publicznego.
Jak przejść od postrzegania AI wyłącznie jako narzędzia operacyjnego do roli katalizatora głębszej modernizacji administracji publicznej – tak, by technologia faktycznie zmieniała sposób działania urzędów i obsługi obywateli?
Potrzebna jest zmiana logiki działania urzędów – z reaktywnej na refleksyjną. AI nie może być jedynie dodatkiem do istniejących procedur; musi stać się impulsem do ich przemyślenia. Najlepszym sposobem, by to osiągnąć, jest uporządkowane podejście w kilku krokach, które łączy ethics by design z praktyką zarządzania jakością.
Pierwszy krok to stworzenie mapy decyzji – przeglądu punktów w procesach administracyjnych, w których zapadają decyzje, wraz z określeniem, kto faktycznie ponosi za nie odpowiedzialność. Dopiero wtedy można świadomie wyznaczyć miejsca, w których warto wprowadzić rozwiązania oparte na sztucznej inteligencji, i te, w których człowiek musi pozostać decydentem. Pozwala nam to jasno zdefiniować, kto odpowiada za rezultat.
Drugi etap to pilotaż z hipotezą. Każdy projekt AI w administracji powinien zaczynać się od jasnego założenia, co konkretnie chcemy poprawić, np. skrócić czas wydania decyzji z 30 do 10 dni albo zmniejszyć liczbę błędów o określony procent. Dzięki temu technologia staje się nie celem samym w sobie, ale środkiem do weryfikowalnej zmiany jakości działania urzędu.
Krok trzeci to zasada „explain first”, czyli „po pierwsze wyjaśnij” jeszcze przed wdrożeniem systemu. Zanim jakiekolwiek rozwiązanie trafi do użytku, trzeba zapytać, czy obywatel zrozumie, w jaki sposób zapadła decyzja i czy audytor będzie w stanie ją odtworzyć. Ma to ogromne znaczenie w kontekście zaufania społecznego – bez przejrzystości nawet najlepszy model budzi podejrzenia.
Czwarty element to etyka współpracy, czyli określenie relacji pomiędzy człowiekiem a systemem AI. Sprowadza się to do prostego, lecz kluczowego modelu: „AI proponuje, człowiek zatwierdza”. To człowiek: urzędnik, specjalista, kontroler – podejmuje ostateczną decyzję, a system dostarcza mu danych, rekomendacji i analiz. Taki podział ról powinien być jasno opisany, wraz z procedurami odwołania i eskalacji w razie wątpliwości co do działania modelu.
Na końcu pozostaje cykl uczenia, który pozwala, by organizacja stale się doskonaliła. Co miesiąc warto przeglądać najważniejsze wskaźniki jakości, ryzyka i liczbę skarg, a następnie aktualizować zarówno modele, jak i procedury. To nie jest „projekt IT”, tylko ciągły proces zarządzania – podobny do zasad ISO, gdzie standardy nie są czymś raz wdrożonym, lecz żywym systemem, który podlega audytom i poprawkom.
Co ciekawe, to są standardy, które przyjmuje nie tylko moja sekcja GRAI koncentrująca się na demokracji i AI, ale również sekcja Joanny Szczygielniak zajmująca się zdecydowanie bardziej aspektami polityk i procedur.
Wśród przeszkód we wdrażaniu AI w administracji publicznej często wymienia się rozproszenie decyzyjne, brak kompetencji cyfrowych, obawy przed błędami prawnymi oraz ryzyko uzależnienia od dostawców. Która z tych barier jest dziś najtrudniejsza do przełamania i dlaczego?
Nie jest to ani prawo, ani brak technologii, ani nawet niedostatek kompetencji cyfrowych. Najtwardszym orzechem do zgryzienia wydaje się zdolność organizacyjna do zarządzania zmianą. Można mieć najlepsze przepisy, szkolenia i narzędzia, ale jeśli struktura urzędu nie potrafi włączyć nowych rozwiązań w codzienną praktykę, wszystko zatrzymuje się na etapie pilotażu. Wdrażanie AI to proces kulturowy, który wymaga zaufania, jasnych ról i odwagi w podejmowaniu decyzji.
Pierwszym krokiem do przełamania tej bariery jest wprowadzenie standardów zamówień opartych na zasadzie otwartości. W praktyce oznacza to, że w umowach z dostawcami należy wymagać otwartych interfejsów (czyli sposobów, w jakie różne systemy mogą się ze sobą komunikować) oraz tzw. prawa do wyjścia. Chodzi o to, by urząd nie był uwięziony w jednym, zamkniętym ekosystemie konkretnego dostawcy i w razie potrzeby mógł przenieść swoje dane, modele oraz procesy do innego rozwiązania bez utraty ciągłości działania.
Drugim elementem jest jasny podział ról i odpowiedzialności. W każdej organizacji, która wdraża systemy oparte na AI, powinien być wyraźnie określony właściciel procesu (odpowiedzialny za to, w jakim celu technologia jest stosowana), właściciel danych (czuwający nad ich jakością, aktualnością i bezpieczeństwem), oficer etyki AI (odpowiedzialny za zgodność rozwiązań z zasadami przejrzystości, równości i odpowiedzialności) oraz opiekun modelu (osoba techniczna, monitorująca, jak algorytm działa w praktyce). Dopiero taki zespół gwarantuje, że technologia nie wymknie się spod kontroli i że decyzje podejmowane przy jej wsparciu będą nie tylko skuteczne, ale też etyczne.
Trzecim filarem są szkolenia prowadzone „przy” procesie, a nie „obok” niego. Zamiast organizować ogólne kursy z obsługi AI, które kończą się na teorii, dużo skuteczniejsze są warsztaty oparte na realnych przypadkach z życia urzędu. Urzędnicy uczą się wtedy pracy z technologią na konkretnych danych i dokumentach, równocześnie analizując listę potencjalnych ryzyk – od błędów prawnych, przez stronniczość danych, po kwestie ochrony prywatności. W takim modelu obok specjalistów IT pojawiają się ekspert prawny i etyczny, którzy pomagają zrozumieć, jak technologia wpływa na odpowiedzialność instytucji wobec obywatela.
Zarządzanie zmianą organizacyjną wymaga więc nie tyle nowych narzędzi, co nowego sposobu myślenia. AI nie jest magicznym rozwiązaniem, które wystarczy „podłączyć”. To partner, którego trzeba umieć nadzorować, rozumieć i rozliczać. Gdy administracja nauczy się tej współpracy, pozostałe bariery: prawne, kompetencyjne czy technologiczne – staną się znacznie łatwiejsze do pokonania.
Samorządy mają ograniczone zasoby i coraz częściej korzystają z rozwiązań tworzonych przez firmy prywatne i startupy. Jak burmistrz czy wójt – już na etapie zamówień i wdrożeń – mogą praktycznie chronić się przed uzależnieniem od jednego dostawcy technologii, zachowując jednocześnie otwartość na innowacje? Jak w tym kontekście zapewnić kontrolę nad danymi publicznymi i zaufanie obywateli do decyzji podejmowanych przez algorytmy?
Takie podejście jest zrozumiałe, ponieważ nie da się budować kompetencji technologicznych od zera w każdej gminie. Problem pojawia się jednak wtedy, gdy nowa technologia staje się „czarną skrzynką”, do której urząd nie ma pełnego dostępu. Uzależnienie od jednego dostawcy, zwane vendor lock-in, to jedno z najpoważniejszych ryzyk, przed którymi samorządowcy powinni się dziś zabezpieczać.
Najprostsze wydaje się wprowadzenie tzw. minimum kontraktowego, czyli zestawu warunków, które powinny znaleźć się w każdej umowie na wdrożenie systemu opartego na AI. Po pierwsze – interoperacyjność, czyli zdolność systemu do współpracy z innymi rozwiązaniami. W praktyce oznacza to dostęp do pełnej dokumentacji technicznej oraz interfejsu API (Application Programming Interface). Urząd powinien też mieć prawo do tworzenia własnej kopii zbiorów wykorzystywanych przez system. Dzięki temu zachowuje niezależność i może monitorować, jak i co jest przetwarzane.
Ważnym elementem jest mobilność modeli. Samorząd powinien móc wyeksportować kluczowe elementy rozwiązania, takie jak wagi modelu (parametry uczące się na danych), wektory cech czy tzw. prompty (instrukcje, które kierują zachowaniem systemu). Nawet jeśli dostawca nie ujawnia pełnego kodu źródłowego, urząd powinien mieć dostęp do logów decyzyjnych, aby móc prześledzić, jak system dochodził do danego wyniku. To podstawowy warunek przejrzystości i zgodności z zasadą ethics by design.
Wreszcie filar, którym jest pełna kontrola nad danymi publicznymi. W umowie z wykonawcą powinny być jasno określone: miejsce, w którym dane są przetwarzane (np. w Polsce lub w innym kraju UE), ich klasa ochrony (poziom bezpieczeństwa), plan retencji (jak długo i w jakim celu dane będą przechowywane) oraz obowiązek przeprowadzania testów wykrywających ewentualne wycieki. Tylko wtedy można mieć pewność, że dane mieszkańców nie staną się „produktem ubocznym” komercyjnych eksperymentów.
Ważny jest też nadzór człowieka, czyli element etyki współpracy. Samorząd powinien prowadzić rejestr decyzji wspartych przez AI, określić próg eskalacji (moment, w którym decyzja powinna zostać przekazana człowiekowi do weryfikacji) oraz przeprowadzać losowe audyty działania systemu. To nie tylko wzmacnia kontrolę, ale także buduje kompetencje organizacji – urząd uczy się, jak oceniać efektywność i ryzyka technologii.
I wreszcie, niezwykle ważna jest transparentność wobec mieszkańców. Obywatele mają prawo wiedzieć, że ich sprawa była wsparta przez system oparty na sztucznej inteligencji. Powinni więc dostać prostą informację, kiedy i w jaki sposób to się odbyło. Równie istotne jest prawo do odwołania się od wyniku wygenerowanego przez algorytm i ludzkiego przeglądu decyzji. Zaufanie rodzi się bowiem nie z perfekcyjności technologii, lecz z jasności zasad jej działania.
Jako członkini sekcji w Grupie Roboczej ds. Sztucznej Inteligencji (GRAI) przy Ministerstwie Cyfryzacji zajmuje się Pani rewizją krajowej polityki rozwoju AI. Jaki jest jej najważniejszy, praktyczny cel – zwłaszcza z punktu widzenia samorządów i urzędników, którzy mają ją później stosować?
Najważniejszym, praktycznym celem rewizji krajowej polityki rozwoju sztucznej inteligencji jest przejście od dokumentu strategicznego do zestawu realnych narzędzi, które pomagają instytucjom, w tym samorządom, bezpiecznie, etycznie i efektywnie wdrażać AI w codziennej pracy.
Chodzi o to, by polityka nie była zbiorem deklaracji, ale swoistym „systemem operacyjnym” dla administracji publicznej: z katalogiem wspólnych usług, standardów, wzorców i ścieżek wsparcia. To właśnie ta praktyczność, podkreślana w raporcie GRAI, jest kluczowym wyróżnikiem aktualizacji dokumentu. Bardzo się cieszę, że pod kierownictwem Joanny Szczegielniak mogłam nad nim pracować. W zaktualizowanej polityce proponujemy między innymi:
- katalog wspólnych modułów technologicznych – takich jak anonimizacja danych, rozpoznawanie dokumentów OCR czy systemy klasyfikacji wniosków, które można współdzielić pomiędzy urzędami, zamiast budować wszystko od zera;
- szablony dokumentacyjne – oceny wpływu (AIA, czyli AI Impact Assessment), standardy zakupowe i wzory umów, które pomagają unikać ryzyka vendor lock-in;
- narzędzia wspierające zarządzanie ryzykiem – matryce ryzyk, kryteria przejrzystości, listy kontrolne zgodności z wymogami rozporządzenia AI Act;
- system wsparcia kompetencyjnego – ścieżki krótkich szkoleń i mikrokursów dla kluczowych ról: właściciela procesu, opiekuna modelu, inspektora danych i oficera etyki AI.
To przesunięcie akcentu, od strategii do praktyki, jest odpowiedzią na potrzeby, które samorządy i urzędy sygnalizowały w licznych konsultacjach. W raporcie zwracamy uwagę, że wdrożenia AI w sektorze publicznym w Polsce „rozbijają się” nie tyle o brak technologii, co o brak ram organizacyjnych, kompetencyjnych i prawnych, które pozwalałyby bezpiecznie eksperymentować. Dlatego aktualizacja polityki ma te ramy właśnie stworzyć.
Patrząc w przyszłość – jakie są Pani oczekiwania wobec rozwoju AI w polskim sektorze publicznym? Jaki niefinansowy miernik byłby dla Pani najlepszym dowodem, że polska polityka AI idzie w dobrym kierunku?
Wierzę, że polski sektor publiczny może stać się przykładem mądrej współpracy człowieka z technologią. Takiej, w której sztuczna inteligencja nie zastępuje decyzji, lecz wzmacnia ich jakość, przejrzystość i dostępność. Jako etyczka nowych technologii i liderka sekcji w GRAI widzę, jak ogromny potencjał mają urzędnicy, którzy chcą się uczyć, eksperymentować i wprowadzać innowacje w sposób odpowiedzialny.
Moim najgłębszym oczekiwaniem wobec rozwoju AI w polskiej administracji jest to, by etyka, transparentność i zaufanie obywateli stały się naturalnym elementem każdego projektu technologicznego – nie dodatkiem, lecz punktem wyjścia. Chciałabym, żebyśmy przestali mówić o „wdrażaniu AI”, a zaczęli mówić o „projektowaniu dobra publicznego przy wsparciu AI”. To zmiana języka, ale też mentalności: od fascynacji technologią do dojrzałej refleksji nad tym, komu i czemu ma ona służyć.
Jeśli miałabym wskazać niefinansowy miernik sukcesu polskiej polityki AI, byłby nim poziom zaufania społecznego: odsetek obywateli, którzy rozumieją, kiedy i jak ich sprawy są wspierane przez sztuczną inteligencję i mają poczucie, że technologia działa w ich interesie. Drugim wskaźnikiem byłaby stabilność i równość wyników decyzji administracyjnych, brak różnic w jakości obsługi między gminami czy grupami społecznymi. Bo jeśli AI zacznie wyrównywać szanse, a nie je pogłębiać, będziemy mogli powiedzieć, że idziemy w dobrym kierunku.
Wierzę, że to możliwe. Polska ma wszystkie potrzebne zasoby, wiedzę ekspertów, zaangażowanie administracji i polityczną wolę działania. Teraz najważniejsze, byśmy tę współpracę oparli na zaufaniu i wspólnej odpowiedzialności. Jeśli uda się zbudować taką kulturę współpracy między Ministerstwem Cyfryzacji a środowiskiem GRAI, to właśnie będzie najlepszy dowód, że polska polityka AI dojrzewa – etycznie, mądrze i z myślą o człowieku.
* Poglądy przedstawione w rozmowie są opinią autorki jako liderki sekcji i ekspertki, a nie oficjalnym stanowiskiem Ministerstwa Cyfryzacji czy całej Grupy Roboczej GRAI.

dr Dota Szymborska – etyczka nowych technologii, adiunktka na Uniwersytecie WSB Merito w Warszawie, członki GRAI (liderka sekcji poświęconej demokracji), wyróżniona tytułami: Top 10 Women in Data Science (2024) oraz Strong Women in IT (2025).