EU wypowiada wojnę niekontrolowanej sztucznej inteligencji

Czy sztuczna inteligencja może być jednocześnie potężna i bezpieczna? Unia Europejska twierdzi, że tak – i właśnie wprowadza pierwsze na świecie prawo, którego celem jest ujarzmienie algorytmów. W rozporządzeniu UE 2024/1689 (AI Act) jedni widzą gwarancję wolności i bezpieczeństwa, inni tylko biurokratyczny kaganiec dla innowacji. Z tych sporów wynika pytanie: czy AI Act stworzy bezpieczniejszy świat, czy zwiąże ręce innowatorom?
Era inteligentnych maszyn
Przez ostatnie lata sztuczna inteligencja (AI) przestała być tylko hasłem kojarzonym z literaturą science fiction czy z serią filmów Terminator – stała się realną częścią życia, rozwijając się w ekspresowym tempie, przez co budzi jednocześnie spore nadzieje, ale i niesie za sobą konsekwencje, których często nie jesteśmy w stanie przewidzieć. Dzisiaj sztuczna inteligencja przeniknęła niemal każdy aspekt naszego życia: analizuje nasze zachowanie w sieci, wspiera lekarzy w diagnozach, decyduje o przyznaniu kredytów, a nawet pomaga studentom zdać studia i znaleźć pracę. Wraz z tym rozwojem coraz wyraźniej wybrzmiewają pytania: kto kontroluje technologię? Jak chronić prywatność, wolność i godność ludzką w świecie, w którym decyzje coraz częściej podejmują maszyny?
Choć dla wielu sztuczna inteligencja jest symbolem XXI wieku, jej korzenie sięgają 1950 roku, gdy Alan Turing zaproponował test maszynowej inteligencji. Od tamtej pory człowiek nie przestaje pytać: czy maszyna może myśleć? W kolejnych dekadach zaczęły powstawać pierwsze systemy eksperckie i algorytmy zdolne do uczenia się – najpierw w laboratoriach uniwersyteckich, później w przemyśle i gospodarce. Dziś nie pytamy już, czy maszyna potrafi myśleć, ale czy powinna to robić? Z biegiem czasu pojęcie „sztucznej inteligencji” zaczęło się rozmywać. Ta niejednoznaczność definicji stała się jednym z głównych wyzwań dla europejskiego prawodawcy. Czym właściwie jest „sztuczna inteligencja”? Czy musi działać automatycznie? Jak określić parametry, które pozwalają zaliczyć dany system do sztucznej inteligencji? I wreszcie, jaka jest w tym wszystkim rola człowieka?
Rozporządzenie UE 2024/1689 próbuje odpowiedzieć na to pytanie już w art. 3 ust. 1, gdzie system sztucznej inteligencji zdefiniowano jako „system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii po jego wdrożeniu oraz który może wykazywać zdolność adaptacji po jego wdrożeniu, a także który – na potrzeby wyraźnych lub dorozumianych celów – wnioskuje, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne”.
Ta definicja jest wyjątkowo szeroka i obejmuje ogromną liczbę technologii, co w unijnej perspektywie przedstawia się jako zaletę, choć w rzeczywistości może prowadzić do nadmiernego rozszerzania regulacji na rozwiązania dotychczas pozbawione kontrowersji.
W tym kontekście AI Act nie wygląda na narzędzie w pełni wyważone, lecz na kolejny pakiet przepisów mających odgórnie wyznaczyć granicę między innowacją a odpowiedzialnością według logiki unijnej administracji. Teoretycznie dokument ma stanowić formę ochrony społeczeństwa, a w praktyce jest to kolejna próba uregulowania sfery technologicznej, zanim zdąży ona w pełni rozwinąć swój potencjał.
Od cyfrowego entuzjazmu do potrzeby kontroli – droga Europy do AI Act
Jeszcze dekadę temu dyskusje o sztucznej inteligencji na całym globie miały ton niemal wyłącznie optymistyczny. Wiele podmiotów międzynarodowych wskazywało na przełom technologiczny, nieograniczoną możliwość automatyzacji czy oparcie gospodarki na danych cyfrowych. Wtedy też zaczęły pojawiać się koncepcje inteligentnych miast i samouczących się fabryk czy też prognozy przyśpieszonego rozwoju ochrony zdrowia dzięki oparciu jej na systemach sztucznej inteligencji. AI stała się nową „parą” napędzającą gospodarki, tym razem jednak nie w fabrykach, lecz w kodzie.
Ten entuzjazm jednak bardzo szybko zderzył się z rzeczywistością. Wraz z upowszechnieniem się uczenia maszynowego i technologii generatywnych pojawiły się realne wyzwania – od ryzyka algorytmicznej dyskryminacji w procesach rekrutacyjnych po narzędzia analizujące zachowania pracowników lub użytkowników. W debacie publicznej najczęściej przywoływano przykład Chińskiej Republiki Ludowej, która jako jedno z pierwszych państw na masową skalę wdrożyła zaawansowane systemy kamer oraz technologii rozpoznawania obrazu. Rozwiązania te stały się elementem szeroko zakrojonej modernizacji infrastruktury bezpieczeństwa i zarządzania miastem, pozwalając na szybkie identyfikowanie osób czy pojazdów w przestrzeni publicznej. W zachodnich dyskusjach często interpretowano to jako narzędzie nadzorcze, choć w istocie był to efekt konsekwentnej polityki rozwoju technologicznego i inwestycji w inteligentne systemy miejskie. Z kolei w Stanach Zjednoczonych granice eksperymentowania zawsze wyznaczał rynek, a nie instytucje publiczne. To zderzenie różnych modeli rozwoju stało się jednym z czynników, które skłoniły Unię Europejską do prób uporządkowania sektora sztucznej inteligencji poprzez własne, odgórne regulacje zamiast koncentrowania się na wzmacnianiu innowacyjności i konkurencyjności europejskich firm.
Europejska odpowiedź, choć przedstawiana jako „klarowna”, w rzeczywistości sprowadziła się do stworzenia kolejnego centralistycznego aktu prawnego mającego regulować konkurencyjność firm, Unia Europejska po raz kolejny wybrała ścieżkę biurokratycznej kontroli, która częściej spowalnia rozwój, niż go wspiera.
AI Act miał stanowić alternatywę wobec dwóch dominujących globalnych modeli. Pierwszy to amerykański pragmatyzm, w którym innowacja naturalnie wyprzedza regulację. Drugi to podejście chińskie, gdzie państwo aktywnie koordynuje rozwój technologii, stawiając na szybkie wdrażanie zaawansowanych systemów i ich integrację z infrastrukturą publiczną. Chiński model nie jest przedstawiany przez Zachód wyłącznie jako narzędzie terroru – w praktyce umożliwił on dynamiczny rozwój sektorów takich jak fintech, urbanistyka czy inne usługi publiczne, tworząc spójne środowisko technologiczne o imponującej skali i tempie.
Europa ogłosiła, że tworzy „złoty środek”, nazywany „technologią w służbie człowieka”, lecz w praktyce oznacza to jedynie próbę trzymania rozwoju AI na krótkiej smyczy unijnych procedur. Zamiast szukać zrównoważonego modelu, który łączyłby swobodę innowacji z odpowiedzialnością, UE ponownie postawiła na regulację, ryzykując, że to nie człowiek zyska na nowych przepisach, lecz europejska biurokracja.
Geneza AI Act nie była więc tylko reakcją na rozwój technologiczny, lecz stała się częścią szerszego projektu politycznego, w którym Unia Europejska po raz kolejny próbuje umacniać swoją pozycję poprzez odgórne definiowaną „cyfrową suwerenność”.
Brukselskie elity uznały, że jeśli Europa sama nie wyznaczy zasad funkcjonowania sztucznej inteligencji, zrobią to inne podmioty, w tym globalne korporacje czy dynamicznie rozwijające się państwa spoza UE. W unijnej narracji AI Act urasta więc do rangi dokumentu niemal fundamentalnego, mającego bronić takich wartości jak godność czy równość. W praktyce jednak jest to kolejna próba ujęcia skomplikowanego, szybko rosnącego sektora w ramy administracyjne, które bardziej odzwierciedlają ambicje polityczne niż realne potrzeby europejskiego rynku w epoce algorytmów.
Potrzebę opracowania kompleksowych regulacji dotyczących sztucznej inteligencji zauważono już w 2017 roku, co znalazło odzwierciedlenie w dokumentach strategicznych. Już w 2018 roku Komisja Europejska przedstawiła europejską strategię AI, której głównym założeniem było ukierunkowanie rozwoju AI na człowieka. Choć brzmiało to jak ambitny punkt wyjścia, to już wtedy stało się jasne, że unijne podejście będzie oparte przede wszystkim na deklaracjach i regulacjach, a nie realnym wspieraniu innowacji.
Ostateczny tekst, przyjęty w 2024 roku, określano w unijnej narracji mianem „kompromisu” czy „przełomu”. W rzeczywistości powstał jednak obszerny i skomplikowany dokument, który zamiast świadczyć o odwadze i nowoczesnym podejściu UE do kwestii sztucznej inteligencji, bardziej ujawnia obawy unijnych instytucji wobec rynku, którego nie potrafią w pełni okiełznać.
Prawo dla ery algorytmów – rdzeń rozporządzenia
Tak jak zostało zaznaczone poprzednio, AI Act posiada teoretycznie dwa oblicza – chroni obywateli przed nadużyciami sztucznej inteligencji, ale jednocześnie otwiera drogę do rozwoju zaufanej, etycznej technologii. W praktyce jednak należy mieć na uwadze, że pod pozorem ochrony obywatela UE po raz kolejny umacnia swoją rolę jako regulatora, który rości sobie prawo do decydowania, jakie formy innowacji są dopuszczalne, a jakie nie. Oczywiście kierując się własnym, ściśle określonym interesem. Warto jednak spojrzeć głębiej w samą treść opisywanego aktu, by zrozumieć, co stanowi jego fundamentalną istotę.
Rozporządzenie obejmuje w zasadzie każdy system, który spełni definicję z art. 3 ust. 1, w tym systemy generatywne, predykcyjne i decyzyjne. Aby zrozumieć logikę AI Act, warto przyjrzeć się jego czteropoziomowej hierarchii ryzyka, opartej na założeniu, że nie każdy system sztucznej inteligencji jest tak samo niebezpieczny. Inne ryzyko niesie za sobą autonomiczny system medyczny, a inny asystent głosowy w smartfonie. Regulacje mają być proporcjonalne, a nie jednolite i duszące innowacyjność, choć przy tak szerokiej definicji, która obejmuje ogromną liczbę technologii znajdujących się pod unijnym nadzorem, osiągnięcie tego celu staje się niezwykle trudne.
Systemy o nieakceptowalnym ryzyku to te, które Unia Europejska uznała za sprzeczne z wartościami demokratycznymi i prawami człowieka, oraz te, które naruszają treść art. 5 powyższego rozporządzenia. Ich używanie ma zagrażać autonomii człowieka, jego prywatności i decyzyjności. Z racji ryzyka można z niektórych z nich skorzystać tylko w wyjątkowych, ściśle uregulowanych przypadkach.
Przykładem systemu należącego do opisanej wyżej kategorii jest system zdalnej identyfikacji biometrycznej w czasie rzeczywistym, który jest w stanie rozpoznawać ludzi chodzących po ulicach, w metrze czy na lotniskach za pomocą kamer i baz danych twarzy. Organy unijne wskazują, że teoretycznie dzięki takiemu rozwiązaniu można bardzo łatwo łapać przestępców, odnajdywać zaginionych czy zapobiegać zamachom, ale zaznaczają, że w praktyce taka technologia może przekształcić demokratyczne społeczeństwa w technologiczne twory, gdzie każdy obywatel staje się potencjalnym podejrzanym. Wykorzystanie takich systemów jest ściśle ograniczone administracyjnie oraz prawnie do konkretnych typów przestępstw przy zachowaniu odpowiedniej zgody organów nadzorujących.
Inną technologią zaliczaną przez UE do kategorii „niedopuszczalnego ryzyka” są systemy oceny społecznej, kojarzone przede wszystkim z rozwiązaniami stosowanymi w Chińskiej Republice Ludowej. Mechanizm ich działania opiera się na analizie różnorodnych danych, od zachowań społecznych po aktywność użytkownika w sieci. Takie rozwiązania, zastosowane w Państwie Środka, mogą prowadzić do niepożądanych konsekwencji dla przeciętnego obywatela, w debacie publicznej całkowicie pomija się fakt, że mają one również służyć zwiększeniu transparentności życia publicznego oraz karaniu osób uporczywie łamiących obowiązujące przepisy.
To tylko dwa przykłady systemów niedopuszczalnych w kontekście Aktu o sztucznej inteligencji. Należy jeszcze wymienić m.in. system rozpoznawania emocji czy inne manipulacje zachowaniami poprzez techniki podprogowe lub psychologiczne oddziaływanie na człowieka, ale jest to zbyt rozległy temat.
Drugi poziom stanowią systemy wysokiego ryzyka, w których sztuczna inteligencja może mieć realny wpływ na życie lub bezpieczeństwo. Zaliczają się do nich np. systemy rekrutacji pracowników, zdalna identyfikacja biometryczna post factum, systemy zarządzające ruchem lub infrastrukturą techniczną czy oprogramowania służące do diagnostyki medycznej. W przypadku systemów sztucznej inteligencji wysokiego ryzyka warto zwrócić uwagę na rygorystyczne obowiązki, które muszą zostać spełnione przed wprowadzeniem ich na rynek. Chodzi tutaj o przygotowanie odpowiedniej dokumentacji technicznej, przeprowadzenie oceny zgodności systemu z regulacjami prawnymi, zapewnienie nadzoru człowieka czy stałe kontrolowanie pod kątem zagrożeń i innych nieprawidłowości. Dodatkowo zanim zostaną dopuszczone do obrotu, muszą uzyskać odpowiedni certyfikat CE – znak zgodności, który potwierdza spełnienie wymogów opisanych szerzej w AI Act.
Najniższe poziomy w piramidzie ryzyka związanego ze sztuczną inteligencją obejmują kwestie ograniczonego ryzyka, gdzie zwrócono szczególną uwagę na przejrzystość w stosowaniu sztucznej inteligencji. Akt w sprawie sztucznej inteligencji wprowadza szczegółowe obowiązki w zakresie ujawniania informacji w celu zapewnienia, aby ludzie byli informowani, gdy jest to konieczne do zachowania zaufania. Przykładowo treści generowane przez AI powinny zawierać wyraźne oznaczenie swojego pochodzenia.
Natomiast do systemów minimalnego ryzyka zalicza się większość codziennych zastosowań sztucznej inteligencji, jak tłumaczenie czy narzędzia rekomendacyjne. AI Act nie nakłada żadnych dodatkowych obowiązków.
Klasyfikacja ryzyka jest prezentowana przez UE jako „serce” AI Act, mające rzekomo likwidować wszelkie możliwe nadużycia. W praktyce to przede wszystkim narzędzie do rozszerzania unijnej kontroli nad technologią. Bruksela mówi o „sztucznej inteligencji skoncentrowanej na człowieku”, ale za tymi hasłami kryje się rozbudowany system ograniczeń i barier, które mogą spowolnić europejską innowacyjność. Zamiast straszyć wizją technologii wymykającej się spod kontroli, warto dostrzec realne ryzyko, że to unijna biurokracja przejmie rolę głównego hamulca rozwoju.
Obawy te nie są jedynie publicystyczną spekulacją, lecz znajdują głośne potwierdzenie w samym sercu europejskiego biznesu. Już w czerwcu 2023 roku w reakcji na procedowane przepisy przedstawiciele ponad 150 największych firm kontynentu (takich jak Siemens Energy, Airbus, BNP Paribas czy Renault) wystosowali list otwarty do władz Brukseli. Autorzy podkreślili w nim, że proponowane regulacje, zamiast budować zaufanie, mogą doprowadzić do „technologicznego samobójstwa” Europy i zagrozić jej konkurencyjności względem USA.
Głosy sprzeciwu płynęły również bezpośrednio od twórców tych technologii, w tym od Arthura Menscha, współzałożyciela Mistral AI (europejska konkurencja dla OpenAI). Skrytykował on zapisy AI Act, wskazując, że kształt projektu faworyzuje amerykańskich gigantów, ponieważ jedynie oni dysponują kapitałem niezbędnym do spełnienia nowych standardów. W podobnym tonie wypowiadał się Yann LeCun, szef działu AI w Meta oraz laureat Nagrody Turinga. Zauważył on, że unijne podejście jest próbą uregulowania sektora, którego Europa nie zdążyła jeszcze zbudować, co w efekcie grozi drenażem mózgów i kapitału poza Stary Kontynent.
Czy sztuczna inteligencja zabierze nam pracę?
Czy Chiny to „papierowy smok”?
Polska w erze sztucznej inteligencji
Wejście w życie AI Act stawia Polskę nie tyle na „cywilizacyjnym zakręcie”, ile przed szeregiem nowych obowiązków narzuconych przez Brukselę. Ta regulacja może wymusić na Polsce kosztowną reorganizację systemów administracyjnych i gospodarczych, a nie otworzyć jej drogę do rozwoju. Zamiast naturalnie uczestniczyć w technologicznej rewolucji, musimy dostosować się do unijnego modelu nadzoru AI, niezależnie od tego, czy odpowiada to naszym potrzebom, czy nie.
Podstawowym obowiązkiem Polski będzie utworzenie krajowego nadzoru nad AI, instytucji analogicznej do unijnego AI Office, oraz opracowanie standardów audytu algorytmicznego (już teraz trwają konsultacje publiczne, w których większość ich uczestników opowiada się za utworzeniem nowego organu, a nie przekazywaniem kompetencji istniejącym podmiotom). To kolejne zobowiązanie instytucjonalne, które wymaga finansów, kadr i kompetencji, nie wspominając już, że nasza administracja nadal zmaga się z podstawowymi wyzwaniami cyfryzacji.
Firmy również odczują skutki rozporządzenia. Przedsiębiorstwa będą musiały przeprowadzać audyty swoich modeli, tworzyć dokumentacje zgodności oraz dbać o transparentność danych. Będzie to kosztowne przedsięwzięcie, które podniesie koszty prowadzenia działalności i obciąży mniejsze podmioty. Po raz kolejny przedsiębiorcy muszą zmagać się z dodatkowymi obowiązkami, zamiast koncentrować się na rozwoju produktów.
Uniwersytety i ośrodki badawcze mogą zyskać na większym zainteresowaniu tematyką AI, ale i tutaj istnieje ryzyko, że zamiast wspierać innowacje, skupią się głównie na tworzeniu kolejnych programów etycznych, norm i procedur w duchu unijnych zaleceń. Rozwój technologii wymaga przede wszystkim swobody, a nie nadmiaru regulacyjnych wytycznych.
Polska, przystępując do wdrażania Aktu o sztucznej inteligencji, musi balansować nie między „prawem jednostki a rozwojem gospodarczym”, lecz między narzuconą regulacją a własnym interesem. To nie jest „test społecznej dojrzałości”, lecz próba odpowiedzenia na pytanie, czy potrafimy uniknąć sytuacji, w której unijne przepisy staną się hamulcem wzrostu zamiast jego katalizatorem. Etyka w technologii jest ważna, ale nie może być pretekstem do mnożenia barier, które spowolnią polski rozwój i osłabią kompetencje naszych firm w globalnym wyścigu.
Kluczowe pytanie nie dotyczy zgodności postępowania z naszym sumieniem, lecz tego, czy stać nas na system, w którym o tempie polskiej innowacji decydują przede wszystkim regulacje tworzone w Brukseli.
Przyszłość pisania kodem i wartościami
Rozporządzenie UE 2024/1689 często przedstawia się jako coś więcej niż zbiór paragrafów, jako manifest epoki. W rzeczywistości jest to przede wszystkim kolejna próba Brukseli, by z góry narzucić ramy dla technologii, której rozwój wyprzedza zdolności unijnych instytucji do jej zrozumienia. Zamiast uczestniczyć w globalnej rewolucji technologicznej, Europa znów wybiera regulatora przekonanego, że może być „sumieniem” świata.
UE mówi „tak” dla innowacji, ale pod warunkiem, że rozwija się ona w rytmie narzuconym przez prawo, co w praktyce oznacza ograniczenia, procedury i nadzór. Zastępowanie użyteczności wzniosłą retoryką o „etyce” nie zmienia faktu, że nadmierna kontrola może szybciej zdusić postęp, niż go uchronić.
AI Act to nie sygnał mądrości, ale wyraźny sygnał obawy przed dynamiką technologii, którą inne regiony rozwijają odważniej i szybciej. Unia Europejska tworzy kodeks dla przyszłości, ale istnieje realne ryzyko, że stanie się on ciężarem, który unieruchomi europejskich innowatorów w momencie, gdy reszta globu ruszy naprzód.
Możliwe więc, że historia oceni AI Act nie jako przełom, lecz jako dokument, który próbował regulować technologię, zanim Europa nauczyła się z niej korzystać. Ta granica, na której spotykają się nie tyle kod i sumienie, ile ambicje unijnej biurokracji i tempo współczesnych innowacji.
Ten tekst przeczytałeś za darmo dzięki hojności naszych darczyńców
Nowy Ład utrzymuje się dzięki oddolnemu wsparciu obywatelskim. Naszą misją jest rozwijanie ośrodka intelektualnego niezależnego od partii politycznych, wielkich koncernów i zagraniczych ośrodków wpływu. Dołącz do grona naszych darczyńców, walczmy razem o podmiotowy naród oraz suwerenną i nowoczesną Polskę.






