Technologia 01.04.2026

UE zbudowała największy na świecie akt prawny o AI. Teraz go zmienia

Avatar photo
0 komentarzy 6 minut

Wyścig z własnym harmonogramem

2 sierpnia 2026 roku – ta data ma dla sektora technologicznego w Europie niemal symboliczne znaczenie. W tym dniu Europejski akt o sztucznej inteligencji (AI Act) miał zacząć w pełni obowiązywać, włącznie z surowymi wymogami dla systemów wysokiego ryzyka. Tymczasem zaledwie cztery miesiące przed tym terminem Bruksela przepisuje własne prawo w ekspresowym tempie.

AI Act wszedł w życie 1 sierpnia 2024 roku, stając się pierwszym na świecie kompleksowym aktem prawnym regulującym sztuczną inteligencję – owocem kilkuletnich negocjacji między instytucjami UE, gigantami technologicznymi i organizacjami ochrony praw człowieka. Ambicja była ogromna. Wdrożenie okazało się znacznie trudniejsze, niż zakładano.

Luka między prawem a rzeczywistością

Z 27 państw członkowskich jedynie osiem wyznaczyło do marca 2026 roku krajowe punkty kontaktowe wymagane przepisami aktu. Oznacza to, że ponad dwie trzecie krajów UE – w tym wiele dużych – nie jest formalnie gotowych do egzekwowania nowych regulacji. Harmonizacja standardów technicznych, konieczna do praktycznej oceny zgodności systemów AI, wciąż nie dobiegła końca.

Firmy – zwłaszcza małe i średnie – znalazły się w niekomfortowej sytuacji: prawo obowiązuje, ale szczegółowe wytyczne dotyczące jego stosowania wciąż nie istniały. W lutym 2026 roku Komisja przekroczyła własny termin na publikację wytycznych dla systemów wysokiego ryzyka. Brak tych dokumentów oznaczał, że przedsiębiorstwa nie wiedziały, czy ich produkty mieszczą się w ryzykownych kategoriach.

Omnibus na ratunek

Odpowiedzią Komisji był zaproponowany w listopadzie 2025 roku tzw. Digital Omnibus on AI – celowany pakiet zmian do AI Act, będący częścią siódmego unijnego pakietu upraszczającego legislację (Omnibus VII). Oficjalnym celem było zmniejszenie obciążeń administracyjnych i dostosowanie harmonogramu do realiów wdrożenia. W praktyce oznaczało to jedno: przesunięcie kluczowych terminów.

Rada UE zatwierdziła stanowisko 13 marca 2026 roku pod prezydencją Cypru. Wiceminister ds. europejskich Marilena Raouna wyjaśniła cel: „Propozycja zapewni większą pewność prawa i bardziej zharmonizowane wdrożenie we wszystkich państwach członkowskich”. Negocjacje mają zakończyć się do maja 2026 roku – w ostatniej chwili przed sierpniowym terminem.

26 marca 2026 roku Parlament Europejski przegłosował własne stanowisko – 569 głosami za, na 637 oddanych głosów. Otwiera to drogę do trójstronnych negocjacji znanych jako trylog. Jeśli nowelizacja nie zostanie przyjęta przed 2 sierpnia, oryginalny, trudny do zrealizowania harmonogram pozostanie w mocy ze wszystkimi konsekwencjami dla firm i krajowych organów nadzoru.

Co konkretnie się zmieni

Kluczową kwestią jest przesunięcie terminów dla systemów wysokiego ryzyka. Obie instytucje uzgodniły stałe daty wejścia w życie wymogów – co firmy przyjęły z wyraźną ulgą. Elastyczność warunkowa proponowana przez Komisję była krytykowana jako nieprzewidywalna i utrudniająca planowanie inwestycji w dłuższej perspektywie.

Obszar regulacjiPierwotny terminStanowisko Rady i PE
Systemy AI wysokiego ryzyka (biometria, zatrudnienie, sądownictwo, edukacja)sierpień 20262 grudnia 2027
Systemy AI wbudowane w produkty regulowane (np. urządzenia medyczne)sierpień 20262 sierpnia 2028
Znakowanie treści generowanych przez AI (watermarking)sierpień 20262 listopada 2026 (PE)
Zakaz systemów generujących intymne treści bez zgody (nudifiers)brakobydwie instytucje: tak
Rejestracja systemów samodzielnie ocenionych jako niskoryzykownezniesiona (KE)zachowana przez obie instytucje

Obie instytucje zdecydowanie odrzuciły propozycję Komisji, by usunąć obowiązek rejestracji systemów AI w unijnej bazie danych, gdy dostawca samodzielnie ocenił swój produkt jako niezaliczający się do kategorii wysokiego ryzyka. Zdaniem Europejskiej Rady Ochrony Danych, ograniczenie tego wymogu groziłoby utratą widoczności regulacyjnej nad potencjalnie wrażliwymi systemami.

Nowe zakazy i wcześniejsze obowiązki

Jedną z najważniejszych nowości obu stanowisk jest proponowany zakaz tzw. systemów nudifier: narzędzi AI zdolnych do generowania obrazów seksualnych przedstawiających możliwe do zidentyfikowania osoby bez ich zgody. To pierwsze tak bezpośrednie prawne uderzenie w jeden z najbardziej szkodliwych obszarów zastosowań generatywnej sztucznej inteligencji.

Parlament zaproponował ponadto krótszy – niż Komisja – termin spełnienia wymogów dotyczących znakowania treści AI. Dostawcy systemów AI będą musieli oznaczyć audio, wideo, obrazy i teksty wygenerowane przez sztuczną inteligencję, co ma umożliwić użytkownikom identyfikację materiałów syntetycznych. Komisja proponowała czas do lutego 2027 roku. Parlament skrócił ten termin do 2 listopada 2026.

Uproszczenie czy odwrót od regulacji?

Tocząca się debata dotyka sedna: czy Digital Omnibus to racjonalne dostosowanie ambitnego prawa do realiów, czy zawoalowana kapitulacja wobec lobbingu technologicznego? Organizacje chroniące prawa cyfrowe, takie jak CDT Europe, ostrzegają, że pakiet upraszczający może osłabić ochronę danych osobowych. Stowarzyszenie CCIA – skupiające Amazon, Apple, Google i Meta – z kolei domagało się jeszcze dalej idących ułatwień.

Arba Kokalari, szwedzka eurodeputowana i współsprawozdawczyni komisji ds. rynku wewnętrznego, podsumowała intencje reformy: „Jeśli Europa chce być konkurencyjna, musimy ułatwiać stosowanie sztucznej inteligencji, a nie karać firmy, które wprowadzają innowacyjne rozwiązania AI w bezpiecznych produktach”. Słowa te oddają ducha całego procesu: nie chodzi o odwrót od regulacji, lecz o ich egzekwowalność.

Eksperci prawni podkreślają, że podstawowa logika AI Act pozostaje nienaruszona. Wymogi zarządzania ryzykiem, dokumentacji technicznej i nadzoru nadal obowiązują – tyle że firmy dostaną więcej czasu na wdrożenie. Regulacja skrojona z nadmiernym optymizmem co do tempa przygotowań jest jak most zaplanowany dla ruchu, który jeszcze nie istnieje.

Co zmiana oznacza dla firm i dla Polski

Dla Polski – kraju, który według ostatnich prognoz awansował na trzecie miejsce w europejskim rankingu konkurencyjności IT – zmiana harmonogramu jest równoznaczna z dodatkowym czasem na przygotowania. Polskie firmy technologiczne, w tym dostawcy systemów biometrycznych, narzędzi HR opartych na AI czy oprogramowania edukacyjnego, zyskują de facto dwa lata ponad pierwotny plan.

Nie oznacza to przyzwolenia na bierność. Zakazy wobec systemów AI najwyższego ryzyka – takich jak systemy oceny społecznej czy rozpoznawania emocji w miejscu pracy – obowiązują od 2 lutego 2025 roku. Sierpień 2026 roku przyniesie nowe wymogi przejrzystości dla dostawców systemów generatywnych. Zegar tyka, niezależnie od trwających negocjacji.

Czy największy na świecie akt prawny o sztucznej inteligencji przetrwa zderzenie z rynkową rzeczywistością? Instytucje UE stoją przed dylematem podobnym do przestawiania zegarów podczas lotu: lepiej dostosować przepisy teraz, zanim zaczną przenosić realne sankcje, niż naprawiać je po fakcie. Drugie spotkanie trylateralne zaplanowano na 28 kwietnia – od jego wyniku może zależeć, w jakim tempie Europa stanie się globalnym regulatorem AI.

Źródła:

European Commission
Council of the European Union
European Parliament
Global Policy Watch
OneTrust
Biometric Update
Emerging Europe

Udostępnij:

Avatar photo

O autorze

Piszę odkąd wyskoczyłem z kołyski. Ale też czytam, edukuję się, poznaję, rozmawiam. Moje ulubione słowo to "merytoryczny". Oprócz zrozumienia faktów, logiki, procesów, warto też rozumieć emocje i intencje, które kryją się za wydarzeniami na świecie i decyzjami jednostek.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *