Wprowadzenie
Sztuczna inteligencja w ostatnich latach stała się jednym z kluczowych czynników transformacji gospodarki cyfrowej. Systemy oparte na uczeniu maszynowym oraz analizie dużych zbiorów danych są wykorzystywane w coraz szerszym zakresie działalności gospodarczej – od automatyzacji procesów operacyjnych po wspieranie decyzji w sektorach takich jak finanse, opieka zdrowotna czy administracja publiczna.
Wraz ze wzrostem znaczenia tych technologii pojawiają się jednak również nowe wyzwania regulacyjne. W szczególności dotyczą one bezpieczeństwa systemów sztucznej inteligencji, przejrzystości procesów decyzyjnych oraz ochrony praw podstawowych osób, których sytuacja może być kształtowana przez systemy AI.
W odpowiedzi na te wyzwania Unia Europejska przyjęła rozporządzenie w sprawie sztucznej inteligencji (AI Act) – pierwszą kompleksową regulację prawną dotyczącą systemów AI. Akt ten ustanawia ramy regulacyjne dla projektowania, wprowadzania na rynek oraz wykorzystywania systemów AI w Unii Europejskiej.
AI Act wprowadza model regulacyjny oparty na poziomach ryzyka, który różnicuje zakres obowiązków w zależności od potencjalnego wpływu systemu AI na bezpieczeństwo publiczne oraz prawa jednostki.
Ze względu na swój eksterytorialny charakter, akt ten może mieć zastosowanie także do organizacji spoza Unii Europejskiej, jeżeli ich systemy AI są wprowadzane na rynek europejski lub oddziałują na użytkowników znajdujących się na jego terytorium.
Celem niniejszego artykułu jest przedstawienie podstawowych założeń AI Act oraz omówienie jego najważniejszych konsekwencji dla organizacji rozwijających lub wykorzystujących systemy sztucznej inteligencji.
1. Najważniejsze założenia AI Act
AI Act ustanawia pierwszy kompleksowy system regulacji sztucznej inteligencji na poziomie ponadnarodowym. Regulacja ta wprowadza nowe obowiązki prawne dla organizacji rozwijających oraz wykorzystujących systemy AI.
Najważniejsze założenia AI Act można podsumować w następujący sposób:
- AI Act wprowadza system klasyfikacji ryzyka, który dzieli systemy AI na cztery kategorie: zakazane, wysokiego ryzyka, ograniczonego ryzyka oraz minimalnego ryzyka;
- Najbardziej rygorystyczne obowiązki dotyczą systemów wysokiego ryzyka, w szczególności tych stosowanych w obszarach mogących istotnie wpływać na prawa jednostki;
- AI Act obejmuje różne kategorie uczestników rynku AI, w tym dostawców systemów AI, ich użytkowników, importerów oraz dystrybutorów technologii;
- AI Act ma charakter eksterytorialny, co oznacza, że jego przepisy mogą mieć zastosowanie także do organizacji spoza Unii Europejskiej;
- Naruszenie przepisów regulacji może prowadzić do znaczących sankcji administracyjnych.
2. Kontekst regulacyjny AI Act
AI Act jest częścią szerszej strategii regulacyjnej Unii Europejskiej dotyczącej technologii cyfrowych. W ostatnich latach UE konsekwentnie rozwija system regulacji obejmujący kluczowe obszary gospodarki cyfrowej, w tym ochronę danych osobowych, bezpieczeństwo infrastruktury cyfrowej oraz odpowiedzialność platform internetowych.
Do najważniejszych aktów prawnych w tym obszarze należą między innymi:
- General Data Protection Regulation (GDPR/RODO),
- dyrektywa NIS2,
- Digital Services Act (DSA),
- Data Act,
- Cyber Resilience Act.
AI Act stanowi kolejny element tego systemu regulacyjnego i koncentruje się na ryzykach związanych z rozwojem technologii sztucznej inteligencji.
Projekt regulacji został przedstawiony przez Komisję Europejską w 2021 r. jako element strategii dotyczącej godnej zaufania sztucznej inteligencji (Trustworthy AI).
3. System klasyfikacji ryzyka w AI Act
Centralnym elementem regulacji jest system klasyfikacji ryzyka, który określa zakres obowiązków regulacyjnych dla poszczególnych kategorii systemów AI.
Tabela 1. Klasyfikacja ryzyka systemów AI w AI Act
|
Poziom ryzyka |
Charakterystyka |
Przykłady |
Konsekwencje regulacyjne |
|
Zakazane systemy AI (Prohibited AI) |
systemy uznane za niedopuszczalne |
social scoring, manipulacja zachowaniem |
całkowity zakaz stosowania |
|
Systemy AI wysokiego ryzyka (High-risk AI) |
systemy mogące wpływać na prawa jednostki |
rekrutacja, infrastruktura krytyczna |
szczegółowe wymogi regulacyjne |
|
Systemy AI ograniczonego ryzyka (Limited-risk AI) |
systemy wymagające transparentności |
chatboty, generatywne systemy AI |
obowiązki informacyjne |
|
Systemy AI minimalnego ryzyka (Minimal-risk AI) |
systemy o niewielkim wpływie |
filtry antyspamowe |
brak szczególnych wymogów |
Poszczególne kategorie systemów AI wiążą się z odmiennym zakresem obowiązków regulacyjnych. Poniżej przedstawiono podstawowe cechy każdej z nich.
4. Zakazane systemy AI
Najbardziej restrykcyjna kategoria obejmuje zastosowania AI uznane za sprzeczne z wartościami Unii Europejskiej oraz ochroną praw podstawowych.
Do tej kategorii należą między innymi systemy:
- manipulujące zachowaniem użytkowników,
- wykorzystujące social scoring,
- stosujące biometryczną identyfikację osób w czasie rzeczywistym w przestrzeni publicznej (z wyjątkiem ściśle określonych sytuacji związanych z bezpieczeństwem publicznym).
5. Systemy AI wysokiego ryzyka
Drugą kategorię stanowią tzw. systemy AI wysokiego ryzyka (high-risk AI), które mogą mieć istotny wpływ na prawa jednostki lub bezpieczeństwo publiczne.
Do tej kategorii zaliczają się systemy wykorzystywane w:
- procesach rekrutacyjnych,
- systemach edukacyjnych,
- usługach finansowych,
- administracji publicznej,
- infrastrukturze krytycznej.
W AI Act szczegółowy katalog takich zastosowań został wskazany w załączniku III do regulacji.
6. Obowiązki regulacyjne dla systemów wysokiego ryzyka
AI Act wprowadza szczegółowy zestaw wymogów dotyczących projektowania oraz funkcjonowania systemów wysokiego ryzyka.
Tabela 2. Główne obowiązki regulacyjne
| Obszar regulacji | Zakres obowiązków |
| System zarządzania ryzykiem | identyfikacja, analiza oraz zarządzanie ryzykiem związanym z funkcjonowaniem systemu AI |
| Zarządzanie danymi | zapewnienie odpowiedniej jakości, reprezentatywności oraz adekwatności danych wykorzystywanych do trenowania i testowania systemu |
| Dokumentacja techniczna | przygotowanie i utrzymywanie dokumentacji technicznej umożliwiającej ocenę zgodności systemu z wymogami AI Act |
| Nadzór człowieka | zapewnienie możliwości skutecznego nadzoru człowieka nad działaniem systemu AI |
| Dokładność i odporność systemu | zapewnienie odpowiedniej dokładności, stabilności i odporności systemu na błędy lub manipulację |
| Monitorowanie po wprowadzeniu na rynek | monitorowanie działania systemu AI po jego wprowadzeniu na rynek oraz reagowanie na zidentyfikowane ryzyka |
7. Systemy AI ograniczonego ryzyka
Trzecią kategorię stanowią systemy AI ograniczonego ryzyka. Regulacja nie wprowadza w ich przypadku rozbudowanych wymogów compliance, lecz nakłada określone obowiązki w zakresie przejrzystości.
W szczególności użytkownicy powinni być informowani, że wchodzą w interakcję z systemem sztucznej inteligencji.
Przykłady obejmują między innymi:
- chatboty wykorzystywane w obsłudze klienta,
- generatywne systemy AI wykorzystywane w interakcji z użytkownikiem (np. generowanie tekstu lub obrazów),
- systemy modyfikujące materiały audiowizualne.
8. Systemy AI minimalnego ryzyka
Ostatnią kategorię stanowią systemy AI minimalnego ryzyka. AI Act zasadniczo nie nakłada na nie szczególnych obowiązków regulacyjnych.
Do tej kategorii zalicza się wiele powszechnie stosowanych aplikacji AI, takich jak:
- filtry antyspamowe,
- systemy rekomendacji treści,
- narzędzia wspierające analizę danych.
9. Modele AI ogólnego przeznaczenia (General-Purpose AI)
AI Act wprowadza również odrębny reżim regulacyjny dotyczący modeli sztucznej inteligencji ogólnego przeznaczenia (General-Purpose AI, GPAI).
Są to modele AI, które mogą być wykorzystywane w wielu różnych zastosowaniach oraz integrowane z różnymi systemami informatycznymi. Do tej kategorii należą w szczególności duże modele językowe (LLM) oraz inne modele generatywne.
AI Act przewiduje również szczególną kategorię modeli ogólnego przeznaczenia o znaczeniu systemowym (GPAI models with systemic risk), które ze względu na swoją skalę, zdolności obliczeniowe oraz potencjalny wpływ na rynek mogą wymagać dodatkowych obowiązków regulacyjnych.
10. Główne role regulacyjne w AI Act
AI Act obejmuje różne kategorie uczestników rynku sztucznej inteligencji. Zakres obowiązków regulacyjnych zależy od roli pełnionej przez dany podmiot w łańcuchu dostaw systemów AI.
Tabela 3. Główne role regulacyjne w AI Act
|
Podmiot |
Rola w ekosystemie AI |
Przykład |
|
Dostawca (Provider) |
podmiot opracowujący system AI lub wprowadzający go na rynek pod własną nazwą lub znakiem towarowym |
firma tworząca system AI lub sprzedająca go pod własną marką |
|
Podmiot wykorzystujący system AI (Deployer) |
organizacja wykorzystująca system AI w swojej działalności operacyjnej |
bank wykorzystujący AI do oceny zdolności kredytowej |
|
Importer (Importer) |
podmiot wprowadzający na rynek Unii Europejskiej system AI pochodzący z państwa trzeciego |
firma importująca rozwiązanie AI spoza UE |
|
Dystrybutor (Distributor) |
podmiot udostępniający system AI w łańcuchu dostaw |
reseller technologii |
W praktyce szczególne znaczenie ma rozróżnienie pomiędzy dostawcą systemu AI (provider), który wprowadza system na rynek, a podmiotem wykorzystującym system (deployer), który stosuje go w swojej działalności operacyjnej.
11. Eksterytorialny zakres regulacji
Istotną cechą AI Act jest jego eksterytorialny charakter, który może prowadzić do zastosowania przepisów także wobec podmiotów spoza Unii Europejskiej.
Regulacja może mieć zastosowanie w sytuacji, gdy:
- system AI jest wprowadzany na rynek UE,
- wyniki działania systemu AI są wykorzystywane na terytorium UE.
W praktyce oznacza to, że regulacja może mieć wpływ na działalność globalnych przedsiębiorstw technologicznych.
12. Dlaczego AI Act może stać się globalnym standardem regulacji AI
AI Act jest często postrzegany jako potencjalny punkt odniesienia dla przyszłych regulacji dotyczących sztucznej inteligencji na świecie.
Podobnie jak wcześniej w przypadku GDPR/RODO, europejska regulacja może wywierać wpływ na globalne standardy zarządzania technologią.
Jednym z powodów jest eksterytorialny charakter regulacji, który sprawia, że przedsiębiorstwa technologiczne działające globalnie mogą być zmuszone dostosować swoje systemy AI do europejskich wymogów regulacyjnych.
Drugim czynnikiem jest model regulacji oparty na poziomach ryzyka, który umożliwia różnicowanie obowiązków regulacyjnych w zależności od potencjalnego wpływu technologii na społeczeństwo.
13. Harmonogram stosowania przepisów AI Act
AI Act wszedł w życie 1 sierpnia 2024 r., natomiast większość jego przepisów zacznie być stosowana w kolejnych latach zgodnie z harmonogramem przedstawionym poniżej.
Tabela 4. Harmonogram stosowania przepisów AI Act
|
Etap regulacyjny |
Data rozpoczęcia stosowania |
Zakres regulacji |
|
Zakazane praktyki AI |
2 lutego 2025 r. |
rozpoczęcie stosowanie przepisów dotyczących zakazanych praktyk AI |
|
Modele ogólnego przeznaczenia (GPAI) |
2 sierpnia 2025 r. |
rozpoczęcie stosowanie obowiązków dotyczących modeli AI ogólnego przeznaczenia (GPAI) |
|
Główne przepisy AI Act |
2 sierpnia 2026 r. |
zaczyna obowiązywać większość przepisów regulacji, w tym wymogi dla systemów wysokiego ryzyka |
|
Regulacje sektorowe |
2 sierpnia 2027 r. |
pełne stosowanie wybranych przepisów dotyczących systemów wysokiego ryzyka objętych regulacjami sektorowymi |
14. Co organizacje powinny zrobić już teraz?
W kontekście nadchodzących obowiązków regulacyjnych organizacje powinny rozpocząć przygotowania do wdrożenia nowych wymogów.
Podstawowe działania obejmują:
- identyfikację systemów AI wykorzystywanych w organizacji,
- klasyfikację systemów według poziomu ryzyka,
- analizę obowiązków regulacyjnych,
- wdrożenie procedur AI governance,
- przygotowanie dokumentacji compliance.
15. Kluczowe pytania dotyczące AI Act
Tak. Regulacja może mieć zastosowanie do organizacji spoza UE, jeżeli systemy AI są wprowadzane na rynek europejski lub ich wyniki są wykorzystywane na terytorium Unii.
System AI wysokiego ryzyka to system, który może mieć istotny wpływ na prawa jednostki lub bezpieczeństwo publiczne, np. system wykorzystywany w procesach rekrutacyjnych.
Obowiązki regulacyjne mogą dotyczyć dostawców systemów AI, ich użytkowników, importerów oraz dystrybutorów technologii.
W najpoważniejszych przypadkach sankcje administracyjne mogą wynosić do 35 mln euro lub do 7% globalnego rocznego obrotu przedsiębiorstwa.