Unia Europejska postanowiła odpowiedzieć na to pytanie poprzez AI Act, czyli pierwszą na świecie kompleksową regulację dotyczącą sztucznej inteligencji. Nowe prawo ma uporządkować rynek, ograniczyć ryzyka dla obywateli i jednocześnie stworzyć jasne zasady dla firm rozwijających technologie AI.
Kiedy zacznie obowiązywać AI Act
Choć AI Act formalnie wszedł w życie w sierpniu 2024 roku, jego przepisy będą wprowadzane stopniowo przez kilka kolejnych lat. Dla firm oznacza to okres przejściowy, który pozwoli przygotować się do nowych wymagań. Pierwsze ważne regulacje zaczęły obowiązywać w lutym 2025 roku. Wtedy pojawił się zakaz stosowania systemów uznanych za niedopuszczalne z punktu widzenia praw obywatelskich. Chodzi między innymi o systemy manipulujące zachowaniem ludzi czy rozwiązania przypominające scoring społeczny.
Kolejny etap nastąpi w sierpniu 2025 roku. Wtedy w życie wejdą przepisy dotyczące modeli generatywnych oraz tzw. modeli foundation, czyli technologii stanowiących bazę dla wielu aplikacji AI.
Największe zmiany dla firm pojawią się w sierpniu 2026 roku. Od tego momentu pełne obowiązki będą dotyczyć systemów określanych jako wysokiego ryzyka. Rok później regulacje obejmą również niektóre systemy AI wbudowane w produkty regulowane, na przykład urządzenia medyczne. W praktyce oznacza to, że lata 2025 i 2026 staną się momentem, w którym firmy w Europie naprawdę odczują skutki AI Act.
System ryzyka jako fundament regulacji
AI Act opiera się na prostym założeniu. Im większe ryzyko dla ludzi i społeczeństwa, tym więcej obowiązków dla firm rozwijających lub wykorzystujących systemy sztucznej inteligencji.
Regulacja wyróżnia cztery poziomy ryzyka.
Najwyższy poziom obejmuje systemy uznane za niedopuszczalne. W tej kategorii znajdują się technologie, które mogą naruszać prawa obywatelskie lub prowadzić do poważnych nadużyć. Przykładem jest scoring społeczny obywateli czy manipulowanie zachowaniem użytkowników przy użyciu AI.
Druga kategoria obejmuje systemy wysokiego ryzyka. To właśnie tutaj znajduje się wiele narzędzi wykorzystywanych w biznesie. Mowa między innymi o systemach stosowanych w rekrutacji, ocenie pracowników, przyznawaniu kredytów czy w systemach medycznych. W tych przypadkach firmy będą musiały spełnić najbardziej rozbudowane wymogi regulacyjne.
Niższy poziom obejmuje rozwiązania o ograniczonym ryzyku. W tej grupie znajdują się między innymi chatboty czy generatory treści. W takich sytuacjach kluczowa jest transparentność. Użytkownik powinien wiedzieć, że rozmawia z systemem AI lub korzysta z treści wygenerowanych przez algorytm.
Najniższa kategoria obejmuje systemy o minimalnym ryzyku. Należą do niej choćby filtry antyspamowe czy algorytmy rekomendujące filmy w serwisach streamingowych. W tych przypadkach regulacja pozostaje bardzo ograniczona.
Wysokie kary za naruszenia
AI Act wprowadza również surowe sankcje finansowe. Ich poziom przypomina kary znane z regulacji dotyczących ochrony danych osobowych.
Najpoważniejsze naruszenia mogą kosztować firmę nawet 35 milionów euro lub 7 procent globalnego rocznego obrotu. W przypadku innych naruszeń kary mogą wynosić do 15 milionów euro lub 3 procent obrotu. Tak wysoki poziom sankcji pokazuje, że europejscy regulatorzy traktują odpowiedzialność za systemy AI bardzo poważnie.
Co firmy będą musiały zrobić w praktyce
Dla wielu organizacji AI Act oznacza konieczność uporządkowania sposobu, w jaki korzystają ze sztucznej inteligencji. Pierwszym krokiem będzie identyfikacja wszystkich systemów AI używanych w firmie.
Kolejnym etapem stanie się ocena poziomu ryzyka. Organizacje będą musiały sprawdzić, czy dany system należy do kategorii wysokiego ryzyka oraz jakie obowiązki regulacyjne się z tym wiążą. Istotnym elementem nowych przepisów jest także dokumentacja. Firmy będą zobowiązane do dokładnego opisywania sposobu trenowania modeli, źródeł danych oraz potencjalnych ograniczeń technologii.
Regulacja wymaga również wprowadzenia nadzoru człowieka nad systemami AI oraz monitorowania ich działania po wdrożeniu. Oznacza to, że sztuczna inteligencja nie może działać całkowicie autonomicznie w obszarach mających wpływ na ludzi.
Generatywna AI pod szczególną obserwacją
Dużą uwagę w AI Act poświęcono modelom generatywnym, które w ostatnich latach zdobyły ogromną popularność. Systemy tworzące teksty, obrazy czy kod będą objęte dodatkowymi obowiązkami. Twórcy takich modeli będą musieli zapewnić odpowiednią dokumentację procesu treningu oraz przestrzegać zasad dotyczących praw autorskich. Istotne będzie również oznaczanie treści wygenerowanych przez AI tak, aby użytkownicy wiedzieli, że mają do czynienia z materiałem syntetycznym. Największe modele, które mogą mieć znaczący wpływ na gospodarkę i społeczeństwo, będą podlegać jeszcze bardziej rozbudowanym wymogom.
Europejska próba stworzenia globalnego standardu
AI Act jest często porównywany do RODO. Podobnie jak w przypadku regulacji dotyczących danych osobowych, Unia Europejska chce wyznaczyć globalne standardy dla rynku technologicznego. Jeśli ten scenariusz się sprawdzi, firmy działające na całym świecie będą musiały dostosować swoje produkty do europejskich zasad. W efekcie regulacja może wpłynąć nie tylko na rynek w UE, ale również na sposób projektowania systemów AI w skali globalnej. Dla biznesu oznacza to jedno. Era sztucznej inteligencji bez regulacji właśnie się kończy. Zaczyna się czas odpowiedzialnego projektowania technologii.


