AI Act. Państwa UE doszły do porozumienia w kwestii regulacji sztucznej inteligencji

8 grudnia 2023 r. po trzech dniach intensywnych negocjacji państwa Unii Europejskiej osiągnęły wstępne porozumienie dotyczące treści AI Act – pierwszych na świecie kompleksowych przepisów regulujących korzystanie ze sztucznej inteligencji.

AI Act. Państwa UE doszły do porozumienia w kwestii regulacji sztucznej inteligencji
AI Act. UE doszła do porozumienia w kwestii regulacji sztucznej inteligencji

AI Act jest porozumienie państw UE

"Historyczny moment! Europa stała się pierwszym kontynentem, który wyznaczył przejrzyste zasady korzystania ze sztucznej inteligencji" – napisał 8 grudnia wieczorem na platformie X Thierry Breton, unijny komisarz do spraw rynku wewnętrznego i jeden z inicjatorów ustawy AI Act. Wtórowała mu przewodnicząca Komisji Europejskiej Ursula von der Leyen:

"Unijny AI Act jest pierwszym takim dokumentem na świecie. To unikatowe ramy prawne dla rozwoju sztucznej inteligencji, którym możecie ufać. Oraz dla bezpieczeństwa i fundamentalnych praw ludzi i firm. Zobowiązanie, które zawarliśmy w naszych wytycznych politycznych – i spełniliśmy je. Z radością przyjmuję dzisiejsze porozumienie polityczne", napisała von der Leyen na X.

AI Act – droga do porozumienia

Trójstronne negocjacje między przedstawicielstwami Komisji Europejskiej, Parlamentu Europejskiego i państw członkowskich trwały łącznie 37 godzin. Presja na ich zakończenie na początku grudnia 2023 r. była niezwykle wysoka ze względu na przyszłoroczne wybory do PE, które najpewniej zmodyfikują obecne składy instytucji unijnych. Brak porozumienia w tym roku oznaczałby konieczność odłożenia projektu AI Act na bliżej nieokreśloną przyszłość i zniweczenie dotychczasowych wysiłków.

Przypomnijmy, że wstępne zatwierdzenie treści projektu AI Act miało miejsce 14 czerwca 2023 r. po dwóch latach prac. Było to wydarzenie przełomowe nie tylko ze względu na bezprecedensowość tego dokumentu. To także jeden z rzadkich przypadków, w których prawo stara się nadążać za nowymi technologiami, zanim te na dobre wejdą pod strzechy.

Sztuczna inteligencja stwarza wiele wątpliwości w kwestiach społecznych, etycznych i ekonomicznych. Teraz jednak nie czas, by wciskać przycisk „stop”. Wręcz przeciwnie, musimy działać szybko i wziąć za nią odpowiedzialność – mówił w wówczas w oświadczeniu prasowym Thierry Breton.

I nie były to puste deklaracje. Twórcy projektu AI Act podeszli bowiem do sprawy możliwie uniwersalnie, a co za tym idzie, starali się uwzględnić w treści dokumentu dalekosiężną perspektywę, która będzie odporna na błyskawiczne zmiany technologiczne.

– Esencją dobrego prawa jest próba uchwycenia istoty społecznego lub ekonomicznego zjawiska, które chce się regulować, tak by prawo pozostało aktualne, nawet jeśli samo zjawisko ewoluuje. I to właśnie staraliśmy się osiągnąć: bez względu na to, jak zmieni się technologia AI, system wartości ujęty w ustawie, pozostanie taki sam – tłumaczył na antenie Euronews Dragos Tudorache, rumuński prawnik, poseł do Europarlamentu i jeden z głównych pomysłodawców AI Act.

Zdaniem Cecilii Bonefeld-Dahl, dyrektorki generalnej Digital Europe, organizacji pozarządowej zajmującej się tworzeniem sprawiedliwego środowiska prawnego w obszarze nowych technologii, w praktyce oznacza to, że choć zakres ustawy został znacznie poszerzony w porównaniu z pierwotną propozycją z 2021 r., to sam dokument stał się o wiele bardziej precyzyjny. Parlament Europejski skupił się bowiem nie tyle na regulacji samej sztucznej inteligencji, co raczej na określeniu i minimalizacji społecznych zagrożeń, które niosą za sobą jej rozmaite zastosowania.

AI Act – jak Europa ureguluje sztuczną inteligencję

Ustawodawcy podzielili zagrożenia związane z AI na cztery kategorie: ryzykowne w stopniu minimalnym, ograniczonym, wysokim i nieakceptowalnym. Na pierwszych dwóch poziomach umieszczono narzędzia i programy o niewielkim – zdaniem PE – potencjale szkodliwości społecznej m.in. filtry spamu i gry wideo (ryzyko minimalne) oraz chatboty i deepfake’i (ryzyko ograniczone). Narzędzia te będą wymagały od dostawców usług jedynie minimalnej transparentności, tj. wyraźnej informacji o tym, że użytkownicy i użytkowniczki mają do czynienia z systemem opartym na sztucznej inteligencji.

Znacznie bardziej rygorystycznymi obostrzeniami zostały natomiast objęte programy i aplikacje zaklasyfikowane do dwóch pozostałych kategorii zagrożeń. Na liście narzędzi wysokiego ryzyka wymienia się przede wszystkim systemy rekomendacyjne dużych platform internetowych, systemy wykorzystywane do intencjonalnego wpływania na wyborców oraz narzędzia używane przez administrację publiczną i organy ścigania np. do oceny stanu prawnego zatrzymanych.

Są to więc systemy, które mogą bezpośrednio wpłynąć na życie jednostek i jako takie będą przede wszystkim podlegać bezwzględnej zasadzie transparentności. Dostawcy usług będą musieli m.in. ujawnić wszystkie źródła naukowe, artystyczne i medialne, które zostały przez nich wykorzystane do wytrenowania algorytmu sztucznej inteligencji, a w razie konieczności – wykazać, że opracowanie algorytmu odbyło się w zgodzie z prawem.

Systemy wysokiego ryzyka zostaną ponadto objęte restrykcyjnym monitoringiem ze strony instytucji publicznych oraz wymogiem rejestracji w osobnej bazie danych. Dodatkowo podmioty wdrażające takie systemy będą zobowiązane do oceny wpływu swoich produktów na fundamentalne prawa obywatelskie. Niezastosowanie się do któregoś z powyższych obostrzeń będzie natomiast skutkować natychmiastowym usunięciem aplikacji lub grzywną w wysokości do 7% globalnego rocznego obrotu firmy.

– Poddając szczegółowej publicznej kontroli tych, którzy wdrażają systemy sztucznej inteligencji, możemy wreszcie rzucić światło na to, jak algorytmy wpływają na ludzi i społeczeństwo. To wielki sukces i ważny krok w kierunku demokratycznej kontroli sposobu wykorzystywania sztucznej inteligencji w naszym społeczeństwie – ocenia Angela Müller, szefowa zespołu Policy & Advocacy w AlgorithmWatch, organizacji pozarządowej monitorującej etyczne wykorzystanie nowoczesnych technologii i algorytmów.

AI Act – kontrowersje wokół ustawy

Od samego początku niektóre kwestie zawarte w AI Act wywoływały jednak kontrowersje. Początkowa treść dokumentu pozostawiała bowiem furtki prawne w ostatniej, najbardziej newralgicznej kategorii narzędzi opartych na sztucznej inteligencji. Mowa tu o systemach „nieakceptowalnego ryzyka”, które służą do inwigilacji, predykcji kryminalnej i biometrycznego profilowania jednostek w czasie rzeczywistym na podstawie cech ich wyglądu i sposobu poruszania się.

Narzędzia te stanowią bezpośrednie zagrożenie dla fundamentów demokracji, społeczeństwa obywatelskiego i europejskich wartości, a ich wykorzystanie zostało zakazane na terenie Unii Europejskiej. Dlatego też Parlament Europejski od początku nie chciał wyrazić zgody na te zapisy. Ostatecznie Thierry Breton poinformował, że uznano pobieranie danych biometrycznych przez służby za niedopuszczalne. W ustawie znalazły się jednak trzy wyjątki:

  • zaistnienie niespodziewanego zagrożenia atakiem terrorystycznym,
  • zaistnienie potrzeby szukania ofiar,
  • konieczność ścigania poważnych przestępstw. 
"Na ostatniej prostej Europejska Partia Ludowa próbowała przeforsować swoją poprawkę, która umożliwiałaby rządom wprowadzanie inwigilacji biometrycznej w czasie rzeczywistym. Tę niebezpieczną zmianę udało się zablokować. Nie udało się jednak przekonać europosłów i europosłanek do całkowitego zakazania stosowania takich systemów. Inwigilacja biometryczna będzie mogła być prowadzona – ale jedynie w wyjątkowych sytuacjach i za zgodą sądu" – czytamy w raporcie Filipa Konopczyńskiego i Anny Obem z Fundacji Panoptykon.

Swoje wątpliwości co do kształtu AI Act wyrażały również niektóre państwa członkowskie, przede wszystkim Francja i Niemcy. Zdaniem ich przedstawicieli ścisłe przepisy regulujące biznesowe użycie sztucznej inteligencji mogłoby nadmiernie hamować rozwój branży. Proponowanym rozwiązaniem był kodeks dobrych praktyk. Ostatecznie jednak, jak przekazała Carme Artigas, hiszpańska sekretarz stanu do spraw sztucznej inteligencji, udało się uzyskać zgodę na proponowane rozwiązania również od Francji i Niemiec. 

Kiedy AI Act wejdzie w życie

Pomyślne zakończenie trójstronnych negocjacji między Parlamentem Europejskim, Komisją Europejską i państwami członkowskimi to jednak dopiero połowa sukcesu. Teraz AI Act będzie bowiem procedowany przez Parlament Europejski i Radę Europejską. Jeżeli zostanie przyjęty, będzie mógł wejść w życie najwcześniej w 2025 r. 

)

Świetnie! Twoja rejestracja się powiodła.

Witaj z powrotem!

Twoja rejestracja w Digitized - magazyn dla ludzi w cyfrowym świecie zakończyła się sukcesem.

Sukces! Sprawdź swoje konto e-mail w poszukiwaniu magicznego linku do logowania.

Sukces! Twoje informacje rozliczeniowe zostały zaktualizowane.

Twoje informacje rozliczeniowe nie zostały zaktualizowane.