Microsoft zainwestował we francuski startup Mistral AI, VIGO Photonics może zbudować polską fabrykę półprzewodników, a PFR Ventures zasiliło 150 mln zł cztery polskie fundusze VC. Czym jeszcze żyliśmy w minionym tygodniu?
Francuski MistralAI wypuścił wersję beta swojego chatbota, Elon Musk pozwał OpenAI, a Google ma kolejne kłopoty. Czym jeszcze żyliśmy w minionym tygodniu?
Obawy polskich małych i średnich przedsiębiorców w 2024 r., Międzynarodowy Fundusz Walutowy ostrzega przed AI, a Revolutowi grożą wielomilionowe kary za naruszenia prywatności. Czym jeszcze żyliśmy w minionym tygodniu?
AI Act. Państwa UE doszły do porozumienia w kwestii regulacji sztucznej inteligencji
8 grudnia 2023 r. po trzech dniach intensywnych negocjacji państwa Unii Europejskiej osiągnęły wstępne porozumienie dotyczące treści AI Act – pierwszych na świecie kompleksowych przepisów regulujących korzystanie ze sztucznej inteligencji.
"Historyczny moment! Europa stała się pierwszym kontynentem, który wyznaczył przejrzyste zasady korzystania ze sztucznej inteligencji" – napisał 8 grudnia wieczorem na platformie XThierry Breton, unijny komisarz do spraw rynku wewnętrznego i jeden z inicjatorów ustawy AI Act. Wtórowała mu przewodnicząca Komisji Europejskiej Ursula von der Leyen:
"Unijny AI Act jest pierwszym takim dokumentem na świecie. To unikatowe ramy prawne dla rozwoju sztucznej inteligencji, którym możecie ufać. Oraz dla bezpieczeństwa i fundamentalnych praw ludzi i firm. Zobowiązanie, które zawarliśmy w naszych wytycznych politycznych – i spełniliśmy je. Z radością przyjmuję dzisiejsze porozumienie polityczne", napisała von der Leyen na X.
AI Act – droga do porozumienia
Trójstronne negocjacje między przedstawicielstwami Komisji Europejskiej, Parlamentu Europejskiego i państw członkowskich trwały łącznie 37 godzin. Presja na ich zakończenie na początku grudnia 2023 r. była niezwykle wysoka ze względu na przyszłoroczne wybory do PE, które najpewniej zmodyfikują obecne składy instytucji unijnych. Brak porozumienia w tym roku oznaczałby konieczność odłożenia projektu AI Act na bliżej nieokreśloną przyszłość i zniweczenie dotychczasowych wysiłków.
Przypomnijmy, że wstępne zatwierdzenie treści projektu AI Act miało miejsce 14 czerwca 2023 r.po dwóch latach prac. Było to wydarzenie przełomowe nie tylko ze względu na bezprecedensowość tego dokumentu. To także jeden z rzadkich przypadków, w których prawo stara się nadążać za nowymi technologiami, zanim te na dobre wejdą pod strzechy.
– Sztuczna inteligencja stwarza wiele wątpliwości w kwestiach społecznych, etycznych i ekonomicznych. Teraz jednak nie czas, by wciskać przycisk „stop”. Wręcz przeciwnie, musimy działać szybko i wziąć za nią odpowiedzialność – mówił w wówczas w oświadczeniu prasowym Thierry Breton.
I nie były to puste deklaracje. Twórcy projektu AI Act podeszli bowiem do sprawy możliwie uniwersalnie, a co za tym idzie, starali się uwzględnić w treści dokumentu dalekosiężną perspektywę, która będzie odporna na błyskawiczne zmiany technologiczne.
– Esencją dobrego prawa jest próba uchwycenia istoty społecznego lub ekonomicznego zjawiska, które chce się regulować, tak by prawo pozostało aktualne, nawet jeśli samo zjawisko ewoluuje. I to właśnie staraliśmy się osiągnąć: bez względu na to, jak zmieni się technologia AI, system wartości ujęty w ustawie, pozostanie taki sam – tłumaczył na antenie Euronews Dragos Tudorache, rumuński prawnik, poseł do Europarlamentu i jeden z głównych pomysłodawców AI Act.
Zdaniem Cecilii Bonefeld-Dahl, dyrektorki generalnej Digital Europe, organizacji pozarządowej zajmującej się tworzeniem sprawiedliwego środowiska prawnego w obszarze nowych technologii, w praktyce oznacza to, że choć zakres ustawy został znacznie poszerzony w porównaniu z pierwotną propozycją z 2021 r., to sam dokument stał się o wiele bardziej precyzyjny. Parlament Europejski skupił się bowiem nie tyle na regulacji samej sztucznej inteligencji, co raczej na określeniu i minimalizacji społecznych zagrożeń, które niosą za sobą jej rozmaite zastosowania.
AI Act – jak Europa ureguluje sztuczną inteligencję
Ustawodawcy podzielili zagrożenia związane z AI na cztery kategorie: ryzykowne w stopniu minimalnym, ograniczonym, wysokim i nieakceptowalnym. Na pierwszych dwóch poziomach umieszczono narzędzia i programy o niewielkim – zdaniem PE – potencjale szkodliwości społecznej m.in. filtry spamu i gry wideo (ryzyko minimalne) oraz chatboty i deepfake’i (ryzyko ograniczone). Narzędzia te będą wymagały od dostawców usług jedynie minimalnej transparentności, tj. wyraźnej informacji o tym, że użytkownicy i użytkowniczki mają do czynienia z systemem opartym na sztucznej inteligencji.
Znacznie bardziej rygorystycznymi obostrzeniami zostały natomiast objęte programy i aplikacje zaklasyfikowane do dwóch pozostałych kategorii zagrożeń. Na liście narzędzi wysokiego ryzyka wymienia się przede wszystkim systemy rekomendacyjne dużych platform internetowych, systemy wykorzystywane do intencjonalnego wpływania na wyborców oraz narzędzia używane przez administrację publiczną i organy ścigania np. do oceny stanu prawnego zatrzymanych.
Są to więc systemy, które mogą bezpośrednio wpłynąć na życie jednostek i jako takie będą przede wszystkim podlegać bezwzględnej zasadzie transparentności. Dostawcy usług będą musieli m.in. ujawnić wszystkie źródła naukowe, artystyczne i medialne, które zostały przez nich wykorzystane do wytrenowania algorytmu sztucznej inteligencji, a w razie konieczności – wykazać, że opracowanie algorytmu odbyło się w zgodzie z prawem.
Systemy wysokiego ryzyka zostaną ponadto objęte restrykcyjnym monitoringiem ze strony instytucji publicznych oraz wymogiem rejestracji w osobnej bazie danych. Dodatkowo podmioty wdrażające takie systemy będą zobowiązane do oceny wpływu swoich produktów na fundamentalne prawa obywatelskie. Niezastosowanie się do któregoś z powyższych obostrzeń będzie natomiast skutkować natychmiastowym usunięciem aplikacji lub grzywną w wysokości do 7% globalnego rocznego obrotu firmy.
– Poddając szczegółowej publicznej kontroli tych, którzy wdrażają systemy sztucznej inteligencji, możemy wreszcie rzucić światło na to, jak algorytmy wpływają na ludzi i społeczeństwo. To wielki sukces i ważny krok w kierunku demokratycznej kontroli sposobu wykorzystywania sztucznej inteligencji w naszym społeczeństwie – ocenia Angela Müller, szefowa zespołu Policy & Advocacy w AlgorithmWatch, organizacji pozarządowej monitorującej etyczne wykorzystanie nowoczesnych technologii i algorytmów.
AI Act – kontrowersje wokół ustawy
Od samego początku niektóre kwestie zawarte w AI Act wywoływały jednak kontrowersje. Początkowa treść dokumentu pozostawiała bowiem furtki prawne w ostatniej, najbardziej newralgicznej kategorii narzędzi opartych na sztucznej inteligencji. Mowa tu o systemach „nieakceptowalnego ryzyka”, które służą do inwigilacji, predykcji kryminalnej i biometrycznego profilowania jednostek w czasie rzeczywistym na podstawie cech ich wyglądu i sposobu poruszania się.
Narzędzia te stanowią bezpośrednie zagrożenie dla fundamentów demokracji, społeczeństwa obywatelskiego i europejskich wartości, a ich wykorzystanie zostało zakazane na terenie Unii Europejskiej. Dlatego też Parlament Europejski od początku nie chciał wyrazić zgody na te zapisy. Ostatecznie Thierry Breton poinformował, że uznano pobieranie danych biometrycznych przez służby za niedopuszczalne. W ustawie znalazły się jednak trzy wyjątki:
"Na ostatniej prostej Europejska Partia Ludowa próbowała przeforsować swoją poprawkę, która umożliwiałaby rządom wprowadzanie inwigilacji biometrycznej w czasie rzeczywistym. Tę niebezpieczną zmianę udało się zablokować. Nie udało się jednak przekonać europosłów i europosłanek do całkowitego zakazania stosowania takich systemów. Inwigilacja biometryczna będzie mogła być prowadzona – ale jedynie w wyjątkowych sytuacjach i za zgodą sądu" – czytamy w raporcie Filipa Konopczyńskiego i Anny Obem z Fundacji Panoptykon.
Swoje wątpliwości co do kształtu AI Act wyrażały również niektóre państwa członkowskie, przede wszystkim Francja i Niemcy. Zdaniem ich przedstawicieli ścisłe przepisy regulujące biznesowe użycie sztucznej inteligencji mogłoby nadmiernie hamować rozwój branży. Proponowanym rozwiązaniem był kodeks dobrych praktyk. Ostatecznie jednak, jak przekazała CarmeArtigas, hiszpańska sekretarz stanu do spraw sztucznej inteligencji, udało się uzyskać zgodę na proponowane rozwiązania również od Francji i Niemiec.
Kiedy AI Act wejdzie w życie
Pomyślne zakończenie trójstronnych negocjacji między Parlamentem Europejskim, Komisją Europejską i państwami członkowskimi to jednak dopiero połowa sukcesu. Teraz AI Act będzie bowiem procedowany przez Parlament Europejski i Radę Europejską. Jeżeli zostanie przyjęty, będzie mógł wejść w życie najwcześniej w 2025 r.
Redaktor naczelny Digitized. Z dziennikarstwem związany prawie jedną trzecią swojego życia; pracował dla polskich wydań magazynów Playboy, CKM i Esquire oraz serwisów Well.pl i naTemat.pl. Prywatnie poszukiwacz sensu w bezsensie i ładu pośród entropii. Lubi mądre słowa.
Microsoft zainwestował we francuski startup Mistral AI, VIGO Photonics może zbudować polską fabrykę półprzewodników, a PFR Ventures zasiliło 150 mln zł cztery polskie fundusze VC. Czym jeszcze żyliśmy w minionym tygodniu?
Francuski MistralAI wypuścił wersję beta swojego chatbota, Elon Musk pozwał OpenAI, a Google ma kolejne kłopoty. Czym jeszcze żyliśmy w minionym tygodniu?
Obawy polskich małych i średnich przedsiębiorców w 2024 r., Międzynarodowy Fundusz Walutowy ostrzega przed AI, a Revolutowi grożą wielomilionowe kary za naruszenia prywatności. Czym jeszcze żyliśmy w minionym tygodniu?
NVIDIA zaprezentowała Chat with RTX, OpenAI – model Sora, a Google – Gemini 1.5. Tymczasem 17 lutego zaczął obowiązywać unijny Akt o Usługach Cyfrowych (DSA). Czym jeszcze żyliśmy w minionym tygodniu?
Nasza strona wykorzystuje jedynie niezbędne funkcjonalne ciasteczka (cookie). Cenimy Twoją prywatność i nie dołączamy zewnętrznych, śledzących ciasteczek. Więcej szczegółów w naszej polityce prywatności.