NCBR

UE proponuje zasady dla AI oparte na ryzyku

UE proponuje zasady dla AI oparte na ryzyku

W ramach wyłaniającej się roli globalnego organu nadzorującego, Komisja Europejska opublikowała 21 kwietnia propozycję przepisów regulujących wykorzystanie sztucznej inteligencji w Unii Europejskiej.

Stawka gospodarcza jest wysoka: Komisja przewiduje, że europejskie inwestycje publiczne i prywatne w sztuczną inteligencję osiągną w tym dziesięcioleciu 20 miliardów euro rocznie, a to było przed dodatkowym przeznaczeniem do 134 miliardów euro na transformację cyfrową w europejskim funduszu naprawczym pandemii Covid-19 z których część, jak zakłada Komisja, będzie również finansować sztuczną inteligencję. Dodajmy do tego inwestycje w SI poza UE, które są skierowane do mieszkańców UE, ponieważ przepisy te będą miały zastosowanie do wszelkich zastosowań SI w UE, a nie tylko przez firmy lub rządy z siedzibą w UE.

Nic się nie zmieni z dnia na dzień: propozycja unijnych przepisów dotyczących sztucznej inteligencji jest wynikiem trzech lat pracy biurokratów, ekspertów branżowych i konsultacji publicznych i musi przejść przez Parlament Europejski – który o to poprosił – zanim stanie się prawem. Państwa członkowskie UE często potrzebują lat, aby transponować przepisy unijne do swoich krajowych kodeksów prawnych.

We wniosku określono cztery poziomy działań związanych z SI i różne poziomy nadzoru dla każdego z nich. Pierwszy poziom to niedopuszczalne ryzyko: niektóre zastosowania sztucznej inteligencji byłyby całkowicie zakazane w przestrzeni publicznej, z określonymi wyjątkami przewidzianymi w przepisach krajowych i podlegałyby dodatkowemu nadzorowi oraz bardziej rygorystycznemu pozyskiwaniu drewna i nadzorowi człowieka. Zakazana aktywność sztucznej inteligencji, która prawdopodobnie przyciągnęła najwięcej uwagi, to zdalna identyfikacja biometryczna w czasie rzeczywistym, tj. Rozpoznawanie twarzy. Wniosek zakazuje również podprogowej modyfikacji zachowania i stosowania punktacji społecznej. Propozycja sugeruje grzywny w wysokości do 6 procent globalnego rocznego dochodu osób naruszających prawa komercyjne.

Następnie we wniosku zdefiniowano kategorię wysokiego ryzyka, określoną przez cel systemu oraz potencjalne i prawdopodobieństwo wystąpienia szkody. Przykłady wymienione we wniosku obejmują rekrutację do pracy, kontrolę zdolności kredytowej i wymiar sprawiedliwości. Reguły wymagałyby, aby takie aplikacje sztucznej inteligencji korzystały z wysokiej jakości zbiorów danych, dokumentowały ich identyfikowalność, udostępniały informacje użytkownikom i uwzględniały nadzór człowieka. UE utworzyłaby centralny rejestr takich systemów zgodnie z proponowanymi przepisami i wymagałaby zatwierdzenia przed wdrożeniem.

Działania o ograniczonym ryzyku, takie jak korzystanie z chatbotów lub deepfake’ów na stronie internetowej, będą podlegały mniejszemu nadzorowi, ale będą wymagały etykiety ostrzegawczej, aby umożliwić użytkownikom włączenie lub wyłączenie. Wreszcie istnieje poziom dla aplikacji uznanych za stwarzające minimalne ryzyko.

Jak to często bywa, gdy rządy proponują nowe, obszerne zbiory przepisów (ten ma 108 stron), początkowe reakcje przemysłu i grup społeczeństwa obywatelskiego wydają się bardziej dotyczyć istnienia i zasięgu nadzoru branżowego niż konkretnej treści przepisów. Jeden z think tanków finansowany przez technologię powiedział Wall Street Journal, że zbudowanie sztucznej inteligencji w Europie może stać się „niewykonalne”. Z kolei grupy społeczeństwa obywatelskiego skupiające się na prywatności, takie jak European Digital Rights (EDRi), stwierdziły w oświadczeniu, że „rozporządzenie dopuszcza zbyt szeroki zakres samoregulacji przez przedsiębiorstwa”.

„Myślę, że jednym z pomysłów stojących za tym przepisem była próba zrównoważenia ryzyka i wzbudzenia zainteresowania ludzi sztuczną inteligencją i odzyskania zaufania” – mówi Lisa-Maria Neudert, badaczka zarządzania AI na Uniwersytecie Oksfordzkim w Anglii i Weizenbaum Institut w Berlin, Niemcy. Ankieta Fundacji Lloyds Register z 2019 r. Wykazała, że opinia publiczna na całym świecie jest mniej więcej równo podzielona między strach i podekscytowanie związane ze sztuczną inteligencją.

Naukowcy zajmujący się sztuczną inteligencją Mona Sloane i Andrea Renda piszą w VentureBeat, że zasady są słabsze w monitorowaniu tego, jak AI działa po zatwierdzeniu i uruchomieniu, zaniedbując „kluczową cechę ryzyka związanego ze sztuczną inteligencją: jest ono wszechobecne i pojawia się, często ewoluuje w nieprzewidywalny sposób po jego opracowaniu i wdrożeniu.”.

Europa wyciągnęła już wnioski z wpływu, jaki ogólne rozporządzenie o ochronie danych (RODO) z 2018 r. wywarło na globalną technologię i prywatność. Tak, niektóre zewnętrzne strony internetowe nadal udostępniają Europejczykom stronę informującą ich, że właściciele witryn nie mogą martwić się o przestrzeganie RODO, więc Europejczycy nie widzą żadnych treści. Jednak większość z nich znalazła sposób na dostosowanie się, aby dotrzeć do tego zunifikowanego rynku obejmującego 448 milionów ludzi.

„Nie sądzę, że powinniśmy generalizować, ale można założyć, że tak duży akt prawny będzie miał skutki poza UE” – mówi Neudert. Prawodawcom w innych miejscach będzie łatwiej postępować zgodnie z szablonem niż powielać duże inwestycje UE w badania, zaangażowanie społeczności i pisanie przepisów.

Podczas, gdy firmy technologiczne i ich grupy branżowe mogą narzekać na potrzebę przestrzegania początkowych reguł sztucznej inteligencji, felietonista Register, Rupert Goodwin, sugeruje, że lepiej byłoby skupić się na tworzeniu grup branżowych, które będą kształtować wdrażanie i egzekwowanie przepisów w przyszłości.

Data publikacji: 23 września 2021