Nowości

UE przedstawia szeroko zakrojone przepisy dotyczące sztucznej inteligencji, ale pozostawia otwarte drzwi dla nadzoru policyjnego

Unia Europejska opublikowała nowe ramy regulujące wykorzystanie sztucznej inteligencji w 27 państwach członkowskich bloku. Propozycja, której wdrożenie do prawa zajmie lata i będzie podlegać wielu poprawkom i poprawkom w tym czasie, stanowi jednak najbardziej ambitne regulacje dotyczące sztucznej inteligencji, jakie widziano do tej pory na całym świecie.

Regulacje obejmują szeroki wachlarz zastosowań, od oprogramowania w samojezdnych samochodach po algorytmy używane do weryfikacji kandydatów do pracy i pojawiają się w czasach, gdy kraje na całym świecie zmagają się z etycznymi konsekwencjami sztucznej inteligencji. Podobnie jak unijne prawo o ochronie danych, RODO, rozporządzenie daje blokowi prawo do nakładania kar na firmy, które naruszają jego zasady, do 6 procent ich globalnych przychodów, chociaż takie kary są niezwykle rzadkie.

„To przełomowa propozycja tej Komisji. To nasze pierwsze ramy prawne dotyczące sztucznej inteligencji ”- powiedziała komisarz europejska Margrethe Vestager podczas konferencji prasowej. „Dziś naszym celem jest uczynienie Europy światowej klasy w zakresie rozwoju bezpiecznej, godnej zaufania i skoncentrowanej na człowieku sztucznej inteligencji. I oczywiście, jak z niego korzystać ”.

Grupy praw obywatelskich są nieufne co do niektórych aspektów wniosku. Jednym z najważniejszych elementów jest zakaz czterech konkretnych przypadków użycia sztucznej inteligencji w całej UE. Zakazy te mają na celu ochronę obywateli przed aplikacjami, które naruszają ich prawa, ale krytycy twierdzą, że niektóre zakazy są zbyt niejasne, aby faktycznie powstrzymać krzywdę.

Jednym z takich zakazów jest zakaz używania w czasie rzeczywistym „zdalnych systemów identyfikacji biometrycznej w publicznie dostępnych miejscach do celów egzekwowania prawa”, który obejmowałby rozpoznawanie twarzy. Rozporządzenie dodaje jednak, że istnieje wiele wyjątków od tego zakazu, w tym zezwalanie policji na wykorzystywanie takich systemów w celu znalezienia „sprawcy lub podejrzanego” o popełnienie przestępstwa, za które grozi co najmniej trzyletni wyrok. Korzystanie w takich przypadkach z technologii takiej jak rozpoznawanie twarzy musiałoby zostać zatwierdzone przez sądy lub podobne organy, ale nadal dałoby to organom ścigania niezwykle szeroki zakres wdrażania nadzoru sztucznej inteligencji, kiedy chcą.

Monitoring pomieszczeń

Wniosek pozostawia znaczną swobodę w stosowaniu rozpoznawania twarzy przez organy ścigania.
: Alexandra Schuler / Picture Alliance via Getty Images

„Jest po prostu zbyt wiele wyjątków i są one dość arbitralne” – powiedziała Alexandra Geese, niemiecka eurodeputowana ds. Zielonych. The Verge dotyczące rozporządzenia. „Nie widzę sensu mówienia„ nie chcemy rozpoznawania biometrycznego ”, a następnie przyznawania ciągłych wyjątków”.

Sarah Chander, starszy doradca ds. Polityki w grupie EDRi zajmującej się prawami cyfrowymi, zgodziła się i powiedziała, że ​​propozycja stanowi jedynie „pozór ochrony praw podstawowych”. Powiedział Chander The Verge że całkowity zakaz masowego nadzoru biometrycznego był „jedynym sposobem ochrony demokracji”.

Wcześniejsza wersja propozycji, która wyciekła, zawierała znacznie surowszy zakaz stosowania sztucznej inteligencji do masowej inwigilacji, ale zostało to ewidentnie złagodzone. Jak powiedział Gęsi The Verge: „Wygląda na to, że Komisja powiedziała:„ Słuchaj, chcemy tego zakazać ”, a potem władze bezpieczeństwa państw członkowskich, ministrowie spraw wewnętrznych, wkroczyły i powiedziały:„ Nie ma mowy ”.

Fakt, że zakaz wspomina jedynie o identyfikacji biometrycznej „w czasie rzeczywistym”, również stanowi istotną lukę. Wydaje się, że używanie oprogramowania do rozpoznawania twarzy po przechwyceniu obrazów docelowych jest dozwolone. Utorowałoby to europejskiej policji drogę do korzystania z usług takich jak kontrowersyjna sztuczna inteligencja Clearview, która szybko zyskała popularność w USA.

Inne zabronione zastosowania sztucznej inteligencji obejmują wykorzystywanie technologii do tworzenia ocen kredytowych społecznych, wyrządzania ludziom krzywdy fizycznej lub fizjologicznej oraz manipulowania zachowaniem ludzi za pomocą sygnałów podprogowych. „Całkowicie ich zabraniamy, ponieważ po prostu uważamy je za niedopuszczalne”, powiedział Vestager o tych przypadkach użycia podczas konferencji prasowej.

Wszystkie inne aplikacje AI są podzielone na trzy grupy stratyfikowanego ryzyka. Najniższa kategoria obejmuje popularne aplikacje niskiego ryzyka, takie jak filtry antyspamowe, w przypadku których przepisy prawdopodobnie w ogóle się nie zmienią. Powyżej znajdują się przypadki zastosowań „ograniczonego ryzyka”, takie jak chatbot używany do kupowania biletów lub wyszukiwania informacji, które będą wymagały nieco większego nadzoru. A powyżej są to zastosowania sztucznej inteligencji wysokiego ryzyka, które są „głównym celem struktury”, jak powiedział Vestager.

Zastosowania wysokiego ryzyka to te, które wpływają na istotne aspekty życia ludzi, takie jak algorytmy używane do oceny czyjejś zdolności kredytowej lub tego, czy mogą uzyskać pożyczkę, a także narzędzia sztucznej inteligencji, które kontrolują krytyczne maszyny, takie jak autonomiczne pojazdy i urządzenia medyczne. Ich wdrażanie i rozwój będą nadzorowane przez różne mechanizmy regulacyjne – w niektórych przypadkach w oparciu o istniejące krajowe organy regulacyjne, takie jak te zajmujące się prywatnością cyfrową.

„Te systemy sztucznej inteligencji będą podlegać pięciu rygorystycznym obowiązkom, ponieważ potencjalnie będą miały ogromny wpływ na nasze życie” – powiedział Vestager na konferencji. Wymagania te obejmują obowiązkowe stosowanie „wysokiej jakości” danych szkoleniowych w celu uniknięcia stronniczości, wdrożenie „nadzoru ludzkiego” w każdym systemie oraz stworzenie szczegółowej dokumentacji wyjaśniającej, jak oprogramowanie działa zarówno dla organów regulacyjnych, jak i dla użytkowników.

Innym godnym uwagi aspektem są obowiązkowe obowiązki w zakresie przejrzystości dla systemów sztucznej inteligencji, które wchodzą w interakcję z ludźmi, takich jak chatboty, oraz dla treści generowanych przez sztuczną inteligencję, takich jak deepfake. „Celem jest wyjaśnienie, że jako użytkownicy wchodzimy w interakcję z maszyną” – powiedział Vestager.

Robot pomaga w kontroli - „Proszę nosić maskę”

Systemy SI musiałyby przedstawiać się użytkownikom jako takie.
: Marcel Kusch / picture alliance via Getty Images

Oprócz tych nowych przepisów wszystkie systemy SI sklasyfikowane jako systemy wysokiego ryzyka będą również musiały zostać zindeksowane w nowej ogólnounijnej bazie danych. Daniel Leufer, analityk ds. Polityki europejskiej w Access Now, powiedział The Verge że był to nieoczekiwany i mile widziany dodatek do wniosku.

„To naprawdę dobra miara, ponieważ jednym z problemów, które mamy, jest po prostu brak wiedzy, kiedy system jest w użyciu” – powiedział Leufer. „Na przykład w przypadku ClearView AI polegamy na dziennikarstwie śledczym i wyciekach, aby dowiedzieć się, czy ktoś go używa”. Baza danych zapewniłaby „podstawową przejrzystość w zakresie używanych systemów … umożliwiając nam wykonywanie naszej pracy”.

Grupy zajmujące się prawami cyfrowymi stwierdziły, że poza lukami w zakresie identyfikacji biometrycznej występują dodatkowe problemy. Brakowało na przykład oczekiwanego zakazu wykorzystywania sztucznej inteligencji do automatycznego identyfikowania płci i orientacji seksualnej, podczas gdy algorytmy wykorzystywane do przewidywania działań policyjnych, na które często wpływa uprzedzenia rasowe, nie będą podlegały silnemu nadzorowi.

„Są to podobno wysokie ryzyko [AI applications], ale jeśli chodzi o egzekwowanie prawa, to samoocena ”- mówi Chander. „Dzięki temu firmy, które czerpią korzyści z rozwoju tych systemów, mogą decydować, czy są one zgodne z prawem. To zdumiewające ”.

Pomimo takich sprzeciwów, wielu uzna, że ​​UE dotrzymuje obietnicy stworzenia „trzeciej drogi” między Stanami Zjednoczonymi a Chinami w zakresie polityki sztucznej inteligencji. Jak zauważył Vestager na konferencji prasowej, blok pragnie wyróżniać się uczciwymi i etycznymi zastosowaniami sztucznej inteligencji, a propozycja ta jest nadal największym krokiem w kierunku regulacji zgodnej z tymi wartościami.

„Jestem trochę podejrzliwy”, powiedział Gęsi, „ale bardzo się cieszę, że UE stara się ustanowić światowe standardy”.

Zostaw komentarz

Maciek Luboński
Z wykształcenia jestem kucharzem , ale to nie przeszkadza mi pisać dla Was tekstów z wielu ciekawych dziedzin , których sam jestem fanem.Piszę dużo i często nie na tak jak trzeba , ale co z tego skoro tak naprawdę liczy się pasja.

Najlepsze recenzje

Video

gallery

Facebook