Europa planuje przyhamować rozwój technologiczny żeby uniknąć orwellowskiej rzeczywistości?
Plany Komisji Europejskiej
Nie tak dawno informowaliśmy Was o planowanym zakazie stosowania technologii rozpoznawania twarzy na obszarze UE. Okazuje się, że to nie jedyne planowane zmiany w prawie europejskim dotyczącym IT.
Teraz Europa chce ustanowić twarde zasady dla – generalnie rzecz ujmując - sztucznej inteligencji. Po latach konsultacji z ekspertami i wielu petycjach czy listach otwartych od rozmaitych grup aktywistów, Unia Europejska w końcu ujawniła więc swoje zamierzenia dotyczące sztucznej inteligencji. Jest to chyba pierwsza na świecie próba złagodzenia obaw, że technologia może doprowadzić do przyszłości, w której zautomatyzowane systemy będą podejmować decyzje dotyczące najbardziej wrażliwych aspektów naszego życia.
Zakres stosowania i generalny koncept
Nowe ramy prawne mają mieć zastosowanie zarówno do sektora publicznego, jak i prywatnego, dla każdego systemu AI mającego wpływ na obywateli UE, niezależnie od tego, czy technologia jest importowana, czy rozwijana w państwach członkowskich.
U podstaw tych ram leży hierarchia obejmująca cztery poziomy ryzyka, uzupełnione o to, co Komisja określa jako „niedopuszczalne ryzyko”: te zastosowania sztucznej inteligencji, które naruszają prawa podstawowe i które będą zakazane. Należą do nich na przykład zautomatyzowane systemy, które manipulują ludzkim zachowaniem, aby użytkownicy działali w sposób, który może im zaszkodzić, a także systemy, które pozwalają rządom na ocenę społeczną swoich obywateli (jak social scoring znany z Chin).
Zakaz rozpoznawania twarzy za mało rygorystyczny?
O tej kwestii pisaliśmy już w linkowanym wyżej artykule. Obecnie narasta już jednak krytyka tego rozwiązania. Co ciekawe, narastający sprzeciw dotyczy nie zakazu rozpoznawania twarzy ale właśnie tego, że nie jest on wystarczająco rygorystyczny i pozostawia wiele luk. Zdaniem EDRi (European Digital Rights, organizacja osób zajmujących się obroną i rozwojem praw cyfrowych na starym kontynencie) ta propozycja nie jest wystarczająca, aby zakazać masowego nadzoru biometrycznego.
Jako przykład podaje się te systemy identyfikacji biometrycznej, które nie są używane przez organy ścigania lub które nie działają w czasie rzeczywistym. One przejdą z kategorii „niedopuszczalnego ryzyka” do „wysokiego ryzyka” - drugiej kategorii sztucznej inteligencji opisanej przez Komisję. To oznacza, że będą one dopuszczone z zastrzeżeniem określonych wymagań.
Systemy wysokiego ryzyka
Systemy wysokiego ryzyka obejmują również systemy rozpoznawania emocji, a także modele sztucznej inteligencji, które określają dostęp do edukacji, zatrudnienia lub podstawowych usług. Wśród nich jest na przykład punktacja kredytowa. Innymi przykładami są algorytmy stosowane na granicach do zarządzania imigracją, systemy współuczestniczące w wymierzaniu sprawiedliwości czy też ingerujące w infrastrukturę krytyczną.
Aby modele te mogły wejść na rynek Unii Europejskiej, będą musiały zostać spełnione surowe kryteria, począwszy od przeprowadzania odpowiednich ocen ryzyka, a skończywszy na zapewnieniu szkolenia algorytmów w zakresie zbiorów danych o wysokiej jakości. To wszystko ma zapewnić wysoki poziom przejrzystości i bezpieczeństwa – takie systemy nie mogą pracować bez ludzkiego nadzoru. Wszystkie systemy wysokiego ryzyka będą musiały też zostać zarejestrowane w nowej bazie danych Unii Europejskiej.
Co najważniejsze, dostawcy takich systemów będą musieli dopilnować, aby technologia przeszła ocenę (coś na kształt certyfikacji). Ale ta ocena, z wyjątkiem szczególnych przypadków (jak technologia rozpoznawania twarzy) nie będzie musiała być przeprowadzana przez stronę trzecią ale przez samych programistów. Według Elli Jakubowskiej z EDRi:
Pozwoli to programistom AI na samodzielne ocenianie własnych rozwiązań. I oczywiście osoby, które te systemy opracowują, będą zachęcane do powiedzenia, że to, co opracowują, jest zgodne z wymogami prawnymi. Trudno nazwać to ograniczeniem jeśli zleca się ocenę tym podmiotom, które czerpią korzyści z posiadania sztucznej inteligencji w jak największej skali. To niepokojące.