Blog IT, Blog Marketing

Europa szykuje regulacje w zakresie AI

Europa szykuje regulacje w zakresie AI

Aleksandra Golenia , 10.08.2023 r.

Z artykułu dowiesz się:

  • Jak Parlament Europejski podchodzi do tematu sztucznej inteligencji
  • Co to jest AI Act
  • Kiedy użycie AI powinno być uznane za nielegalne
  • Na czym polega ocena ryzyka zastosowania AI
  • Jakie powinny być zasady korzystania z AI

Parlament Europejski dostrzega zagrożenie w sztucznej inteligencji

Unia Europejska prowadzi strategię transformacji cyfrowej, w ramach której planuje uregulować przepisy dotyczące korzystania ze sztucznej inteligencji. Chce ograniczyć swobodę jej stosowania we wszystkich sferach życia. Sztuczna inteligencja jest jednocześnie szansą i zagrożeniem. Jak mówi „Rz” Mher Hakobyan, doradca ds. prawa sztucznej inteligencji Amnesty International:

Ta technologia łamie wiele praw podstawowych: do prywatności, do ochrony danych osobowych, wolność słowa, zgromadzeń, prawo do niedyskryminacji. I jedynym sposobem na to, żeby nie łamał on praw człowieka, jest jego zakazanie.

Już w 2021 roku Komisja Europejska pochyliła się uważniej nad AI. Od tamtego czasu minęły 2 lata, a sztuczna inteligencja się na tyle rozpędziła, że obecnie zagrożonych jest wiele zawodów, które już zastąpione zostały częściowo lub dopiero zostaną zastąpione przez roboty. Projekt Komisji Europejskiej dokładnie analizuje i klasyfikuje systemy AI według ryzyka, jakie stwarzają dla użytkowników.

Francja i Włochy już zaczęły wprowadzać swoje regulacje dotyczące sztucznej inteligencji na własną rękę. Z tego powodu Parlament Europejski postanowił ujednolicić przepisy i przyjął dyrektywę AI Act. Dotyczy ona przede wszystkim zagrożenia masową dezinformacją i technologią deepfake. Już wielokrotnie mieliśmy do czynienia z fakenewsami, w której palce maczała sztuczna inteligencja, przykładem jest chociażby zdjęcie przedstawiające aresztowanie Donalda Trumpa.

Jak można zaobserwować na przestrzeni ostatnich kilku lat, sztuczna inteligencja jest na tyle szybka, że bez problemu prześcignie wprowadzane przepisy, które trzeba będzie na bieżąco uaktualniać i modyfikować. Trudno jest zapanować nad tym, co się dzieje w środowisku sztucznej inteligencji. Poza tym już zrodziły się dwa obozy, z których jeden popiera AI, chętnie z niej korzysta i dostrzega ogromny potencjał w poprawie leczenia, opieki zdrowotnej, transportu czy zrównoważonej energii. Drugi zaś ucieka od sztucznej inteligencji, obawiając się bezpieczeństwa danych oraz dostrzegając w niej zagrożenie dla człowieka.

Komisja Europejska zdecydowała, że trzeba nieco ograniczyć udział sztucznej inteligencji w życiu człowieka. Znamy już kilka szczegółów AI Act. Zatem nieco nakreślamy temat!

Nielegalne wykorzystanie AI

Sztuczna inteligencja potrafi namieszać i to na tyle, że przekracza granicę dobrych manier, etyki i prawa. Korzystając z AI, trzeba wiedzieć, kiedy należy się zatrzymać, aby nie zrobić o kilka kroków za dużo. Może się okazać, że właśnie te kroki będą skutkować naruszeniem prawa.

Przed Komisją Europejską trudne zadanie i duże wyzwanie. Musi precyzyjnie określić, w jakich okolicznościach AI narusza prawo i jej wykorzystanie jest działaniem niedozwolonym. Na pewno za takie wykroczenie należy uznać naruszenie praw człowieka, ale i jego godności. Ponadto sztuczna inteligencja musi podlegać kontroli, jeśli nie jesteśmy w stanie tego zrobić, nie powinno się jej w tym konkretnym przypadku używać.

Problemem jest jednak interpretacja przepisów. Owszem, wytyczne są bardzo elastyczne, ale jednocześnie podlegają rozmaitym interpretacjom. Prawo potrzebuje nie tylko konkretnych przepisów i szybkiego egzekwowania prawa, ale również listy zdarzeń, w których niedozwolone jest użycie AI. Zgodnie z założeniami sztuczna inteligencja nie powinna brać aktywnego udziału w masowym nadzorowaniu miejsc publicznych, ocenie przyznania świadczeń czy też szacowaniu ryzyka o popełnionym przestępstwie przez konkretną osobę. Przede wszystkim chodzi o konsekwencje, jakie wynikają z takich decyzji. Oczywiście, sztuczna inteligencja nie musi być całkowicie wykluczona z działań organów państwa, ale należałoby ją ograniczyć do analizy danych.

Zastosowanie AI musi podlegać ocenie ryzyka

Komisja Europejska w swoich propozycjach zawarła podejście bazujące na ryzyku. Tak naprawdę technologia nie jest problemem, a kłopoty zaczynają się wtedy, kiedy człowiek zaczyna ją niewłaściwie wykorzystywać do różnych celów. Można jednak w pewnym stopniu określić, które obszary wykorzystania AI są bardziej, a które mniej ryzykowne.

Należałoby jednak uznać, że każde zastosowanie sztucznej inteligencji dotyczące człowieka ma związek z ryzykiem dla jego praw i wolności, czasem w mniejszym, a innym razem większym stopniu. Przed podjęciem więc jakichkolwiek działań, powinno się przeprowadzić ocenę ich wpływu na człowieka.

Co więcej, dotyczy to nie tylko negatywnego, ale i pozytywnego wpływu sztucznej inteligencji na człowieka, jego kondycję fizyczną i psychiczną, a także sytuację prawną. Wpływ ten może być w niektórych przypadkach wyraźniej dostrzegalny, jak np. wydanie wyroku na oskarżonego, a w innych mniej, np. wzrost cen mieszkań w kraju.

Kontrola oceny ryzyka zastosowania AI

Proces oceny ryzyka wpływu systemu na ludzi powinien być stale kontrolowany. Nie można jednak pozwolić na to, aby ta kontrola ograniczała się tylko do organu, który system wdraża i tworzy. Niemożliwe jest jednak zapewnienie niezależnej kontroli dla każdego sektora usługowego. Pojawia się więc problem, kto i w jaki sposób ma kontrolować wyniki oceny ryzyka dla systemów wykorzystujących AI.

Jednym z pomysłów jest wprowadzenie sposobu oceny wpływu systemu AI na ludzi podobnego do oceny skutków dla ochrony danych osobowych. W pierwszej kolejności oceny dokonuje wewnętrzny podmiot, który rozwiązanie wdraża. Taka ocena powinna odbywać się za każdym razem, kiedy w systemie wprowadzane są jakiekolwiek zmiany. Jeśli okaże się, że system może mieć wpływ na prawa człowieka, to organ wdrażający ma obowiązek zgłoszenia tego faktu do konkretnego organu nadzorczego. Na taką firmę może zostać nałożona kara, jeśli nie zostaną wprowadzone w systemie odpowiednie zmiany, które to ryzyko by ograniczały. W przypadku, kiedy jest to niemożliwe do wykonania, projekt powinien zostać wstrzymany.

Pomimo jednak pozornie bardzo dobrego planu, ma on duże defekty. Przede wszystkim ocena ryzyka przeprowadzona wewnętrznie powinna zostać raz jeszcze zlecona zewnętrznemu organowi, aby cały proces był bardziej obiektywny. To znacznie wydłuża całe działania, a także jest związane z kosztami wynikającymi z uruchomienia i utrzymania takiego organu.

Jawne i zrozumiałe zasady korzystania z AI

Sztuczna inteligencja wciąż owiana jest tajemnicą. Wydaje nam się, że wiemy o niej coraz więcej, jednak tak naprawdę wciąż pozostaje wiele nieodkrytych kart, tym bardziej że technologia się rozwija i postępuje. Obecnie zrozumienie mechanizmów działania sztucznej inteligencji nie stanowi większego problemu dla osób zaznajomionych z zaawansowaną technologią. Szczegółowego wyjaśnienia potrzebują jednak osoby z innych sektorów gospodarczych, pracujących w zupełnie innych lub mniej rozwiniętych technologicznie branżach. Skoro AI ma mieć wpływ na człowieka i być wykorzystywana w sektorze publicznym, to każdy powinien mieć konkretną wiedzę na jej temat.

Jest pomysł, aby dla systemów sztucznej inteligencji powstały ulotki i instrukcje. Tak przecież działa wiele sektorów gospodarczych, nawet rynek farmaceutyczny wykorzystuje ten patent. Działanie leków jest bardzo złożone i osoba je przyjmująca nie potrzebuje tak szczegółowych informacji. Musi jednak otrzymać od producenta konkretne wytyczne, jak, kiedy i w jakich ilościach stosować lek. Tak mogłoby być też w przypadku sztucznej inteligencji.

Komisja Europejska jest więc zobowiązana zadbać o to, aby AI było owiane jak najmniejszą tajemnicą. Zasady korzystania z niej powinny być zrozumiałe dla każdego, a nie tylko fanatyka technologicznego. Dostęp do tych zasad musi być łatwy, a nie otwarty tylko dla wybranej grupy społeczności.

Ograniczenia korzystania z AI dla organów publicznych

Nie jest tajemnicą, że sztuczna inteligencja może pomóc człowiekowi w rozwiązaniu wielu jego problemów, jak też usprawnieniu zaawansowanych i dzisiaj ręcznie wykonywanych procesów. Administracja publiczna też jej potrzebuje, ale w kontrolowany i ograniczony sposób. AI potrafi dużo, ale nie wszystko. Ma trudności w analizie języka naturalnego, ponieważ w większości przypadków sens komunikatu zależy od kontekstu. Ponadto sztuczna inteligencja bazuje przede wszystkim na danych i konkretnych algorytmach. Trudno jest jej się odnaleźć w sytuacji, kiedy na skutek zewnętrznych czynników dochodzi do nagłych zmian np. w cenach rynkowych, czego przykładem była pandemia czy wybuch wojny na Ukrainie.

W administracji publicznej AI powinno podlegać większej kontroli. Wynika to z tego, że chodzi o dobro dużej społeczności. Nawet najmniejszy błąd może kosztować ludzkość duże straty. Z tego powodu człowiek powinien nauczyć się współpracować ze sztuczną inteligencją, a nie oddawać w jej ręce swoje obowiązki. Niech wykonuje częściowo jego pracę, ale tylko pod jego kontrolą. Nie można AI całkowicie poświęcić dobra ludzi, ponieważ jest to związane z dużym ryzykiem strat i niekorzystnych dla nich konsekwencji. Sztuczna inteligencja nie ma (jeszcze) umiejętności krytycznej oceny i nie potrafi analizować faktów, które nie są potwierdzone konkretnymi danymi. Przypisuje się jej ogrom zdolności i zalet, ale często zapomina się o defektach i o tym, że to tylko ograniczona technologia, która wszystko, co potrafi, zawdzięcza człowiekowi.

Miejmy nadzieję, że Komisja Europejska stanie na wysokości zadania i w możliwie jak największym stopniu przejmie kontrolę nad wykorzystaniem sztucznej inteligencji. Nie może ona swobodnie poruszać się po wszystkich sektorach naszego życia, ponieważ wiąże się to z ryzykiem poważnego naruszenia praw, prywatności, wolności i bezpieczeństwa człowieka. AI może nam więc pomóc, ale może nas też pogrążyć.

Najnowsze oferty pracy:

Polecane wpisy na blogu IT:

Szukasz pracownika IT?

Dostarczymy Ci najlepszych specjalistów z branży IT. Wyślij zapytanie

Wyrażam zgodę TeamQuest Sp. z o.o. na przetwarzanie moich danych osobowych w celu marketingu produktów i usług własnych TeamQuest, w tym na kontaktowanie się ze mną w formie połączenia telefonicznego lub środkami elektronicznymi.
Administratorem podanych przez Ciebie danych osobowych jest TeamQuest Sp. z o.o., z siedzibą w Warszawie (00-814), ul. Miedziana 3a/21, zwana dalej „Administratorem".
Jeśli masz jakiekolwiek pytania odnośnie przetwarzania przez nas Twoich danych, skontaktuj się z naszym Inspektorem Ochrony Danych (IOD). Do Twojej dyspozycji jest pod adresem e-mail: office@teamquest.pl.
W jakim celu i na jakiej podstawie będziemy wykorzystywać Twoje dane? Dowiedz się więcej