Blog IT, Blog Marketing

Ban na sztuczną inteligencję, która zagraża prawom człowieka

Ban na sztuczną inteligencję, która zagraża prawom człowieka

Marcin Sarna , 21.09.2021 r.

Z takim postulatem wystąpiła komisarz ONZ Michelle Bachelet.

Sztuczna inteligencja nie może być puszczona samopas

Wezwania do zahamowania stosowania sztucznej inteligencji, a w niektórych przypadkach do całkowitego zakazania tej technologii, stają się coraz głośniejsze. Teraz odpowiedzialna z ramienia ONZ za prawa człowieka Michelle Bachelet dołączyła swój głos do chóru ekspertów, którzy w nowym raporcie zalecają moratoria na wykorzystanie sztucznej inteligencji w zastosowaniach wysokiego ryzyka.

Bachelet opowiedziała się również za zakazem stosowania sztucznej inteligencji w przypadkach, które są sprzeczne z prawami człowieka, takich jak ocena osób na podstawie dyskryminujących kryteriów. Jej zdaniem, ponieważ nie ma jeszcze zabezpieczeń, które gwarantowałyby, że tak zaawansowana technologia jest wykorzystywana w sposób odpowiedzialny, rządy powinny pilnie wprowadzić ograniczenia w jej stosowaniu. Bez tego algorytmy, które są potencjalnie szkodliwe dla praw człowieka, będą nadal wdrażane bez nadzoru.

Bachelet podkreśla, że algorytmy są już obecne w życiu większości ludzi decydujący na przykład o tym, kto otrzymuje usługi publiczne, kto dostaje pracę, lub co użytkownicy mogą zobaczyć i udostępnić online.

Kij ma dwa końce

Komentarze komisarz ONZ są pokłosiem raportu, który został sporządzony przez jej biuro w celu zbadania, w jaki sposób sztuczna inteligencja może wpłynąć na prawa człowieka, takie jak prywatność, zdrowie, edukacja, wolność poruszania się czy wolność słowa. Choć stwierdzono, że sztuczna inteligencja jest w dużej mierze siłą dobra, która może pomóc społeczeństwom i gospodarkom w pokonywaniu aktualnych wyzwań, podkreślono również niezaprzeczalny i stale rosnący wpływ AI na niektóre prawa człowieka.

Sztuczna inteligencja

Algorytmy, na przykład, mogą w znacznym stopniu naruszać prywatność użytkowników. Systemy sztucznej inteligencji są zasilane dużą ilością danych, w tym danych osobowych, co zachęca organizacje do gromadzenia, przechowywania i przetwarzania wrażliwych informacji o swoich użytkownikach lub klientach, czasami w sposób niejawny. Tak zgromadzone dane mogą być wykorzystywane do sterowania życiem osobistym ludzi, chociażby przez opracowywanie wzorców snu.

Szczególnie zagrożone sfery

Według raportu istnieje kilka sektorów, w których wykorzystanie systemów sztucznej inteligencji jest szczególnie niepokojące. Należą do nich organy ścigania, gdzie algorytmy mogą wpłynąć na decyzję o aresztowaniu przestępcy, a także służby publiczne, gdzie modele AI są używane chociażby do ustalenia uprawnień do świadczeń socjalnych. W sprawozdaniu zwrócono też uwagę na ryzyko związane z wykorzystaniem algorytmów do monitorowania pracowników i zarządzania nimi. Natomiast w Internecie systemy AI mogą być wykorzystywane do wspierania decyzji dotyczących zarządzania treścią.

W przypadku wielu z tych zastosowań ryzyko jest dwojakie. Nie tylko sam system AI może być sprzeczny z podstawowymi prawami człowieka, takimi jak prawo do prywatności; ale w niektórych przypadkach, gdy algorytm jest stronniczy, technologia może również podejmować dyskryminujące decyzje. Na przykład dane wykorzystywane w systemach sztucznej inteligencji mogą być stronnicze wobec pewnych grup lub mogą być po prostu błędne, nieaktualne lub nieistotne, co z kolei prowadzi do podejmowania przez algorytmy obiektywnie niewłaściwych decyzji.

Biometria pozwala na nieograniczoną inwigilację

Jest wystarczająco dużo przykładów podejmowania przez modele AI szkodliwych (błędnych) decyzji by zacząć się martwić. Ryzyko dyskryminacji związanej z decyzjami napędzanymi przez AI - decyzjami, które mogą zmienić, zdefiniować lub zniszczyć ludzkie życie - jest aż nazbyt realne. Dlatego właśnie potrzebna jest systematyczna ocena i monitorowanie skutków systemów AI, aby zidentyfikować i złagodzić zagrożenia dla praw człowieka - powiedziała Bachelet.

Raport ONZ zwrócił uwagę w szczególności na wykorzystywanie przez państwa do celów inwigilacji w szczególności technologii biometrycznych (takich jak rozpoznawanie twarzy), które są wykorzystywane do identyfikacji osób w czasie rzeczywistym i na odległość, co potencjalnie może pozwolić na nieograniczone śledzenie jednostek. W sprawozdaniu stwierdzono, że należy wprowadzić moratorium na stosowanie technologii biometrycznych w przestrzeni publicznej, dopóki nie zostanie wykazane, że nie ma problemów z dokładnością algorytmu i że system nie ma skutków dyskryminacyjnych.

Europa już się tym zajmuje

Według komisarza ONZ to rządy powinny zatem wprowadzić odpowiednie prawa, aby utrzymać pod kontrolą rozwój sztucznej inteligencji. Na początku tego roku Komisja Europejska ujawniła projekt przepisów dotyczących sztucznej inteligencji, w którym skatalogowała aplikacje AI w oparciu o różne poziomy ryzyka. Na szczycie piramidy znalazły się przypadki użycia wiążące się z niedopuszczalnym ryzykiem, które naruszają prawa podstawowe i tym samym powinny być zakazane.

Komisja Europejska stwierdziła, że właśnie wspomniane wyżej stosowanie rozpoznawania twarzy w przestrzeni publicznej powinno być zakazane, ponieważ narusza te prawa. Orzeczenie zawierało jednak różne wyjątki, które zostały potępione przez grupy obrońców praw człowieka jako dopuszczające zbyt wiele luk prawnych.

Najnowsze oferty pracy:

Polecane wpisy na blogu IT:

Szukasz pracownika IT?

Dostarczymy Ci najlepszych specjalistów z branży IT. Wyślij zapytanie

Wyrażam zgodę TeamQuest Sp. z o.o. na przetwarzanie moich danych osobowych w celu marketingu produktów i usług własnych TeamQuest, w tym na kontaktowanie się ze mną w formie połączenia telefonicznego lub środkami elektronicznymi.
Administratorem podanych przez Ciebie danych osobowych jest TeamQuest Sp. z o.o., z siedzibą w Warszawie (00-814), ul. Miedziana 3a/21, zwana dalej „Administratorem".
Jeśli masz jakiekolwiek pytania odnośnie przetwarzania przez nas Twoich danych, skontaktuj się z naszym Inspektorem Ochrony Danych (IOD). Do Twojej dyspozycji jest pod adresem e-mail: office@teamquest.pl.
W jakim celu i na jakiej podstawie będziemy wykorzystywać Twoje dane? Dowiedz się więcej