Doskonalenie sztucznej inteligencji polega między innymi na usuwaniu jej „uprzedzeń” czy „stronniczości”, zaburzającej proces poznawczy. Ale czy to z kolei nie oznacza jej ideologizacji?
Uniwersytet Princeton nie próżnuje
Badacze z Uniwersytetu Princeton opracowali właśnie narzędzie, które sygnalizuje potencjalne błędy w zestawach obrazów używanych do trenowania systemów sztucznej inteligencji (AI). Praca jest częścią większego projektu, mającego na celu zaradzenie i zapobieganie uprzedzeniom, które wkradły się do systemów sztucznej inteligencji. A sprawa nie jest bagatelna, bo AI ma wpływ na coraz więcej sfer naszego życia, od usług kredytowych, przez zatrudnienie po orzekanie na sali sądowej (ok - to ostatnie jeszcze nie w Polsce). W każdym razie przeciętny programista ma coraz większe szanse zetknąć się z nią w prawdziwych zastosowaniach.
Stronniczość? U maszyny?
Chociaż źródła stronniczości w systemach SI są zróżnicowane, jedną z głównych przyczyn stanowią stereotypowe obrazy zawarte w dużych zestawach obrazów zebranych ze źródeł internetowych, których inżynierowie używają do trenowania sztucznej inteligencji. Ponieważ podstawa widzenia komputerowego jest zbudowana na tych zbiorach danych, obrazy odzwierciedlające społeczne stereotypy i uprzedzenia mogą w niezamierzony sposób wpływać na modele widzenia komputerowego.
Aby pomóc powstrzymać ten problem u jego źródła, naukowcy z Princeton Visual AI Lab opracowali narzędzie na licencji open source, które automatycznie wykrywa potencjalne błędy w zestawach danych wizualnych. Narzędzie umożliwia twórcom zbiorów danych i użytkownikom korygowanie problemów związanych z – na przykład - niedostateczną reprezentacją, zanim zbiory obrazów zostaną wykorzystane do trenowania modeli widzenia komputerowego.
REVISE
To narzędzie, zwane REVISE (REvealing VIsual biaSEs), wykorzystuje metody statystyczne do zbadania zbioru danych pod kątem potencjalnych uprzedzeń w trzech wymiarach: obiektowym, opartym na płci i geograficznym. W pełni zautomatyzowane narzędzie opiera się na wcześniejszych pracach, które obejmowały filtrowanie i równoważenie obrazów zestawu danych w sposób, który wymagał więcej wskazówek od użytkownika.
REVISE podsumowuje zawartość zestawu danych, korzystając tak z istniejących adnotacji do obrazów jak i z własnych pomiarów, takich jak liczba obiektów, współwystępowanie obiektów i ludzi oraz kraje pochodzenia obrazów. Wśród tych pomiarów narzędzie ujawnia wzorce różniące się od rozkładów mediany i uznaje ja za odstępstwa od statystycznej reguły.
Przykład
Na przykład w jednym z testowanych zestawów danych REVISE wykazało, że obrazy obejmujące zarówno ludzi, jak i kwiaty różniły się między mężczyznami i kobietami: mężczyźni częściej pojawiali się z kwiatami podczas ceremonii lub spotkań, podczas gdy kobiety częściej pojawiały się w inscenizacjach lub obrazach. (Analiza została ograniczona do adnotacji odzwierciedlających postrzeganą binarną płeć ludzi pojawiających się na obrazach).
Gdy narzędzie ujawni tego rodzaju rozbieżności, pojawia się pytanie, czy jest to całkowicie nieszkodliwy fakt, czy też dzieje się coś głębszego, co bardzo trudno zautomatyzować - twierdzi Olga Russakovsky, adiunkt informatyki z Visual AI Lab.
Projekt REVISE ujawnił także chociażby, że niektóre obiekty, w tym samoloty, łóżka czy (!) pizze, były z większym prawdopodobieństwem pokazywane jako duże na obrazach zawierających je niż typowy obiekt w jednym ze zbiorów danych. Taka kwestia może być problematyczna przy trenowaniu modeli widzenia komputerowego. Jako środek zaradczy naukowcy sugerują zebranie zdjęć samolotów, które zawierają również etykiety góra, pustynia lub niebo. Chodzi o to aby AI nie zaczęła uważać, że skoro te obiekty zajmują zazwyczaj większość zdjęcia to oznacza to, że są naprawdę sporych rozmiarów.