TeamQuest Blog

Jak sprawić, by AI była godna zaufania?

Jak sprawić, by AI była godna zaufania?

Marcin Sarna , 15.09.2020 r.

Jak sprawić, by AI była godna zaufania? Nowe narzędzie może pomóc we wdrożeniu technologii, takich jak pojazdy autonomiczne.

Na czym polega problem?

Jedną z największych przeszkód we wdrażaniu nowych technologii jest zaufanie do sztucznej inteligencji (AI). A co gdyby istniało jakieś narzędzie generujące automatycznie wskaźniki pokazujące czy dane i prognozy generowane przez algorytmy sztucznej inteligencji są godne zaufania?

Takie coś już istnieje dzięki badaczom z USC Viterbi Engineering. Jakże ciekawie zatytułowany artykuł „Jest jednak nadzieja mimo wszystko: kwantyfikacja opinii i wiarygodności w sieciach neuronowych” (oryginalny tytuł: There Is Hope After All: Quantifying Opinion and Trustworthiness in Neural Networks) autorstwa Mingxi Chenga, Shahina Nazariana i Paula Bogdana z USC Cyber Physical Systems Group został właśnie opublikowany we Frontiers in Artificial Intelligence. Znajdziesz go tutaj.

Sieci neuronowe

Sieci neuronowe to rodzaj sztucznej inteligencji, która jest wzorowana na mózgu i generuje prognozy. Ale czy można ufać generowanym przez nie przewidywaniom? Jedną z kluczowych barier utrudniających wdrażanie samochodów autonomicznych jest to, że pojazdy muszą działać jako niezależni decydenci oraz szybko rozszyfrowywać i rozpoznawać obiekty na drodze. Od decyzji czy dany obiekt jest progiem zwalniającym albo zwierzęciem domowym lub dzieckiem zależy bardzo wiele. A jak postępować, gdy inny pojazd skręca w jego kierunku? Czy samochód powinien uderzyć w nadjeżdżający pojazd lub skręcić i uderzyć w przedmiot, który pojazd postrzega jako nieożywiony przedmiot lub dziecko? Czy samochody mogą jeździć etycznie? Czy możemy ufać oprogramowaniu komputerowemu w pojazdach, które podejmuje rozsądne decyzje w ułamku sekundy - zwłaszcza gdy sprzeczne informacje pochodzą z różnych metod wykrywania, takich jak obraz komputerowy z kamer lub dane z lidaru? Wiedza o tym, którym systemom ufać i który system wykrywania jest najdokładniejszy, byłaby pomocna w określeniu, jakie decyzje powinien podjąć autopilot.

Nie umiem Ci pomóc, jestem tylko ko… mputerem

Główny autor Mingxi Cheng pracował nad projektem kierując się następującą myślą:

Nawet ludzie mogą być niezdecydowani w pewnych sytuacjach. Dlaczego w przypadkach gdy maszyna otrzymuje sprzeczne ze sobą informacje nie może nam powiedzieć, że po prostu nie wie co zrobić?

Paul Bogdan, profesor nadzwyczajny na Wydziale Inżynierii Elektrycznej i Komputerowej w Ming Hsieh i autor korespondencyjny mówi wprost: Narzędzie stworzone przez autorów o nazwie DeepTrust może oszacować poziom niepewności, a tym samym wskazać kiedy jest konieczna interwencja człowieka.

Opracowanie tego narzędzia zajęło zespołowi badawczemu USC prawie dwa lata i powstało przy wykorzystaniu tak zwanej logiki subiektywnej do oceny architektury sieci neuronowych. W jednym ze swoich przypadków testowych, sondażach z wyborów prezydenckich w 2016 roku, DeepTrust wykazało, że prognozy wskazujące na zwycięstwo Clintona mają większy margines błędu.

Korzyści?

Narzędzie dostarcza informacji na temat testowania niezawodności algorytmów sztucznej inteligencji, które są zwykle trenowane ogromnych ilościach danych. Niezwykle czasochłonne byłoby sprawdzenie, czy każda z tych informacji, została prawidłowo oznaczona przez AI. Autorzy twierdzą, że jeśli informatycy chcą jednocześnie zmaksymalizować dokładność i zaufanie, praca ta może służyć jako drogowskaz określający, ile „szumu” może występować w testowanych próbkach. Utrzymują, że DeepTrust jest jedynym istniejącym modelem kwantyfikacji zaufania do głębokiego uczenia się, sztucznej inteligencji i uczenia maszynowego. Ponieważ jest to pierwsze takie podejście do tego tematu to otwiera jednocześnie zupełnie nowe kierunki badań. Zdaniem twórców narzędzie ma potencjał, aby uczynić sztuczną inteligencję „świadomą i adaptacyjną”.

https://www.sciencedaily.com/releases/2020/08/200827105937.htm

Najnowsze oferty pracy:

Polecane wpisy na blogu IT:

Szukasz pracownika IT?

Dostarczymy Ci najlepszych specjalistów z branży IT. Wyślij zapytanie

Wyrażam zgodę TeamQuest Sp. z o.o. na przetwarzanie moich danych osobowych w celu marketingu produktów i usług własnych TeamQuest, w tym na kontaktowanie się ze mną w formie połączenia telefonicznego lub środkami elektronicznymi.
Administratorem podanych przez Ciebie danych osobowych jest TeamQuest Sp. z o.o., z siedzibą w Warszawie (00-814), ul. Miedziana 3a/21, zwana dalej „Administratorem".
Jeśli masz jakiekolwiek pytania odnośnie przetwarzania przez nas Twoich danych, skontaktuj się z naszym Inspektorem Ochrony Danych (IOD). Do Twojej dyspozycji jest pod adresem e-mail: office@teamquest.pl.
W jakim celu i na jakiej podstawie będziemy wykorzystywać Twoje dane? Dowiedz się więcej