Każdy, kto miał do czynienia z analityką ruchu w aplikacjach lub witrynach internetowych wie, że niełatwo osiągnąć duże wzrosty na polu wydłużenia czasu sesji. Dolina Krzemowa angażuje zaawansowane algorytmy, które mają sugerować użytkownikom kolejne materiały. Symulacja przeprowadzona z wykorzystaniem DeepMind wykazała jednak, że algorytmy mają fatalny wpływ na sposób, w jaki przeglądamy Internet.
Bańka filtrująca i echokomora
Przed zjawiskiem bańki filtrującej przestrzegał już w 2012 roku podczas TED Talks Eli Pariser. Dostawcy największych usług chcą możliwie najskuteczniej personalizować dostarczane internautom treści, bazując na ich wcześniejszych wyborach oraz danych zebranych innymi kanałami. Rezultaty tylko pozornie są pozytywne. W teorii użytkownik otrzymuje materiały skrojone na miarę swojego gustu, w praktyce jest izolowany od informacji i zamykany w bańce filtrującej bodźce spoza wymodelowanych wcześniej preferencji.
Na bańkę filtrującą nakłada się zjawisko echokomory, czy też komory echa. O ile bańki filtrująca odsiewa informacje z zewnątrz, także echokomora zamyka użytkownika wśród materiałów, które już zna. Dwa mechanizmy, które miały za zadanie jedynie personalizować dobór materiałów, skutecznie ograniczają ich liczbę, rotując wciąż te same źródła i zbliżone tematycznie lub formalnie treści. To tę kwestię postanowiono zbadać w DeepMind za pomocą symulacji opartej na sieci neuronowej.
Zobacz też: Google śledzi nawet w trybie incognito. Czy pęknięcie bańki filtrującej jest jeszcze możliwe?
DeepMind mierzy degenerację pętli zwrotnej
DeepMind przeprowadziło symulację, w której pięć niezależnych instancji sieci neuronowej zostało zaangażowanych jako algorytmy sugerowania treści. Różniły się one stopniem dokładności – na jednym końcu osi były algorytmy możliwie jak najściślej dopasowujące treści do gustów przykładowego użytkownika, na drugiej mechanizmy bardziej nastawione na eksploracje, dla których dotychczas zebrane informacje o gustach nie były aż tak priorytetowe w doborze treści.
Parametrem wykorzystywany w symulacji była degeneracja pętli zwrotnej (feedback loop), która w najskrajniejszym przypadku kończyła się oczywiście rotowaniem zamkniętego zasobu materiałów o stałej liczbie. Podczas symulacji potwierdzono, że degeneracja następuje tym szybciej, im dokładniejsze są algorytmy. A to prowadzi już do wniosku, że algorytmy sugerowania im są mniej dokładne, tym lepsze dla użytkownika.
Zobacz też: DeepMind potrafi już przewidywać warunki wiatrowe z 36-godzinnym wyprzedzeniem
Im sugestie lepsze, tym gorsze
O ile wcześniej zjawiska bańki informacyjnej czy echokomory były głównie podejmowane przez nauki społeczne, badania DeepMind stanowią bodaj pierwszy matematyczny (choć uzyskany w zamkniętym symulowanym środowisku) dowód na ścisłą zależność pomiędzy skutecznością algorytmów sugestii a szczelnością bańki filtrującej. Jeśli przyjmiemy, że usługa jest tym lepsza, im bardziej dostosowana do użytkownika, to łatwo wyciągnąć wniosek, że im lepsza jest, tym bardziej separuje go od świata zewnętrznego i zamyka w zamkniętej puli treści znanych i lubianych.
Nie byłoby to zapewne, aż tak ważnym problemem, gdyby nie wspomniana analityka ruchu. Twórcy usług internetowych zrobią wszystko, by sesja trwała jak najdłużej. W ich interesie jest zatem, by przeciętny internauta trafił do jak najszczelniejszej bańki filtrującej i słyszał tylko echo własnego głosu. Artykuł opisujący symulację DeepMind dostępny jest na serwerach Uniwersytetu Cornella.