Mydlana opera, w której główną rolę odgrywa aplikacja DeepNude, doczekała się kolejnego epizodu. GitHub zlikwidował właśnie wszystkie repozytoria z kodem aplikacji, w tym też i takie, na których prowadzono prace nad opensource’ową wersją DeepNude, budowaną drogą odwrotnej inżynierii. Oficjalnie uznano, że algorytmy służące do rozbierania kobiet z kostiumów kąpielowych naruszają regulamin serwisu i wytyczne jego społeczności.
Historia pewnej nieskromności
Wszystko zaczęło się w czerwcu, kiedy to anglojęzyczne media dowiedziały się o istnieniu DeepNude – aplikacji desktopowej na Linuksa i Windowsa, która wykorzystując generatywne sieci przeciwstawne (GAN) realizowała odwieczną fantazję nastolatków.
Biorąc na wejściu zdjęcie kobiety w kostiumie kąpielowym, była w stanie wygenerować wersję zdjęcia, na którym kobieta tego kostiumu już nie posiadała. W większości wypadków wynik takiej transformacji pozostawiał wiele do życzenia, ale przy odpowiednim ujęciu i wystarczająco dużej ilości odsłoniętego ciała, DeepNude było w stanie wygenerować całkiem wiarygodnie wyglądający akt.
Całą pracę robił tu opensource’owy algorytm pix2pix, opracowany w 2017 roku przez badaczy z Berkeley, i szkolony na zbiorze ponad 10 000 zdjęć nagich kobiet, a następnie ulepszany poprzez rywalizowanie ze swoimi własnymi wynikami.
Aplikacja przez około pół roku od swojego debiutu była oferowana za darmo, jednak strategiczne miejsca na wynikowym zdjęciu zasłaniała znaczkiem wodnym. Za 50 dolarów anonimowy autor używający pseudonimu „Alberto” sprzedawał klucz, pozwalający pozbyć się znaku wodnego.
27 czerwca, po utrzymanym w panikarskim tonie artykule w serwisie VICE Motherboard, w którym aplikację oskarżono o naruszenia prywatności i autonomii kobiecych ciał, strona internetowa DeepNude została zamknięta. „Nie chcemy zarabiać w ten sposób”, napisał w oświadczeniu na Twitterze. Aplikacja została porzucona, licencje unieważnione. Alberto podobno zmagał się z problemami etycznymi i ostatecznie miał uznać, że mimo że aplikacja nie robi niczego, czego nie dałoby się uzyskać w Photoshopie, to jednak on nie chce mieć nic wspólnego z jej upowszechnieniem.
W sieci nic nie ginie
Oczywiście jeśli coś trafiło do Sieci, to już w Sieci pozostanie. Kilka godzin później na tablicach 8chana pojawiły się linki do pobrania DeepNude z dysków online i torrentów, w ciągu 24 godzin pojawił się zaś działający crack zarówno na Linuksa jak i Windowsa. Wszyscy miłośnicy generatywnych sieci przeciwstawnych mogli sami się przekonać, jak radzą one sobie z eliminacją bikini.
Szybko pojawili się tacy, którzy na dostępnym teraz za darmo oprogramowaniu abandonware zdecydowali się zarobić. Poprzez uruchomiony w tym celu serwer Discorda sprzedawano scrackowaną wersję DeepNude za 20 dolarów, z obietnicą dostępu do przyszłych aktualizacji.
I ten kanał za długo nie przetrwał. Pod koniec czerwca, po anonimowym donosie serwer został wyłączony. Uznano, że jego operator naruszył wytyczne społeczności platformy, które zabraniają udostępniania lub linkowania do treści „z zamiarem zawstydzenia lub poniżenia innej osoby” oraz promowania treści o wyraźnie seksualnym charakterze bez zgody podmiotu.
Rzecznik Discorda wyjaśnił wówczas, że udostępnianie „pornografii niemającej charakteru konsensualnego jest wyraźnie zabronione w naszych warunkach świadczenia usług i wytycznych dla społeczności” – choć nie potrafił powiedzieć, w jakim sensie aplikacja DeepNude jest pornografią. Nic w tym jednak dziwnego, podobne stanowiska zajęli operatorzy innych mediów społecznościowych, w tym Reddita, Twittera i Gfycata, które wzięły się za usuwanie wszelkich wynikowych zdjęć z DeepNude, w oparciu o taką samą argumentację.
Zainteresowana DeepNude społeczność znalazła jednak bezpieczną przystań na Telegramie. Ten stawiający na prywatność i wolność słowa komunikator, którego twórcy nie ugięli się nawet przed rosyjskim kontrwywiadem (FSB), najwyraźniej nie ma nic przeciwko otwartym grupom i kanałom poświęconym zarówno samemu DeepNude jak i udostępnianiu zdjęć wynikowych z aplikacji. I właśnie na Telegramie rozpoczęły się dyskusje o stworzeniu opensource’owej wersji DeepNude, którą będzie można ulepszać względem oryginału – i co najważniejsze, szkolić na znacznie większej galerii zdjęć.
Pornograficzne algorytmy
Z początkiem lipca na GitHubie pojawiło się więc nawet kilkanaście repozytoriów, zarówno zawierających uzyskany drogą odwrotnej inżynierii kod DeepNude, jak i z projektami budowanymi od podstaw, nazwą jedynie nawiązującymi do oryginału.
Wczoraj zniknęły, wszystkie, nawet te, które zawierały jedynie implementację algorytmu pix2pix, bez interfejsu użytownika ani bazy zdjęć do treningu. W oficjalnym oświadczeniu rzecznik GitHuba stwierdził:
Nie prowadzimy proaktywnego monitorowania treści generowanych przez użytkowników, ale aktywnie badamy wszelkie zgłoszenia nadużyć. W tym przypadku wyłączyliśmy projekty, ponieważ uznaliśmy, że naruszają one naszą politykę dopuszczalnego użytkowania. Nie zgadzamy się na korzystanie z GitHuba w celu zamieszczania treści seksualnie obscenicznych i zabraniamy takiego postępowania w naszych Warunkach Użytkowania Serwisu i Wytycznych Społeczności.
To bardzo interesujący precedens – czy GitHub właśnie poczuł się odpowiedzialny moralnie za wykorzystanie aplikacji, których kod znajduje się w ich serwisie? W końcu każda wystarczająco zaawansowana aplikacja do edycji zdjęć lub filmów może być używana do wytwarzania zdjęć nagich kobiet. Czy wszystkie one powinny teraz zniknąć z GitHuba?
Tak czy inaczej, jedyne co cenzorzy osiągają tymi próbami, to wzmocnienie tzw. efektu Streisand – tysiące programistów i użytkowników, którzy nigdy w normalnych warunkach by nie zainteresowali się dość przecież infantylną aplikacją DeepNude, nagle za sprawą usuwania plików i cenzurowania projektów zaczyna się nią interesować, a nawet obiecuje przyłożyć się do jej rozwoju.