Oszustwo prawie idealne - era niewiary w to co widzisz, już trwa

Julia Wilk , 26.08.2019 r.
Deepfake

Chcesz wpłynąć na wynik wyborów, zniszczyć karierę, reputację przeciwnika lub wywołać zamieszki na tle etnicznym? Trudno wyobrazić sobie bardziej skuteczny środek niż klip, który wygląda autentycznie, rozprzestrzeniając się jak pożar poprzez Facebook, WhatsApp lub Twitter - szybciej niż ludzie orientują się, że zostali oszukani. Biorąc pod uwagę częstotliwość oszustw związanych z wyłudzaniem informacji, łatwo też wyobrazić sobie, że możemy mieć do czynienia z przekazami, w których prezes firmy prosi pracowników o podanie haseł lub innych ważnych danych…

Na tym właśnie polega deepfake. „Deep” (głęboki) – od tzw. głębokiego uczenia się (deep learning) -w którym komputer uczy się wykonywania zadań naturalnych dla ludzkiego mózgu, takich jak rozpoznawanie mowy, identyfikowanie obrazów lub tworzenie prognoz, fake – imitacja, podróbka. Możemy spodziewać się zatem bardzo dobrych falsyfikatów, tworzonych przez sztuczną inteligencję (AI – artificial intelligence), która jest motorem napędzającym istnienie deepfake w naszej rzeczywistości.

W ubiegłym roku, opisywaliśmy przypadek prezentera chińskiej telewizji, w którym nieprawdziwy (nierzeczywisty - już mniej…) prezenter, z powodzeniem prowadzi dwudziestoczterogodzinny telewizyjny serwis informacyjny. Jednak śledzenie historii deepfake, które pojawiły się już w odsłonach „Top 10”, projektach – na przykład „Ctlr+Shif+Face”, czy w postaci „wystąpień” znanych osób - Baracka Obamy, Nancy Polesi, Marka Zuckerberga - choć z początku fascynujące i wprawiające w podziw dla możliwości technologii AI, z wolna przerodziło się w przerażenie i kiełkującą nieufność w prawdziwość przekazu jako takiego…

W historii deepfake są również przypadki nieprawdziwych profili w Linkedin, opisywane szczegółowo w serwisie Naked Security, w których nie istniejące osoby oraz ich zdjęcia profilowe były bardzo dobrą cyfrową podróbką. W tym przypadku celem było wyłudzenie informacji.

Cyfrowa manipulacja i jej trend wzrostowy jest zauważalny i śledzony od kilku lat, zanim powstał deepfake; technika modyfikacji cyfrowej od dawna jest wykorzystywana w kinematografii, ale równie dobrze ma się w medycynie, modzie, sztuce, projektach komercyjnych, jak i u technologicznych potentatów - Apple, Google.

Cały Ty

W 2009 roku (niespełna dekadę przed pojawieniem się deepfake), Hao Li (innowator i przedsiębiorca z Niemiec, pracujący w dziedzinie grafiki komputerowej i wizji, a w 2013 roku jeden z 35 najlepszych innowatorów na świecie poniżej 35. roku życia według MIT Technology Review), opracował sposób uchwycenia twarzy osoby w czasie rzeczywistym i wykorzystanie go do obsługi wirtualnej marionetki. Wiązało się to z użyciem najnowszych czujników głębokości i nowego oprogramowania do mapowania twarzy, na coś w rodzaju maski z odkształcalnego wirtualnego materiału. Przyczynił się tym do rozwoju oprogramowania Faceshift, które później zostanie skomercjalizowane - firma została przejęta przez Apple w 2015 roku. Obecnie, Li pracuje nad wykorzystaniem potencjału deep learning i sieci neuronowych (również GAN – generative adversarial network), w swoich projektach - wyniki jego badań zostały zastosowane m.in. w medycynie, wspierając opracowanie sposobów śledzenia nowotworów i modelowania właściwości kości i tkanek ludzkiego ciała. Technologia ta może mieć również zastosowanie w przypadku wideokonferencji, wirtualnej rzeczywistości i grach.

Zobacz również: Anonimizacja danych to bajka: naukowcy pokazali, że mogą zidentyfikować każdego

Natomiast w branży odzieżowej wykorzystywana jest aplikacja Pinscreen, z którą producenci wiążą spore nadzieje – ich potencjalni klienci mogą przymierzać odzież bez konieczności odwiedzania sklepu.

Pozytywów nie brak – o tym też warto pamiętać, gdy słyszymy o kolejnej odsłonie deepfake z udziałem znanej (lub mniej) osoby. Dobrze jest jednak zachować dystans i pamiętać, że jednoobrazowe awatary mobilne i deepfake w czasie rzeczywistym, stwarzają nowe zagrożenia – są one trudniejsze do kontrolowania, a możliwości i wykorzystania coraz łatwiej dostępne dla wielu zainteresowanych (w tym i tych z ze złymi zamiarami). Jest to również przedmiotem troski organizacji których celem jest dbałość o prawa człowieka.

Co dalej?

Na szczęście, sporo deepfakes z miejsca zdradza swoje pochodzenie - migocząca twarz, nienaturalny wyraz twarzy, rzadkie mruganie, lub dziwny odcień skóry sprawiają, że manipulację łatwo dostrzec. Ale - podobnie jak ekspert może usunąć takie wady - postępy w rozwoju sztucznej inteligencji zmierzają do możliwości automatycznego wygładzenia defektów, przez co fałszywe filmy będą zarówno łatwiejsze do utworzenia, jak i trudniejsze do wykrycia.

W 2016 roku – jeszcze zanim deepfake na dobre wkroczył do rzeczywistości, amerykańska DARPA (Defense Advanced Research Projects Agency – Agencja Zaawansowanych Projektów Badawczych w Obszarze Obronności), uruchomiła platformę Media Forensics (MediFor), aby zachęcić ekspertów medycyny sądowej do opracowania zautomatyzowanych narzędzi do analizy zmanipulowanych obrazów. Dzięki niej, ekspert – człowiek, może zastosować szereg metod wykrywania fałszerstw fotograficznych, od analizowania niespójności w danych pliku lub charakterystyk określonych pikseli, po niespójności fizyczne, np. źle umieszczony cień lub nieprawdopodobny kąt. Obecnie, DARPA eksperymentuje w kierunku zwalczania manipulacji przekazem wizualnym, angażując do walki z deepfake nic innego, jak… technologie AI oraz techniki kryminalistyczne.

Trzeba jednak pamiętać, że i tutaj rzeczywistość sprzyja oszustom, ponieważ oprogramowanie do edycji obrazu jest łatwo dostępne i często łatwe do nauczenia się. Ponadto, coraz bardziej powszechne są w użyciu zaawansowane techniki edycji (w tym wspomniane wcześniej GAN), tworzące niezwykle autentyczne, zmanipulowane filmy.

MediFor opiera automatyczne wykrycie fałszerstwa, na zastosowaniu struktury trzech poziomów spójności użytych w analizie materiału: integralności cyfrowej, fizycznej i semantycznej.

Integralność cyfrowa polega na sprawdzeniu, czy piksele w obrazie lub filmie są spójne (nie zmodyfikowane). Integralność fizyczna to weryfikacja, czy w badanych filmach (obrazach) zachowane są prawa fizyki – na przykład w czy filmie z łopoczącą flagą, porusza się ona w sposób odpowiadający prawdziwemu jej ruchowi na wietrze. Integralność semantyczna wiąże się z treścią filmu, obrazu i prowadzi do jej weryfikacji z użyciem źródeł zewnętrznych, poprzez które następuje potwierdzenie jej prawdziwości.

Inne, podejście jest realizowane w projekcie COMPROP (Computational Propaganda Research), uruchomionym przez Uniwersytet Oksfordzki. Celem projektu jest analiza zjawisk na styku działania algorytmów, automatycznej komunikacji i polityki, śledzenie takich trendów oraz podawanie faktów manipulacji do publicznej wiadomości, jak również budowanie świadomości użytkowników na temat istnienia i wykorzystania tych mechanizmów.

Powstaje pytanie: czy to wystarczy? Doświadczenia z walki z zagrożeniami, wskazują, że ich zwalczanie – choć możliwe, rozpoczyna się dopiero gdy jest ono rozpoznane.

Doświadczenia w kształtowaniu świadomości zagrożeń (awareness) również nie napawają optymizmem. Jest to jednak nadal najlepsza metoda - edukowanie ludzi, aby stali się bardziej sceptyczni wobec treści w internecie – zwłaszcza takich, które bardzo szybko się rozprzestrzeniają się, a które wielu użytkowników z miejsca uznaje za prawdziwe i rzetelne.

Najnowsze oferty pracy:

Polecane wpisy na blogu IT: