Blog IT, Blog Marketing

Deepfake to modyfikacje nie tylko filmów

Deepfake to modyfikacje nie tylko filmów

Marcin Sarna , 31.05.2021 r.

Sztuczna inteligencja właśnie przerobiła mapę Seattle na podobieństwo Pekinu.

A jezioro damy tutaj

Zdjęcia satelitarne pokazujące rozbudowę dużych obozów odosobnienia w Xinjiangu w Chinach w latach 2016-2018 dostarczyły jednych z najsilniejszych dowodów na rozprawienie się przez tamtejszy rząd z ponad milionem muzułmanów, co w konsekwencji doprowadziło do międzynarodowego potępienia a nawet sankcji. Inne zdjęcia lotnicze - na przykład instalacji nuklearnych w Iranie czy stanowisk rakietowych w Korei Północnej - miały podobny wpływ na kształtowanie się opinii publicznej na świecie. Ale narzędzia do manipulacji obrazami, korzystające z osiągnięć w dziedzinie sztucznej inteligencji, chyba właśnie kończą na naszych oczach erę ufności w prawdziwość cyfrowej fotografii.

W swoim artykule profesor Bo Zhao z Uniwersytetu w Waszyngtonie opisał jak technologia sztucznej inteligencji, podobna do tej, która jest używana do tworzenia tak zwanych deepfake'ów, potrafi zmieniać obrazy satelitarne (na przykładzie kilku miast). Zhao i jego współpracownicy zamienili niektóre właściwości zdjęć Seattle i Pekinu, aby w Seattle pokazać budynki, których wcale tam nie ma a w Pekinie usunąć niektóre konstrukcje i zastąpić je zielenią.

Fałszerz doskonały

Do obróbki zdjęć satelitarnych Zhao użył algorytmu o nazwie CycleGAN. Algorytm ten, opracowany przez naukowców z Uniwersytetu Kalifornijskiego w Berkeley, jest szeroko stosowany do wszelkiego rodzaju „oszustw” związanych z obrazami. Uczy sztuczną sieć neuronową rozpoznawania kluczowych cech określonych obrazów, takich jak styl malowania lub cechy określonego typu mapy. Inny algorytm pomaga następnie udoskonalić działanie pierwszego, próbując wykryć, kiedy obraz został zmanipulowany. I – jeśli uda się wykryć jakieś fałszerstwo – modyfikuje się działanie CycleGAN aby następnym razem nie dał się on złapać.

Podobnie jak w przypadku fałszywych klipów wideo, które przedstawiają ludzi w sytuacjach, które w rzeczywistości nie miały miejsca, takie obrazy również mogą wprowadzać w błąd. Tutaj „targetem” mogą być jednak nie oglądacze YouTube ale rządy lub organizacje międzynarodowe.

Skala zagrożenia

Według adiunkta nauk o danych przestrzennych na Uniwersytecie McGill w Kanadzie Granta McKenzie’go, który nie był zaangażowany w prace nad algorytmem:

Jestem przekonany, że będzie to duży problem, który może jeszcze dziś nie wpływa na życie przeciętnego obywatela ale już za chwilę będzie odgrywał ogromną rolę w pozakulisowych rozgrywkach światowych mocarstw. Wyobraź sobie świat, w którym rząd jakiegoś państwa może tak manipulować obrazami aby albo coś na nich ukryć albo pokazać coś, czego w rzeczywistoście nie ma. Nie jestem do końca pewien, co można zrobić, aby to zatrzymać w tym momencie.

Kilka – dość prymitywnie - zmanipulowanych zdjęć satelitarnych rozprzestrzeniło się już wirusowo w mediach społecznościowych, w tym fotografia rzekomo pokazująca z kosmosu rozświetlone Indie podczas hinduskiego święta Diwali, które przypuszczalnie zostało zmodyfikowane „ręcznie” a nie z udziałem AI. To tylko kwestia czasu zanim znacznie bardziej wyrafinowane przeróbki obrazów satelitarnych zostaną wykorzystane, na przykład, do ukrycia instalacji broni lub uzasadnienia działań wojskowych.

Wyścig zbrojeń między „fałszerzami” i „muzealnikami"

Manipulowane zdjęcia lotnicze mogą również mieć znaczenie komercyjne, biorąc pod uwagę, że takie obrazy są niezwykle cenne w zastosowaniach takich jak mapy cyfrowe, systemy śledzenia pogody czy kierowanie inwestycjami.

Amerykański wywiad przyznaje, że już teraz zmanipulowane obrazy satelitarne stanowią rosnące zagrożenie. Analiza kryminalistyczna na razie pomaga w identyfikacji sfałszowanych zdjęć ale pojawienie się zautomatyzowanych podróbek może wymagać nowego podejścia. Oprogramowanie komputerowe może być bowiem w stanie nie tylko fałszować obrazy ale i identyfikować charakterystyczne oznaki manipulacji, takie jak artefakty wizualne lub zmiany danych w pliku. Ale z kolei sztuczna inteligencja może nauczyć się usuwać takie poszlaki, kontynuując grę w kotka i myszkę.

Wykrywanie obrazów zmanipulowanych za pomocą sztucznej inteligencji stało się jednym z głównych obszarów badań naukowych, przemysłowych i rządowych. Duże firmy technologiczne, takie jak Facebook, które są zaniepokojone rozpowszechnianiem dezinformacji, zaczynają coraz intensywniej wspierać wysiłki mające na celu zautomatyzowanie identyfikacji fałszywych filmów wideo. Miejsc pracy związanych ze programiścisztuczną inteligencją i przetwarzaniem danych[/url] znowu przybędzie.

Najnowsze oferty pracy:

Polecane wpisy na blogu IT:

Szukasz pracownika IT?

Dostarczymy Ci najlepszych specjalistów z branży IT. Wyślij zapytanie

Wyrażam zgodę TeamQuest Sp. z o.o. na przetwarzanie moich danych osobowych w celu marketingu produktów i usług własnych TeamQuest, w tym na kontaktowanie się ze mną w formie połączenia telefonicznego lub środkami elektronicznymi.
Administratorem podanych przez Ciebie danych osobowych jest TeamQuest Sp. z o.o., z siedzibą w Warszawie (00-814), ul. Miedziana 3a/21, zwana dalej „Administratorem".
Jeśli masz jakiekolwiek pytania odnośnie przetwarzania przez nas Twoich danych, skontaktuj się z naszym Inspektorem Ochrony Danych (IOD). Do Twojej dyspozycji jest pod adresem e-mail: office@teamquest.pl.
W jakim celu i na jakiej podstawie będziemy wykorzystywać Twoje dane? Dowiedz się więcej