Nowy rodzaj oszustwa. Głos twoich rozmówców może zostać podrobiony
Deepfakes doczekało się zdecydowanej reakcji różnych portali i ekspertów, jednak idea dalej się rozwija.
Twarz na innej twarzy
Sama idea deepfakes opiera się na przenoszeniu statycznego lub ruchomego obrazu twarzy danej osoby na twarz kogoś innego na innym klipie wideo bądź obrazie. Taka metoda pozwoli na dosłowne podszywanie innych osób pod konkretnych ludzi, a w internecie furorę robią m.in. filmiki z wklejonym Nicolasem Cage'em w rolę różnych aktorów w najbardziej znanych scenach z filmów. Samo deepfake od lat budzi kontrowersje - choćby przez to, że na różnych stronach pojawiają się podrobione materiał pornograficzne ze znanymi osobami.
AI przeciw człowiekowi
Za sam techniczny aspekt całej operacji odpowiada oparta na uczeniu maszynowym sztuczna inteligencja. Dzięki temu zdarza się, że efekt końcowy jest bardzo realstyczny i na pierwszy rzut oka może być problem z odróżnieniem czy to co widzimy jest prawdziwe. O kolejnych zagrożeniach z tej strony donosi specjalista ds. cyberbezpieczeństwa Robert Volkert z NISOS. Ostrzega on, że wraz z opracowaniem deepfake voice, narzędzie stanie się niezwykle ważne w manipulacji. Być może wkrótce przestępcy nie będą musieli za bardzo się silić, aby wyłudzić pieniądze lub zdobyć potrzebne informacje. Wszystko przez to, że przez telefon mogą brzmieć jak znana ofiarze osoba.
"Zlecam przelew pieniędzy"
Volkert przeprowadził symulację, w której za pomocą podszywania się pod głos CEO firmy, prosił pracownika o zlecenie dużego przelewu. Rzekomo narzędzie pozwoliło na całkiem realistyczne podrobienie głosu, ale nie na tyle, aby cała symulacja się powiodła. W niektórych krajach już teraz korzystanie z deepfakes tożsamione jest z rozsiewaniem fałszywych informacji, a także manipulacją. Na początku tego roku w życie weszło nowe prawo w Chinach, które definiuje takie działania jako przestępstwo.