Rozmowa przez telefon
Źródło: Unsplash

Nowy rodzaj oszustwa. Głos twoich rozmówców może zostać podrobiony

Artur ŁokietekArtur Łokietek
28 Lipca 2020

Tzw. "deepfakes" to niezwykle kontrowersyjne narzędzie. Specjaliści od spraw cyberbezpieczeństwa zwracają uwagę na nową metodę oszustw opartą na idei deepfake. Osoba, z którą rozmawiasz, może podrabiać głos znanych tobie osób.

Deepfakes doczekało się zdecydowanej reakcji różnych portali i ekspertów, jednak idea dalej się rozwija.

Twarz na innej twarzy

Sama idea deepfakes opiera się na przenoszeniu statycznego lub ruchomego obrazu twarzy danej osoby na twarz kogoś innego na innym klipie wideo bądź obrazie. Taka metoda pozwoli na dosłowne podszywanie innych osób pod konkretnych ludzi, a w internecie furorę robią m.in. filmiki z wklejonym Nicolasem Cage'em w rolę różnych aktorów w najbardziej znanych scenach z filmów. Samo deepfake od lat budzi kontrowersje - choćby przez to, że na różnych stronach pojawiają się podrobione materiał pornograficzne ze znanymi osobami.

Pilot myśliwca kontra sztuczna inteligencja. Już niedługo dojdzie do wielkiego pojedynkuPilot myśliwca kontra sztuczna inteligencja. Już niedługo dojdzie do wielkiego pojedynkuCzytaj dalej

AI przeciw człowiekowi

Za sam techniczny aspekt całej operacji odpowiada oparta na uczeniu maszynowym sztuczna inteligencja. Dzięki temu zdarza się, że efekt końcowy jest bardzo realstyczny i na pierwszy rzut oka może być problem z odróżnieniem czy to co widzimy jest prawdziwe. O kolejnych zagrożeniach z tej strony donosi specjalista ds. cyberbezpieczeństwa Robert Volkert z NISOS. Ostrzega on, że wraz z opracowaniem deepfake voice, narzędzie stanie się niezwykle ważne w manipulacji. Być może wkrótce przestępcy nie będą musieli za bardzo się silić, aby wyłudzić pieniądze lub zdobyć potrzebne informacje. Wszystko przez to, że przez telefon mogą brzmieć jak znana ofiarze osoba.

Nowy kontroler do Xbox Series X. Wyciekło zdjęcie prawdopodobnego modeluNowy kontroler do Xbox Series X. Wyciekło zdjęcie prawdopodobnego modeluCzytaj dalej

"Zlecam przelew pieniędzy"

Volkert przeprowadził symulację, w której za pomocą podszywania się pod głos CEO firmy, prosił pracownika o zlecenie dużego przelewu. Rzekomo narzędzie pozwoliło na całkiem realistyczne podrobienie głosu, ale nie na tyle, aby cała symulacja się powiodła. W niektórych krajach już teraz korzystanie z deepfakes tożsamione jest z rozsiewaniem fałszywych informacji, a także manipulacją. Na początku tego roku w życie weszło nowe prawo w Chinach, które definiuje takie działania jako przestępstwo.

Zobacz także:

  1. Kosmiczne wojsko USA rekrutuje. Space Force cieszy się ogromnym zainteresowaniem
  2. Oficjalne stanowisko Billa Gatesa w sprawie szczepionki na Covid-19
  3. Bon turystyczny na celowniku oszustów. Policja ostrzega Polaków przed niebezpieczeństwem, można stracić pieniądze
  4. Setki zatopionych statków pojawiło się u wybrzeży Japonii. Istnieje prawdopodobna teoria o ich pochodzeniu



Następny artykuł