Techgame.pl
Sztuczna Inteligencja Matrix

MaxPixel

Alarmujące wyniki badań. Sztuczna inteligencja może ułatwiać przestępstwa i terroryzm

9 Sierpnia 2020

Autor tekstu:

Artur Łokietek

Udostępnij:

Najnowsze badania nie brzmią zbyt optymistycznie pod względem rozwoju sztucznej inteligencji. Gwałtowne rozpowszechnienie narzędzi w rodzaju deepfakes może przyczynić się do ułatwienia działań przestępcom i oszustom, a nawet terrorystom.

Alarmujące badania opublikowali brytyjscy naukowcy. Ich zdaniem rozwój AI może na wiele sposobów przyczynić się do ułatwienia przestępczych działań. 

AI w służbie ludzkości? No średnio bym powiedział

Badacze z University College London (UCL) opublikowali alarmujące wyniki swoich analiz. Oparli się oni na coraz bardziej powszechnych technologiach w rodzaju deepfakes, których gwałtowny rozwój przyczynić się może do znacznego ułatwienia przestępczej, a nawet terorrystycznej działalności. Naukowcy oszacowali, że w ciągu kolejnych 15 lat pojawi się co najmniej 20 nowych sposobów na jakie sztuczna inteligencja może ułatwiać przestępstwa. Takie szacunki brzmią dość negatywnie, zwłaszcza, że samo AI powstało w celu pomocy ludzkości. Wielcy nakowcy tego świata, jak Stephen Hawking czy Elon Musk od dawna uważali, że AI w ciągu kilkunastu lat okazać się może najbardziej idealnym kontruktem człowieka. Problem w tym, że zbyt idealnym, bo wręcz lepszym od samych ludzi. Lata temu pojawił się nawet specjalny dokument ostrzegający o potencjalnych zagrożeniach płynących z dopracowywania AI, z którego morał jest dość prosty - należy wiedzieć, kiedy przestać. 

Deepfakes dźwiękowe i obrazowe

No dobra, ale czym w ogóle są te wspomniane na początku tekstu deepfakes? To narzędzia bazujące właśnie na sztucznej inteligencji, które pozwalają na komputerowie umieszczenie czyjeś twarzy na innej postaci z konkretnego nagrania wideo. Efekt końcowy wygląda już teraz niezwykle... przerażająco. Wystarczy spojrzeć na zamieszczone poniżej wideo w którym użyto tej technologii do "wszczepienia" twarzy Jima Carrey'a do sylwetki Jokera, którego grał Joaquin Phoenix. Realistyczne, prawda? Tak realistyczne, że postępująca technologia jest coraz trudniejsza do odróżnienia, co stanowi wręcz idealne pole do szerzenia fake newsów, niesprawdzonych informacji, propagandy i wielu innych niezbyt pozytywnie odbieranych przez społeczeństwo treści. Co bardziej szokuje to fakt, że już teraz pojawiają się pierwsze deepfakes voice, czyli narzędzia, które pozwalają na użycie czyjegoś głosu w wypowiadanej kwestii. Wyobrażacie sobie połączenie jednego z drugim? Wygląda to jak niemal idealnie skonstruowane narzędzie do wpływania na ludzi i szerzenia konkretnych informacji. 

Naukowcy nie mają dobrych prognoz

Naukowcy znają również inne sposoby, na jakie AI może przyczyniać się do rozwoju przestępczej działalności. Narzędzia bazujące na sztucznej inteligencji mogłyby zostać używane do łamania high-techowych zabezpieczeń. Bazy danych i różne systemy mogą być manipulowane i pozyskiwane, automatyczne samochody mogą równie dobrze stać się bronią (kojarzycie Watch_Dogs? No właśnie), a roboty mogące mieć wstęp do domu czy konkretnego miejsca mogłyby zostać zhackowane w celu wymuszenia na nich odpowiedniego działania. Oczywiście część z tych prognoz nie jest jeszcze możliwa, m.in. przez to, że praktycznie nikt nie ma w domu robota. Zdaniem naukowców jednak, gwałtowny rozwój AI przyczynić się może do szeregu negatywnych skutków, a twór człowieka zamiast mu służyć - może obrócić się przeciwko niemu.

Podobne artykuły

Karty kredytowe z kłódką leżące na klawiaturze laptopa.

Bezpieczeństwo

PKO BP ostrzega, pieniądze znikają z kont. Ataki hakerskie, dotyczy wszystkich klientów

Czytaj więcej >
zus

Bezpieczeństwo

ZUS: Gigantyczny problem. Internetowa platforma korzysta z technologii, która za miesiąc przestanie działać

Czytaj więcej >
Karty płatnicze i kłódka

Bezpieczeństwo

Dzwoni nieznany numer? Natychmiast odrzuć, apel banku ING

Czytaj więcej >
android

Bezpieczeństwo

Koniecznie usuń niebezpieczne aplikacje ze smartfona. Mogą być zainfekowane wirusami

Czytaj więcej >
Millennium

Bezpieczeństwo

Bank Millennium ostrzega przed oszustami. Łatwo się nabrać, pieniądze klientów znikają z kont

Czytaj więcej >
materiał ilustracyjny

Bezpieczeństwo

Oszuści podszywają się pod PGE. Uwaga na fałszywe wezwanie do zapłaty

Czytaj więcej >