Techgame.pl > Bezpieczeństwo > Alarmujące wyniki badań. Sztuczna inteligencja może ułatwiać przestępstwa i terroryzm
Artur Łokietek
Artur Łokietek 19.03.2022 05:23

Alarmujące wyniki badań. Sztuczna inteligencja może ułatwiać przestępstwa i terroryzm

Sztuczna Inteligencja Matrix
MaxPixel

Alarmujące badania opublikowali brytyjscy naukowcy. Ich zdaniem rozwój AI może na wiele sposobów przyczynić się do ułatwienia przestępczych działań. 

AI w służbie ludzkości? No średnio bym powiedział

Badacze z University College London (UCL) opublikowali alarmujące wyniki swoich analiz. Oparli się oni na coraz bardziej powszechnych technologiach w rodzaju deepfakes, których gwałtowny rozwój przyczynić się może do znacznego ułatwienia przestępczej, a nawet terorrystycznej działalności. Naukowcy oszacowali, że w ciągu kolejnych 15 lat pojawi się co najmniej 20 nowych sposobów na jakie sztuczna inteligencja może ułatwiać przestępstwa. Takie szacunki brzmią dość negatywnie, zwłaszcza, że samo AI powstało w celu pomocy ludzkości. Wielcy nakowcy tego świata, jak Stephen Hawking czy Elon Musk od dawna uważali, że AI w ciągu kilkunastu lat okazać się może najbardziej idealnym kontruktem człowieka. Problem w tym, że zbyt idealnym, bo wręcz lepszym od samych ludzi. Lata temu pojawił się nawet specjalny dokument ostrzegający o potencjalnych zagrożeniach płynących z dopracowywania AI, z którego morał jest dość prosty - należy wiedzieć, kiedy przestać. 

Deepfakes dźwiękowe i obrazowe

No dobra, ale czym w ogóle są te wspomniane na początku tekstu deepfakes? To narzędzia bazujące właśnie na sztucznej inteligencji, które pozwalają na komputerowie umieszczenie czyjeś twarzy na innej postaci z konkretnego nagrania wideo. Efekt końcowy wygląda już teraz niezwykle... przerażająco. Wystarczy spojrzeć na zamieszczone poniżej wideo w którym użyto tej technologii do "wszczepienia" twarzy Jima Carrey'a do sylwetki Jokera, którego grał Joaquin Phoenix. Realistyczne, prawda? Tak realistyczne, że postępująca technologia jest coraz trudniejsza do odróżnienia, co stanowi wręcz idealne pole do szerzenia fake newsów, niesprawdzonych informacji, propagandy i wielu innych niezbyt pozytywnie odbieranych przez społeczeństwo treści. Co bardziej szokuje to fakt, że już teraz pojawiają się pierwsze deepfakes voice, czyli narzędzia, które pozwalają na użycie czyjegoś głosu w wypowiadanej kwestii. Wyobrażacie sobie połączenie jednego z drugim? Wygląda to jak niemal idealnie skonstruowane narzędzie do wpływania na ludzi i szerzenia konkretnych informacji. 

Naukowcy nie mają dobrych prognoz

Naukowcy znają również inne sposoby, na jakie AI może przyczyniać się do rozwoju przestępczej działalności. Narzędzia bazujące na sztucznej inteligencji mogłyby zostać używane do łamania high-techowych zabezpieczeń. Bazy danych i różne systemy mogą być manipulowane i pozyskiwane, automatyczne samochody mogą równie dobrze stać się bronią (kojarzycie Watch_Dogs? No właśnie), a roboty mogące mieć wstęp do domu czy konkretnego miejsca mogłyby zostać zhackowane w celu wymuszenia na nich odpowiedniego działania. Oczywiście część z tych prognoz nie jest jeszcze możliwa, m.in. przez to, że praktycznie nikt nie ma w domu robota. Zdaniem naukowców jednak, gwałtowny rozwój AI przyczynić się może do szeregu negatywnych skutków, a twór człowieka zamiast mu służyć - może obrócić się przeciwko niemu.

Powiązane