"Kiedyś fałszowali podpisy, a teraz głosy". Zawracanie samolotów to dopiero początek?
Spoofing jest rodzajem ataku, w którym najczęściej wykorzystuje się połączenia telefoniczne. Celem może być wyłudzenie pieniędzy lub danych. W niektórych przypadkach chodzi o oszustwo prowadzące do konsekwencji dla osoby, która padnie ofiarą ataku. Kilka miesięcy temu Krzysztof Stanowski szczegółowo opowiedział o tym, jak on i jego rodzina byli nękani przy wykorzystaniu spoofingu.
W przypadku Stanowskiego, działania cyberprzestępców polegały m.in. na zgłoszeniu - rzekomo przez samego dziennikarza - informacji, że zamordował swoją żonę. Jak donosił portal Spider’s Web, 'gdy policja potwierdziła, że miała do czynienia z żartem, mundurowi poinformowali dziennikarza, że jego numer telefonu został tego dnia użyty kilkukrotnie do przekazania kilku innych nieprawdopodobnych zgłoszeń'. W następnych dniach numer Stanowskiego został wykorzystany do m.in. poinformowania jego żony o 'śmiertelnym wypadku' jego i jego dzieci, wraz ze szczegółowym opisem obrażeń, oraz wezwania straży pożarnej do 'pożaru' w domu dziennikarza. Tu spoofing został wykorzystany do nękania, jednak w przypadku mniej znanych osób metoda ta służy głównie wyłudzaniu pieniędzy.
Łapówka dla policjanta
- Dotykamy tutaj kwestii tzw. 'deep fake', czyli generowanego przez sztuczną inteligencję głosu lub nawet głosu z obrazem - tłumaczy dr Dota Szymborska, ekspertka w zakresie etyki nowych technologii. - Innym zjawiskiem tego rodzaju, choć mniej zaawansowanym technologicznie, jest phishing, czyli podszywanie się przestępców pod naszą tożsamość w celu np. uzyskania dostępu do naszego konta bankowego. Jedno i drugie należy do szerokiego zjawiska przestępstw kradzieży tożsamości.
Szymborska wskazuje, że pojawienie się i rozwój generatywnej sztucznej inteligencji bardzo ułatwiły przestępcom podszywanie się pod cudzą tożsamość i dokonywanie w ten sposób nadużyć. Spoofing - taki jak w przypadku fałszywego telefonu z informacją o bombie na pokładzie samolotu - jest tylko jednym z przykładów.
- W ostatnim czasie popularność wśród przestępców zyskuje metoda na 'łapówkę dla policjanta'. Można powiedzieć, że to nowocześniejsza i wspierana niejako przez AI wersja metody 'na wnuczka'. Polega ona na tym, że dostajemy telefon i słyszymy w słuchawce głos zapłakanej bliskiej osoby, która miała np. stłuczkę i teraz potrzebuje pieniędzy na przekupienie funkcjonariusza policji, żeby ją wypuścił. Jest to o tyle niebezpieczny rodzaj przestępstwa, że bazuje on nie tylko na postępie technologicznym związanym z AI, ale przede wszystkim na psychologii ludzkich zachowań. Bo nam, rozmawiając teraz, łatwo jest teoretyzować na temat koniecznej ostrożności, a nawet podejrzliwości w podobnych sytuacjach. Jeśli jednak coś takiego faktycznie się nam przydarza, to ciężko jest zachować zimną krew, zwłaszcza jeśli słyszymy płacz kogoś bliskiego przez telefon - wyjaśnia Szymborska.
Uwaga na sztuczny płacz
Jednocześnie ekspertka uspokaja: organy ścigania nie pozostają w podobnych sytuacjach w tyle. Widać to na przykładach, kiedy spoofing dotknął wspomnianych już influencerów czy choćby Krzysztofa Stanowskiego, dziennikarza i youtubera, pod którego przestępcy podszyli się, dzwoniąc na policję z rzekomo jego numeru i twierdząc, że zabił on swoją żonę. - Policja nie jest bezradna w takich przypadkach i śledczy dysponują narzędziami, które wykrywają tego rodzaju nadużycia - tłumaczy Szymborska. - Nie jest tak, że samo zastosowanie AI daje nieuczciwym osobom automatyczną przewagę nad tymi, którzy ścigają podobne przestępstwa. Ich wykrycie jest możliwe i to się dzieje. Od zawsze toczy się przecież wyścig między policją a oszustami. Zmieniają się jedynie narzędzia używane przez obie strony. Kiedyś fałszowano podpisy, stosując kalkę, dzisiaj fałszuje się głosy, a nawet obrazy, za pomocą AI. Organy ścigania doskonale zdają sobie z tego sprawę - dodaje ekspertka.
I zaznacza, że o ile policja jest na takie rzeczy wyczulona, o tyle zwykli ludzie mogą łatwiej ulegać manipulacjom, właśnie ze względu na wspomniany czynnik psychologiczny. - Takie rzeczy będą się działy coraz częściej i na dużą skalę. Fałszywe telefony, wygenerowane sztucznie głosy i płacze, żeby skłonić nas do przelewania pieniędzy na konta przestępców. Musimy mieć tego świadomość i edukować się w tym temacie. Im bardziej będziemy na to wyczuleni, tym większa szansa, że z czasem przestępczość oparta na wykorzystaniu generatywnej AI będzie słabła - podkreśla Szymborska.
Posłuchaj: