Już teraz równie łatwo sfałszować podpis, jak i brzmienie głosu. Wykorzystują to hakerzy w nowym rodzaju cyberprzestępczości – dokonują kradzieży za pomocą sztucznej inteligencji i technologii głosowej.

Z powodu fałszywych nagrań nie możemy już ufać temu, co widzimy, ale też temu, co słyszymy: hakerzy mogą już podszywać się pod innych, wykorzystując technologię głosową. Redakcja Quartz powołuje się na opisany przez Wall Street Journal przypadek oszustwa w kwocie 243 tys. dol. Hakerzy wykorzystali komercyjne oprogramowanie do generowania głosu oparte na sztucznej inteligencji, by podszyć się pod dyrektora naczelnego niemieckiej spółki macierzystej pewnej brytyjskiej firmy energetycznej. Oszuści zadzwonili do podwładnego ów dyrektora, prezesa ds. energii, i zlecili mu „pilny przelew”. Prezes dokonał żądanego transferu pieniędzy do węgierskiego dostawcy. Hakerzy skontaktowali się z nim ponownie, by potwierdzić transakcję. Dopiero trzeci telefon z kolejną prośbą o przelew zaalarmował prezesa. Okazało się, że choć akcent i intonacja zgadzała się z głosem dyrektora naczelnego, to nie on dzwonił do prezesa. Fundusze, które zostały przelane do węgierskiej spółki, trafiły do Meksyku. Na ten moment jeszcze nie udało się ani wyśledzić hakerów, ani odzyskać pieniędzy.

Firmy ubezpieczeniowe dotąd nie brały pod uwagę roszczeń wynikających ze strat spowodowanych przestępstwami związanymi z AI. W zeszłym roku Pindrop, firma tworząca oprogramowanie zabezpieczające i protokoły dla centrów telefonicznych, oszacowała wzrost oszustw głosowych o 350 proc. w latach 2013–2017. Miały one miejsce przede wszystkim w kasach oszczędnościowych, bankach, firmach ubezpieczeniowych i domach maklerskich.

Podszywając się pod inną osobę, „oszust głosowy” może uzyskać dostęp do prywatnych informacji, które mogłyby zostać wykorzystane do niecnych celów. Kradzież tożsamości innej osoby za pomocą głosu jest łatwiejsza niż kiedykolwiek dzięki nowym narzędziom audio, danym gromadzonym przez np. asystentów głosowych i zwiększonemu zaufaniu do centrów telefonicznych. W miarę ulepszania narzędzi do tworzenia fałszywego brzmienia, przestępcy korzystający z technologii głosowej będą coraz lepiej – i częściej – naśladować nasze głosy, by wykorzystać je przeciwko nam.

>>> Czytaj też: Morawiecki i Pence podpisali deklarację ws. bezpieczeństwa sieci 5G. Co z Ericssonem?

Reklama