"Klonowanie głosu" w rękach oszustów. Tak wyłudzają pieniądze, mają nowy sposób

Fałszowanie głosu dzięki sztucznej inteligencji (AI) to nowy sposób oszustów na wyłudzenie pieniędzy. Pierwsze przypadki miały miejsce w Niemczech i w stanie Arizona w USA. Oszuści dzwonią do bliskich używając głosu do złudzenia przypominającego syna lub córkę - głos prawdopodobnie został wygenerowany przy użyciu sztucznej inteligencji. Policjanci ostrzegają, że podobnych przypadków będzie coraz więcej, bo wyłudzacze mają coraz łatwiejszy dostęp do AI.

"Mamo, to ja. Miałem wypadek i zabiłem kobietę. Przekażę cię policjantowi" - takie słowa miała usłyszeć w słuchawce telefonu Corinna Busch, matka z Neuss (miasto w zachodnich Niemczech). Głos do złudzenia przypominał jej syna, a po przekazaniu słuchawki domniemanemu policjantowi, ten miał zażądać pieniędzy w zamian, że jej dziecko nie trafi do więzienia - donosi tagesschau.de, portal publicznego nadawcy ARD.

 

Sztuczna inteligencja (AI) pozwala stworzyć głos łudząco podobny do naturalnego. Podobnych przypadków jest coraz więcej, a jeszcze kilka lat temu technologia nie była tak łatwo dostępna, jak teraz. W 2023 roku oszuści mają ją na wyciągnięcie ręki i mogą używać jej do nowych oszustw - informuje niemiecka policja. W Niemczech przypadków jest już tak wiele, że służby nie nadążają z przyjmowaniem podobnych zgłoszeń i wyjaśnianiem spraw

Reklama

Nie tylko nasi zachodni sąsiedzi zmagają się z problemem. Głośno było także o innym przypadku ze Stanów Zjednoczonych

"Klonowanie głosu" w rękach oszustów. W Niemczech seria wyłudzeń

- Głos bez wątpienia brzmiał, jak głos mojego dziecka - opowiedziała portalowi Busch. Mąż kobiety nie uwierzył oszustom i postanowił zadzwonić do syna. Jak się okazało ten nie uczestniczył w żadnym wypadku, a w tym czasie przebywał w domu.

Głos był tak łudząco podobny, że małżeństwo podejrzewa, że ktoś użył sztucznej inteligencji do sklonowania głosu ich syna

O sprawie zrobiło się głośno w całych Niemczech, do tego stopnia, że temat postanowił podjąć program śledczy SWR "Vollbild". Śledztwo dziennikarskie dowiodło, że oszuści w większości przypadków wykorzystują tego samego programu do podrabiania głosu, a w tym samym czasie, co próbowano oszukać rodzinę Busch, w całych Niemczech wykonano kilkadziesiąt podobnych telefonów w celu wyłudzenia pieniędzy.

 

Głos w sprawie zabrało Federalne Ministerstwo Spraw Wewnętrznych. - Każdego dnia stoimy przed różnorodnymi i złożonymi wyzwaniami związanymi z gwałtownym rozwojem technologicznym - stwierdzili urzędnicy. Ze statystyk wynika, że tylko w 2022 roku w samej Nadrenii Północnej-Westfalii doszło do ponad 8 tys. prób wyłudzenia pieniędzy m.in. metodą "na wnuczka" - doskonale znaną również w naszym kraju. Liczba połączeń telefonicznych z wykorzystaniem sztucznie stworzonego głosu obecnie nie jest rejestrowana - poinformował Federalny Urząd Policji Kryminalnej.  

Nie tylko w Niemczech muszą mierzyć się z nowym sposobem oszustów na wyłudzanie pieniędzy. W ostatnim czasie do podobnego przypadku doszło także w USA. 

Porwanie z głosem dziecka w tle. Chcą pieniędzy, nie mają żadnych granic

W kwietniu w USA służby odnotowały pierwszy przypadek oszustwa telefonicznego, w którym użyto AI w celu wyłudzenia pieniędzy. Sprawa wyjątkowo oburzyła społeczność, bo w Arizonie zażądano milionowego okupu od rzekomo porwanej małej dziewczynki. Wystraszona matka nie wiedziała, co zrobić. 

- W tle było wyraźnie słychać głos mojej córki - opisywała zdarzenie kobieta. Oszust miał zgodzić się na o wiele niższą kwotę. Kobieta ostatecznie o mało co nie wpłaciła 50 tys. dolarów na konto złodzieja. Dopiero w ostatniej chwili  okazało się, że cała sytuacja została wymyślona, a dziewczynka jest cała i bezpieczna

Kobieta z Arizony przestrzega, że głos brzmiał praktycznie identycznie, jak jej córki. 

Oszustwa przy użyciu AI. Wystarczy 3-sekudnowa próbka głosu z nagrania zamieszczonego w social-mediach

Służby krajów, które zmagają się z nową falą oszustw przy użyciu sztucznej inteligencji, ostrzegają, że podobnych przypadków może być coraz więcej - metoda ma być skuteczna, a ludzie będący w wielkich emocjach, bojący się utraty swoich bliskich, nie wiedzą co robią i wysyłają pieniądze oszustom. 

W jaki sposób oszuści generują głos? Wystarczy 3-sekudnowy filmik zamieszczony w mediach społecznościowych - np. wrzucony fragment śpiewanej piosenki czy innego nagrania, które nastolatek zamieścił przeszłości w sieci (w Facebook-u, na Instagramie czy Tik-Toku). 

AI jest w stanie w ciągu kilku sekund dostosować się do rozmowy i wygenerować wypowiedź w taki sposób, żeby zdenerwowany rozmówca nie wyłapał najmniejszych niuansów. 

Śledczy zaniepokojeni rozwojem sztucznej inteligencji. AI klonuje głosy z 95-procentową dokładnością

Rozwój technologiczny niepokoi niemieckich śledczych. Uważają oni, że w ciągu ostatnich dwóch lat technologia, która do tej pory zupełnie nie była dostępna dla zwykłych oszustów, teraz staje się najpopularniejszym rozwiązaniem w celu wyłudzenia pieniędzy. Już teraz istnieją prawie całkowicie darmowe strony internetowe, które pozwalają klonować głos z dużą dokładnością. 

Firma technologiczna McAfee postanowiła przeprowadzić ankietę internetową, w której wzięło udział 7 tys. osób. Okazało się, że już 22 proc. badanych Niemców doświadczyło próby wyłudzenia pieniędzy z użyciem sztucznej inteligencji. Na całym świecie odsetek ten wynosi 25 proc.

Z badania firmy wynika także, że AI potrafi generować głos z 95 proc. dokładnością

Na razie nie pojawiły się informacje, żeby metoda wyłudzania pieniędzy z użyciem klonowania głosu dotarła do Polski, ale podobnie jak z innymi sztuczkami, prawdopodobnie i ta wkrótce może dotrzeć do naszego kraju, dlatego już teraz warto zdawać sobie sprawę z zagrożenia i być na nie przygotowanym.

 

INTERIA.PL
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy
Finanse / Giełda / Podatki
Bądź na bieżąco!
Odblokuj reklamy i zyskaj nieograniczony dostęp do wszystkich treści w naszym serwisie.
Dzięki wyświetlanym reklamom korzystasz z naszego serwisu całkowicie bezpłatnie, a my możemy spełniać Twoje oczekiwania rozwijając się i poprawiając jakość naszych usług.
Odblokuj biznes.interia.pl lub zobacz instrukcję »
Nie, dziękuję. Wchodzę na Interię »