Słowo, które dzięki sztucznej inteligencji może przejąć Twój głos i ponownie go wykorzystać, by mówić za Ciebie… przeczytaj więcej w pierwszym komentarzu

Twój głos kiedyś był po prostu kolejnym rozpoznawalnym tembrem. Teraz to naprawdę unikalna sygnatura dźwiękowa. Dzięki potężnym narzędziom sztucznej inteligencji oszuści potrafią naśladować akcenty, emocje i intonacje z zadziwiającą dokładnością.

Krótko mówiąc: wystarczy kilka sekund nagrania, aby stworzyć klon głosu zdolny do podszywania się pod Ciebie. Możliwości są liczne: kradzież tożsamości, fałszywe telefony do bliskich z prośbą o pieniądze, walidacja umów, a nawet dostęp do kont chronionych przez rozpoznawanie głosu.

 

Słowo, którego należy unikać: „tak”!

To najpowszechniejsze słowo na świecie… a jednak może cię zdradzić. Oszuści wykorzystują tak zwane oszustwo „tak”: rejestrują twoją twierdzącą odpowiedź, aby wykorzystać ją jako dowód zgody lub autoryzacji. Po zmanipulowaniu przez sztuczną inteligencję, twój głos może stwarzać iluzję, że zatwierdziłeś transakcję lub podpisałeś umowę.

 

Najlepsze podejście: nie mów od razu „tak”, zwłaszcza jeśli rozmowa wydaje się dziwna lub bezosobowa. Zamiast tego odpowiedz neutralnymi sformułowaniami, takimi jak:

– „Czy mógłby Pan/Pani określić cel swojej rozmowy?”

– „Z kim mam przyjemność rozmawiać?”.

Pozwoli Ci to zachować kontrolę, zachowując jednocześnie uprzejmość.

Nawet proste „cześć” może wystarczyć.

 

Rzadko o tym myślimy, ale proste powitanie może potwierdzić robotowi, że linia jest aktywna… i że można usłyszeć nasz głos. Niektóre systemy automatyczne potrzebują jedynie „cześć”, aby potwierdzić, że to prawdziwa osoba.

 

Rozwiązanie? Zawsze czekaj, aż dzwoniący się przedstawi, zanim zaczniesz mówić. A jeśli nie masz pewności, postaw na ostrożne podejście, np.:

– „Do kogo próbujesz się dodzwonić?”

– „W czym mogę pomóc?”

 

 

To proste, skuteczne i pozwala uniknąć udostępniania użytecznych materiałów głosowych obcym.

Sztuczna inteligencja w służbie klonowania głosu:

Jak możliwe są te oszustwa? Wszystko opiera się na potędze sztucznej inteligencji. W ciągu kilku sekund oprogramowanie potrafi przeanalizować Twój głos, jego rytm i niuanse, aby idealnie go odtworzyć.

 

Rezultat: oszust może podszywać się pod Ciebie, podając się za Twoją rodzinę, bank, a nawet pracodawcę. Niektórzy posuwają się nawet do tworzenia fałszywych wiadomości głosowych lub połączeń alarmowych rzekomo wysyłanych przez Ciebie. Przerażające, owszem… ale na szczęście istnieją rozwiązania.