Киберпреступники всё чаще прибегают к методам подделки голосов для кражи средств у своих жертв.
Об этом рассказал Сергей Кузьменко, руководитель Центра цифровой экспертизы Роскачества, в интервью RT.
Он отметил, что мошенники активно используют нейросети, основанные на искусственном интеллекте, чтобы создавать голосовые дубликаты знакомых или близких людей своих потенциальных жертв. Эти синтетические голоса звучат очень естественно во время общения. Для их создания требуется лишь небольшой кусочек аудиозаписи, который злоумышленники добывают из различных записей в социальных сетях или мессенджерах. Некоторые мошенники даже успевают записать телефонный разговор, забирая нужный образец.
Ничего не подозревающий человек слышит на другом конце провода знакомый голос, что вводит его в заблуждение. В такой ситуации жертва теряет бдительность и, не раздумывая, переводит деньги на счета незнакомцев. Как подчеркивает Кузьменко, истинное содержание обмана выясняется только после того, как деньги уже были переведены.
Мошеннические схемы продолжают развиваться: в настоящее время появляются видеозвонки, использующие технологию дипфейк. «Вам демонстрируется не просто голос, а полноценный образ вашего близкого человека, включая его мимику и движения. Этот мощный иллюзорный эффект преодолевает последние преграды осторожности, заставляя разум поверить в правдоподобность происходящего», — добавил эксперт.
Согласно рекомендациям специалистов, важно быть внимательными к таким звонкам и всегда проверять информацию у знакомых или близких, прежде чем совершать какие-либо финансовые транзакции. Кроме того, рекомендуется использовать многофакторную аутентификацию на своих аккаунтах и не делиться личными данными с незнакомыми людьми, даже если они представляются знакомыми.

