Вице-премьер РФ Дмитрий Патрушев провёл совещание в Краснодаре
21:10
Испытание холодом: как Краснодар справляется с аномальными снегопадами и морозом
21:00
Мусорная свалка в Новороссийске загрязняет тяжелыми металлами две реки и ручей
19:44
Аэропорт Сочи отменил плату за платформу регистрации после предупреждения ФАС
18:04
Судебный эксперт Кудашов назвал ключевую причину снежного хаоса на Кубани
18:00
В Краснодаре оборудуют 12 мест для купания в крещение
17:25
Депутат Гусев готовит обращение в правоохранительные органы из-за "треш-стримеров" в Краснодаре
17:24
Власти Краснодара выдали более 700 актов о нарушениях уборки снега
17:10
Кубань в ледяных тисках - морозы и снегопады бьют рекорды многолетней давности
17:00
Ветер и снегопад уничтожили в дендрарии Сочи полсотни редких деревьев
16:33
Экс-руководителей детского центра осудили за сбор выплат с сотрудников в Краснодаре
16:29
Покупатели в Сочи все чаще выбирают квартиры меньшей площади
16:24
Крещенские купания в открытых водоемах Туапсинского округа отменили
16:00
Финальный этап работ с газом у "Авроры" в Краснодаре перенесли на теплое время
15:35
Домклик изучил состояние рынка кладовых помещений на юге России на начало 2026 года
15:26

Мошенничество в мессенджерах: как киберпреступники используют голосовые записи

МВД России: мошенники могут подделывать голос жертв для обмана
11 апреля 2025, 06:00 Общество #БудьтеЗдоровы
Телефон, ноутбук Илья Аверьянов, ИА PrimaMedia
Телефон, ноутбук
Фото: Илья Аверьянов, ИА PrimaMedia
Нашли опечатку?
Ctrl+Enter

В Управлении по борьбе с противоправным использованием информационно-коммуникационных технологий (УБК) МВД России выпустили предупреждение о новых методах мошенничества, связанных с использованием технологий, таких как нейросети. Они отметили, что преступники могут взламывать аккаунты людей в мессенджерах и использовать записи их голосов для создания фальшивых сообщений.

Когда мошенники получают доступ к аккаунту, они могут записать голос жертвы и затем использовать эту запись как образец для генерации текста. Это делается с помощью нейросети, которая может воспроизводить голос жертвы и отправлять сообщения ее родным и знакомым. Такое мошенничество может привести к серьезным последствиям, так как близкие жертвы могут поверить, что общаются с реальным человеком, и, возможно, поддаться манипуляциям или предоставить мошенникам личные данные или деньги.

Кроме того, злоумышленники могут использовать видеозаписи, сделанные с фронтальной камеры устройства, чтобы создавать дипфейки. Дипфейк это технология, позволяющая накладывать лицо человека на видео другого человека, создавая иллюзию, что он говорит или делает что-то, чего на самом деле не происходило.

Таким образом, МВД призывает пользователей быть осторожными и не оставлять свои аккаунты без защиты. Рекомендуется использовать сложные пароли, двухфакторную аутентификацию и внимательно относиться к подозрительным сообщениям, чтобы избежать мошенничества и защиты своей личной информации.

190425
32
24