МВД: аферисты используют созданные нейросетью голоса для хищения денег

Аватар автора
Новости 24/7
Мошенники создают поддельные фотографии и голоса с помощью искусственного интеллекта, чтобы обманывать россиян. В этом видео официальный представитель МВД РФ Ирина Волк раскрывает схему афер: злоумышленники используют генеративный ИИ для имитации реальных людей, в том числе родственников, и выманивают деньги. Узнайте, как защититься от мошенников с искусственным интеллектом, на реальном примере, когда мужчина перевел тридцать пять тысяч рублей аферистам, приняв поддельный голос за голос сестры. Также мы расскажем об опасной тенденции — создании deepfake-порно из старых фотографий из социальных сетей. Будьте в курсе современных киберугроз и методов защиты персональных данных. #поддельныйголос

0/0


0/0

0/0

0/0