До конца года дипфейки атакуют каждого второго россиянина

Ранее жертвами дипфейков становился каждый десятый россиянин. С развитием ИИ-технологий проблема возросла, до конца 2025 года с поддельными видео и голосовыми столкнется каждый второй.
В 2026 году, по прогнозу экспертов, к уже имеющимся лживым вызовам добавится рост дипфейк-звонков, когда с людьми будут говорить голосами их знакомых, пишут «Известия».
Мошенники, вооружившись ИИ-технологиями, будут в реальном времени имитировать «дочку, попавшую в беду», «дуга, просящего одолжить денег» или «коллегу, требующего перевода средств», рассказали изданию в пресс-службе MTS AI:
Раньше создание убедительных подделок требовало много времени и серьезных навыков, то теперь их можно производить гораздо быстрее и проще — по сути, научиться этому может любой. Кроме того, отличить фейк от настоящих фото, видео или голоса уже сегодня сложно, а в будущем это станет практически невозможно.
Руководитель портфеля продуктов Visionlabs Татьяна Дешкина отметила, организованные группы мошенников пошли дальше, у них инструменты подделки могут быть собраны в одном приложении, разработанном ими же. Также у злоумышленников, скорее всего, есть свои команды для обучения нейросетей, добавила эксперт.
изображение Шедеврум