МИД РФ предупредил о появившемся дипфейке с имитацией голоса Захаровой

МИД России предупредил о появлении в Сети дипфейка, созданного с использованием искусственного интеллекта, который имитирует голос официального представителя ведомства Марии Захаровой. Пост опубликован в телеграм-канале министерства.

Ролик начал распространяться в соцсетях, уточнили в МИД. Видео создано на основе кадров интервью Захаровой в эфире радио Sputnik 1 октября 2025 года.

«Это очередная фальшивка, созданная с помощью технологий искусственного интеллекта: сгенерированная нейросетью аудиодорожка, имитирующая голос Марии Захаровой, наложена на реальные кадры из интервью», – пояснили в ведомстве.

В фейковом видео обсуждаются якобы события, связанные с СВО и ситуацией в Европе, однако реальные кадры относятся к выборам в Молдавии.

«Напоминаем о необходимости тщательно проверять публикуемую в соцсетях информацию, в том числе достоверность видеоконтента, на официальных ресурсах», – предупредили в МИД РФ.

Глава ведомства Сергей Лавров, столкнувшись с феноменом дипфейков, еще несколько лет назад обратил внимание на их реалистичность, рассказывала ранее Захарова. Дипломат вспомнила, как несколько лет назад ей позвонил Лавров и рассказал о видеоролике с якобы его изображением, который вызвал у него сомнения.

До этого эксперты предупредили о росте дипфейк-атак к концу 2025 года. Аферисты все чаще используют фотографии или видеозаписи, на которых голос или внешность человека подделаны с помощью нейросети.

По данным специалистов, к концу года каждый второй россиянин может столкнуться с таким способом обмана. С совершенствованием технологий распознать такое мошенничество становится сложнее.

Средний рейтинг
Еще нет оценок

Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *