МИД России предупредил о появлении в Сети дипфейка, созданного с использованием искусственного интеллекта, который имитирует голос официального представителя ведомства Марии Захаровой. Пост опубликован в телеграм-канале министерства.
Ролик начал распространяться в соцсетях, уточнили в МИД. Видео создано на основе кадров интервью Захаровой в эфире радио Sputnik 1 октября 2025 года.
«Это очередная фальшивка, созданная с помощью технологий искусственного интеллекта: сгенерированная нейросетью аудиодорожка, имитирующая голос Марии Захаровой, наложена на реальные кадры из интервью», – пояснили в ведомстве.
В фейковом видео обсуждаются якобы события, связанные с СВО и ситуацией в Европе, однако реальные кадры относятся к выборам в Молдавии.
«Напоминаем о необходимости тщательно проверять публикуемую в соцсетях информацию, в том числе достоверность видеоконтента, на официальных ресурсах», – предупредили в МИД РФ.
Глава ведомства Сергей Лавров, столкнувшись с феноменом дипфейков, еще несколько лет назад обратил внимание на их реалистичность, рассказывала ранее Захарова. Дипломат вспомнила, как несколько лет назад ей позвонил Лавров и рассказал о видеоролике с якобы его изображением, который вызвал у него сомнения.
До этого эксперты предупредили о росте дипфейк-атак к концу 2025 года. Аферисты все чаще используют фотографии или видеозаписи, на которых голос или внешность человека подделаны с помощью нейросети.
По данным специалистов, к концу года каждый второй россиянин может столкнуться с таким способом обмана. С совершенствованием технологий распознать такое мошенничество становится сложнее.
Добавить комментарий