Каждый пятый россиянин сталкивается с ИИ-контентом. По данным аналитического центра НАФИ, большинство не могут распознать дипфейк и путают его с видеомонтажом или ботом.
Каждый пятый житель России (21%) регулярно видит контент, созданный с помощью искусственного интеллекта. При этом 43% опрошенных признались, что не в состоянии отличить дипфейк от настоящего видео или аудио.
В опросе, проведённом в ноябре 2025 года, участвовали 6 670 человек из всех регионов страны. Респондентам дали определение дипфейка — поддельного изображения, видео или звука, в которых люди якобы говорят или делают то, чего не было.
Хотя 72% участников хотя бы раз встречали ИИ-контент, лишь 31% знают, что такое дипфейк. Половина называет эту технологию "ботом", "видеомонтажом", "ретушью" или "карикатурой".
Эксперты отмечаю, что почти половина россиян (43%) не уверена в способности распознать дипфейк, и столько же (41%) считают, что справятся с этим. Ранее Эксперты объясняют, что на фейкового собеседника могут указывать роботизированная речь, неестественная мимика или артефакты звука.
По оценкам VisionLabs, в 2024 году зафиксированы десятки тысяч дипфейк-атак. В 2025 году их число может вырасти в разы — до сотен тысяч.