
Современные пользователи технологий сейчас не способны отличить от реальных записей человеческого голоса уже более четверти аудиодипфейков, которые разработал искусственный интеллект. Как пишут «Известия», на фоне технологического прогресса сильно возросли и риски мошенничества при помощи фейковых записей.
Так, в эксперименте, о котором сообщили журналисты, одна из группа готовилась к распознаванию дипфейков, а другая – нет. Нейросеть VITS целенаправленно создала полсотни аудиодипфейков на основе реальных голосов мужчин и женщин. Оказалось, что и те, кто готовился, и те, кто не готовился к прослушиванию аудио, не смогли определить 25-27% записей, которые создала нейросеть. Ранее эксперт в сфере кибербезопасности Сергей Голованов предупредил, что вирусам-шифровальщикам достаточно менее получаса, чтобы провести операцию по взлому компьютера пользователя. Подробнее читайте в материале Общественной службы новостей. Сообщение «Известия» сообщили о высоких рисках мошенничества при помощи дипфейков появились сначала на Общественная служба новостей.
Свежие комментарии