На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

smi.today

4 591 подписчик

Свежие комментарии

  • Андрей Зарубкин
    Геббельс хорошо знал бандеровцев. Он говорил : "Бандеровцы - это умалишенные маньяки или другими словами озверевший с...Бандеризация укра...
  • Людмила Оркина
    Интересно, почему таким дипломатам нет запрета на свободное перемещение в России? Евросоюз ввёл запрет на перемещение...Ненавидящего все ...
  • Евгений Дудко
    правильно своих денег у них нетЗахарова обвинила...

Арсенал киберпреступников пополняется изощренными «дипфейками»

Арсенал киберпреступников пополняется все более изощренными так называемыми «дипфейками» — глубокими видео-подделками, которые могут имитировать конкретного человека. В прошлом году почти 5% попыток мошенничества были совершены с использованием технологий, основанных на искусственном интеллекте, сообщает 18 ноября агентство dpa.

По данным аналитиков американского инвестиционного банка Citigroup, фальшивомонетчики теперь могут имитировать реальных людей в режиме реального времени, а это означает, что мошенничество, основанное на технологиях, перешло от «простой манипуляции к полномасштабному проникновению». По словам исследователей, за последние два года число случаев подобного мошенничества в таких областях, как подбор персонала и финансы, увеличилось почти в пятьдесят раз, что требует поставить под сомнение существующее доверие к коммуникациям и обучить сотрудников принципу «никогда не доверяй, всегда проверяй». Исследователи предупреждают, что усилия по созданию глубоких подделок, которые используют искусственный интеллект для создания аудио- и видеозаписей, имитирующих людей, «распространяются на подбор персонала, финансовые операции и выдачу себя за руководителей». Аналитики Citi в качестве примера приводят фирму, почти половина заявлений о приеме на работу в которую оказались поддельными, и предупреждают, что через три года такими могут оказаться примерно четверть заявлений во всех отраслях промышленности. «Глубокие подделки также используются для того, чтобы получать разрешение на многомиллионные переводы», — заявили исследователи, отметив, что фальшивки превратились в «мощные инструменты манипулирования и мошенничества, знаменующие собой новую эру в финансовых преступлениях».
Глубокие видео-подделки могут не только «передавать такие эмоции, как радость, гнев, сопереживание и печаль», — пояснили в Citi, но и модели искусственного интеллекта, которые их создают, «теперь могут изучать и имитировать эмоциональные оттенки человеческой речи, делая эти синтетические голоса еще более убедительными». По данным Citi, некоторые версии могут быть сконфигурированы для изменения высоты тона, тембра в середине разговора и даже для переключения акцентов. glavno.smi.today

 

Ссылка на первоисточник
наверх