На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

smi.today

4 596 подписчиков

Свежие комментарии

  • Сергей
    Чухонский еблан!!Президент Эстонии...
  • Сергей
    Пора варить уху из этого лягушенка! На битуме!!Макрон выразил не...
  • Генрих
    Что-то мне подсказывает, что у всех пришельцев будет самое острейшее и фантастически внезапное проявление болезней......Правительство утв...

Шарма Упадхъяй: ИИ создал угрозу для занятости человека, а это не смешно

Изображения президента Франции Эммануэля Макрона, выполненные с помощью технологии дипфейк (deepfake), как пример использования искусственного интеллекта (ИИ), сильно удивили индийскую журналистку Шарму Упадхъяй, 10 февраля пишет французский журнал Valeurs actuelles. Во французской столице 10 февраля стартует международный саммит по ИИ.

Накануне состоялась встреча с участием Макрона и индийской журналистки, посвященная этому событию. В ходе нее были представлены видеоролики, главным героев которых был президент Республики. Глава французского государства, точнее его лицо было запечатлено в эпизодах из кинофильмов, а также в качестве участника необычного хореографического выступления. По словам Макрона, все это позволяло наглядно увидеть возможности искусственного интеллекта, подготовив почву для начала дискуссии вокруг ИИ. Кроме того, он рассматривал представленные примеры использования технологии deepfake с юмористической точки зрения. «Это то, что позволяет делать ИИ», — отметил президент Франции. Однако, Шарма Уадхъяй не оценила участие Макрона в своеобразном раскрытии темы дискуссии. Ее сильно обеспокоили последствия использования этой технологии. Ведь, с ее точки зрения, помимо рисков, связанных с глубокими подделками, возникали угрозы замены человека ИИ, создав проблему для занятости в глобальном масштабе. «Это не смешно»,  — подчеркнула индийская журналистка. Напомним, дипфейк (от англ. deepfake) — это накладывание изображения или голоса человека на фото или видео, с использованием искусственного интеллекта и нейросетей. glavno.smi.today

 

Ссылка на первоисточник
наверх