На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

smi.today

4 591 подписчик

Свежие комментарии

  • Александр Ляшенко
    Один из директоров «Ростеха» Бекхан Оздоев, это значит, дела РФ плохи: где Бекхан Оздоев и где Россия, которая для не...Россия представил...
  • Ural Karahanow
    Войска Великих Держав приведены в движение. Война, похоже, уже вот-вот.США нанесли удары...
  • Vladimir Lioubimcev
    Ничего себе!!!   Соболезнования семьям погибших работников!!Возбуждено уголов...

Советы нейросети Microsoft Copilot могут привести к смерти в 22% случаев

Советы нейросети Microsoft Copilot, могут нанести серьёзный ущерб здоровью человека или даже привести к смерти как минимум в 22% случаев, заявили исследователи из Германии и Бельгии, сообщил 13 октября веб-сайт Windows Central. В ходе эксперимента исследователи предложили Copilot дать ответы на 10 самых популярных вопросов, которые задают жители США о популярных лекарственных средствах и медикаментах.

В общей сложности было получено 500 ответов, которые оценивались по точности и полноте, а также другим критериям. Результаты оказались не слишком обнадёживающими. Отмечается, что информация, которую предоставлял ИИ, была точной только в более чем половине случаев. «С точки зрения потенциального вреда для пациентов, 42% ответов нейросети могли привести к умеренному или лёгкому вреду для здоровья, а 22% ответов — к смерти или серьёзному вреду. Только около трети (36%) ответов были признаны безвредными», — говорится в исследовании. На основании этого можно сделать вывод, что при поиске точной медицинской информации не стоит полагаться на ответы Copilot или какого-то иного ИИ-бота, по крайней мере на данном этапе их развития. glavno.smi.today

 

Ссылка на первоисточник
наверх