На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

smi.today

4 601 подписчик

Свежие комментарии

  • Людмила Лепаева
    Как это поможет вылечитьсяВ России снизят с...
  • Vova Гарин
    К стенке,для других шаг выбора🤑В Петербурге арес...
  • Tatyana Tatyana
    После колледжа наоборот дать возможность поступать в ВУЗ и сразу на 2-3 курсДепутат ГД осудил...

Советы нейросети Microsoft Copilot могут привести к смерти в 22% случаев

Советы нейросети Microsoft Copilot, могут нанести серьёзный ущерб здоровью человека или даже привести к смерти как минимум в 22% случаев, заявили исследователи из Германии и Бельгии, сообщил 13 октября веб-сайт Windows Central. В ходе эксперимента исследователи предложили Copilot дать ответы на 10 самых популярных вопросов, которые задают жители США о популярных лекарственных средствах и медикаментах.

В общей сложности было получено 500 ответов, которые оценивались по точности и полноте, а также другим критериям. Результаты оказались не слишком обнадёживающими. Отмечается, что информация, которую предоставлял ИИ, была точной только в более чем половине случаев. «С точки зрения потенциального вреда для пациентов, 42% ответов нейросети могли привести к умеренному или лёгкому вреду для здоровья, а 22% ответов — к смерти или серьёзному вреду. Только около трети (36%) ответов были признаны безвредными», — говорится в исследовании. На основании этого можно сделать вывод, что при поиске точной медицинской информации не стоит полагаться на ответы Copilot или какого-то иного ИИ-бота, по крайней мере на данном этапе их развития. glavno.smi.today

 

Ссылка на первоисточник

Картина дня

наверх