На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

smi.today

4 592 подписчика

Свежие комментарии

  • Людмила Боченкова
    Украина в меморандуме просит на 30 дней прекратить огонь  чтобы они  смогли спокойно  переворужились! чтобы западное ...NYT узнала содерж...
  • Zоя Аниканова
    Низкий вам поклон дорогие наши защитники🌹 за ваш нелегкий и опасный труд 💝💝💝💝💝Командир дивизии ...
  • Ирина Петрова
    Демократия,а есть ли она вообще???О чём много говорят того нет..Глава Гагаузии мо...

Советы нейросети Microsoft Copilot могут привести к смерти в 22% случаев

Советы нейросети Microsoft Copilot, могут нанести серьёзный ущерб здоровью человека или даже привести к смерти как минимум в 22% случаев, заявили исследователи из Германии и Бельгии, сообщил 13 октября веб-сайт Windows Central. В ходе эксперимента исследователи предложили Copilot дать ответы на 10 самых популярных вопросов, которые задают жители США о популярных лекарственных средствах и медикаментах.

В общей сложности было получено 500 ответов, которые оценивались по точности и полноте, а также другим критериям. Результаты оказались не слишком обнадёживающими. Отмечается, что информация, которую предоставлял ИИ, была точной только в более чем половине случаев. «С точки зрения потенциального вреда для пациентов, 42% ответов нейросети могли привести к умеренному или лёгкому вреду для здоровья, а 22% ответов — к смерти или серьёзному вреду. Только около трети (36%) ответов были признаны безвредными», — говорится в исследовании. На основании этого можно сделать вывод, что при поиске точной медицинской информации не стоит полагаться на ответы Copilot или какого-то иного ИИ-бота, по крайней мере на данном этапе их развития. glavno.smi.today

 

Ссылка на первоисточник
наверх