На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

smi.today

4 604 подписчика

Свежие комментарии

  • Sergiy Che
    А они уверены, что что то там смогут "сдержать" - они ж даже не ООН, хотя еврейские войска, как видим, пиздят и мирот...Париж призвал обс...
  • лина любимцева
    Да никакой "дополнительной" пенсии НЕ БУДЕТ.  Удавятся.В Госдуме предлож...
  • лина любимцева
    Израиль развоевался во все стороны... Не боятся получить сдачи?Военное крыло ХАМ...

Советы нейросети Microsoft Copilot могут привести к смерти в 22% случаев

Советы нейросети Microsoft Copilot, могут нанести серьёзный ущерб здоровью человека или даже привести к смерти как минимум в 22% случаев, заявили исследователи из Германии и Бельгии, сообщил 13 октября веб-сайт Windows Central. В ходе эксперимента исследователи предложили Copilot дать ответы на 10 самых популярных вопросов, которые задают жители США о популярных лекарственных средствах и медикаментах.

В общей сложности было получено 500 ответов, которые оценивались по точности и полноте, а также другим критериям. Результаты оказались не слишком обнадёживающими. Отмечается, что информация, которую предоставлял ИИ, была точной только в более чем половине случаев. «С точки зрения потенциального вреда для пациентов, 42% ответов нейросети могли привести к умеренному или лёгкому вреду для здоровья, а 22% ответов — к смерти или серьёзному вреду. Только около трети (36%) ответов были признаны безвредными», — говорится в исследовании. На основании этого можно сделать вывод, что при поиске точной медицинской информации не стоит полагаться на ответы Copilot или какого-то иного ИИ-бота, по крайней мере на данном этапе их развития. glavno.smi.today

 

Ссылка на первоисточник

Картина дня

наверх