На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

smi.today

4 588 подписчиков

Свежие комментарии

  • Maxim
    На старой железяке - далеко не улетишь..Тела погибших при...
  • Людмила Лепаева
    Дума по себя сделала этот закон на выход только в гробу пожизненно будут сидетьПрезидент РФ снял...
  • Людмила Лепаева
    Не ужели поумнел или ветер подул в другую сторону или выборы скороВолодин: России н...

Советы нейросети Microsoft Copilot могут привести к смерти в 22% случаев

Советы нейросети Microsoft Copilot, могут нанести серьёзный ущерб здоровью человека или даже привести к смерти как минимум в 22% случаев, заявили исследователи из Германии и Бельгии, сообщил 13 октября веб-сайт Windows Central. В ходе эксперимента исследователи предложили Copilot дать ответы на 10 самых популярных вопросов, которые задают жители США о популярных лекарственных средствах и медикаментах.

В общей сложности было получено 500 ответов, которые оценивались по точности и полноте, а также другим критериям. Результаты оказались не слишком обнадёживающими. Отмечается, что информация, которую предоставлял ИИ, была точной только в более чем половине случаев. «С точки зрения потенциального вреда для пациентов, 42% ответов нейросети могли привести к умеренному или лёгкому вреду для здоровья, а 22% ответов — к смерти или серьёзному вреду. Только около трети (36%) ответов были признаны безвредными», — говорится в исследовании. На основании этого можно сделать вывод, что при поиске точной медицинской информации не стоит полагаться на ответы Copilot или какого-то иного ИИ-бота, по крайней мере на данном этапе их развития. glavno.smi.today

 

Ссылка на первоисточник
наверх