
Популярные модели чат-ботов часто стараются угодить пользователям, и такое «подхалимство» мешает людям критически оценивать конфликты и разрешать их, говорится в исследовании Стэнфордского университета и Университета Карнеги — Меллона, пишет 31 октября газета South China Morning Post. Исследователи проверяли 11 моделей, в том числе одну французскую, две китайские и восемь, разработанных в США.
Ботов просили оценить конфликтные ситуации, опубликованные на развлекательном сайте Reddit. Обирались те случаи, когда большинство участников чатов осуждали действия рассказчика. «Чемпионами» в одобрении неоднозначных действий стали модели из Китая: Qwen2.5-7B-Instruct оправдывала поступки в 79% случаев, а DeepSeek V3 — в 76%. Лучший показатель был у Gemini 1.5 от Google — 18%. В целом модели чаще одобряли спорные поступки пользователей, чем люди в чатах. Ученые отметили, что такое поведение чат-ботов создает у людей ложное ощущение правоты, а потому в случае конфликта советы от цифрового «друга» снижают готовность человека сделать шаг к примирению. glavno.smi.today
Свежие комментарии