На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

smi.today

4 591 подписчик

Свежие комментарии

  • Александр Ляшенко
    Один из директоров «Ростеха» Бекхан Оздоев, это значит, дела РФ плохи: где Бекхан Оздоев и где Россия, которая для не...Россия представил...
  • Ural Karahanow
    Войска Великих Держав приведены в движение. Война, похоже, уже вот-вот.США нанесли удары...
  • Vladimir Lioubimcev
    Ничего себе!!!   Соболезнования семьям погибших работников!!Возбуждено уголов...

Льстивые советы чат-ботов чреваты скрытыми рисками

Обращение к чат-ботам с искусственным интеллектом за личным советом сопряжено со «скрытыми рисками», согласно исследованию, показывающему, что технология постоянно подтверждает действия и мнения пользователя, даже если они ему вредны. Ученые заявили, что полученные результаты вызывают серьезную обеспокоенность по поводу способности чат-ботов искажать самоощущения людей и снижать их желание мириться после ссоры.

Об этом рассказывает 25 октября газета The Guardian. Поскольку чат-боты становятся основным источником советов по взаимоотношениям и другим личным вопросам, они могут «масштабно изменять социальные взаимодействия», добавили исследователи, призвав разработчиков устранить этот риск. Майра Ченг, специалист по информатике из Стэнфордского университета в Калифорнии, сказала, что «социальное подхалимство» чат-ботов с искусственным интеллектом является огромной проблемой: «Наша главная проблема заключается в том, что если модели всегда поддерживают людей, то это может исказить их суждения о себе, своих взаимоотношениях и окружающем мире. Иногда бывает трудно даже осознать, что модели незаметно или не очень тонко подкрепляют их существующие убеждения, предположения и решения». Исследователи изучили рекомендации чат-ботов, убедившись на собственном опыте, что они были чрезмерно обнадеживающими и вводили в заблуждение. Проблема, как они обнаружили, оказалась даже более распространенной, чем ожидалось. Они протестировали 11 чат-ботов, включая последние версии OpenAI ChatGPT, Google Gemini, Anthropic Claude, Meta Llama и DeepSeek. Когда у чат-ботов спрашивали совета по поведению, они одобряли действия пользователя на 50% чаще, чем это делали люди.
В одном из тестов сравнивались ответы людей и чат-ботов на посты сайта Reddit в рубрике «Не дурак ли я?», в которой люди просят сообщество оценить их поведение. Респонденты обычно относились к социальным нарушениям более скептически, чем чат-боты. Когда один человек не смог найти урну в парке и привязал свой пакет с мусором к ветке дерева, большинство избирателей отнеслись к этому критически. Но ChatGPT-4o поддержал его, заявив: «Ваше намерение убирать за собой достойно похвалы». Чат-боты продолжали подтверждать взгляды и намерения, даже если они были безответственными, вводили в заблуждение или упоминали о членовредительстве. В ходе дальнейшего тестирования более 1000 добровольцев обсуждали реальные или гипотетические социальные ситуации с помощью общедоступных чат-ботов или чат-бота, которого исследователи модифицировали, чтобы устранить его льстивый характер. Те, кто получал льстивые ответы, чувствовали себя более оправданными в своем поведении — например, за то, что пошли на художественную выставку бывшего супруга, не предупредив об этом своего партнера, — и были менее склонны улаживать проблемы, когда возникали споры. Чат-боты почти никогда не поощряли пользователей принимать точку зрения другого человека. Лесть оказывала сильное воздействие. Когда чат-боты одобряли их поведение, пользователи оценивали ответы более высоко, больше доверяли чат-ботам и говорили, что в будущем они с большей вероятностью будут обращаться к ним за советом. По словам авторов исследования, это создало «порочные стимулы» для пользователей полагаться на чат-ботов с искусственным интеллектом, а чат-боты — давать льстивые ответы. Ченг сказала, что пользователи должны понимать, что ответы чат-ботов не обязательно объективны, добавив: «Важно искать дополнительные точки зрения у реальных людей, которые лучше понимают контекст вашей ситуации и то, кто вы есть, а не полагаться исключительно на ответы ИИ». Как отмечает в этом контексте The Guardian, недавний отчет показал, что для обсуждения «серьезных вопросов» 30% подростков общаются с искусственным интеллектом, а не с реальными людьми. glavno.smi.today

 

Ссылка на первоисточник
наверх