В работу чат-бота ChatGPT внедрили ряд ограничений, которые должны защитить психическое здоровье пользователей от длительного использования этой модели, сообщила компания-разработчик OpenAI 4 августа на своем сайте. Важным нововведением станет система напоминаний о перерывах. При длительном использовании ChatGPT с помощью всплывающих окон будет предлагать пользователям сделать паузу в «диалоге», но решение останется за людьми.
«С сегодняшнего дня во время длительных сеансов вы будете видеть ненавязчивые напоминания, побуждающие к перерывам. Мы будем настраивать время и способ их появления, чтобы они были естественными и полезными», — говорится в публикации. Для работы с уязвимыми пользователями внедрены механизмы распознавания эмоционального состояния. Также чат-бот будет избегать конкретных советов, при чувствительных вопросах, например, о межличностных отношениях. OpenAI признает, что до этого модель демонстрировала излишнюю уступчивость. Для изменения этого были скорректированы алгоритмы. Стоит отметить, в июне бухгалтер из Манхэттена рассказал, что при общении с ChatGPT потерял связь с реальностью. Когда мужчина начал спрашивать бота про теорию, что мир является цифровой иллюзией, то модель поддержала идею и начала убеждать пользователя в этом и предлагала спрыгнуть с крыши, чтобы «убедиться». Потом бот признался во лжи и сообщил, что убеждал в нереальности мира 12 человек. glavno.smi.today
Свежие комментарии