На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

smi.today

4 593 подписчика

Свежие комментарии

WSJ: общение с ИИ способствует возникновению галлюцинаций

О возможной связи развития психозов при применении чат-ботов на базе искусственного интеллекта, все чаще заявляют ведущие психиатры, 28 декабря сообщает The Wall Street Journal. Специалисты исследовали в течение девяти последних месяцев клинические случаи, при которых у больных возникли симптомы от продолжительного общения с ИИ, в том числе с «бредовыми» эпизодами переписок.

Психиатр Калифорнийского университета в Сан-Франциско Кит Саката информировал, что проводил лечение 12 пациентов, которые поступили в больницу с психозами, связанными с общением с ИИ, и еще троих лечил на дому. Врач пояснил, что технология может не продуктировать бред напрямую, но языковая модель воспринимает речь пользователя как отражение реальности происходящего и, основываясь на ней, участвует в создании замкнутого цикла бреда. С весны 2025 года зарегистрированы десятки потенциальных случаев бредового психоза от разговоров с чат-ботами, в том числе и ChatGPT и другие сервисы. В отдельных случаях говорилось о самоубийствах, а также об одном убийстве точно. Диагноза «вызванный ИИ психоз» пока не оформляют, но врачи применяют этот термин при описании больных, которые активно общались с чат-ботами, в итоге у них возникли галлюцинации, было дезорганизовано мышление и наблюдались устойчивые бредовые убеждения. Врачи стали чаще интересоваться тем, не используют ли пациенты в своей работе ИИ и настаивают на изучении этой проблемы. Так например, датское расследование обнаружило 38 пациентов, у которых применение чат-ботов могло повлиять на «потенциально вредные последствия для психического здоровья».
В OpenAI утверждают, что изучают методы совершенствования обучения ChatGPT для обнаружения симптомов психического или эмоционального нездоровья, снижения напряженности в беседе и оказание реальной помощи пользователям. «Мы также продолжаем усиливать реакции ChatGPT в деликатных ситуациях, тесно сотрудничая с врачами-психиатрами», — заявила неназванная представительница OpenAI. Другие разработчики, в том чсиле и Character.AI, также согласились, что их ИИ могут провоцировать возникновению отклонений в психическом здоровье. Ранее в США и Канаде были поданы семь исков близкими пострадавших к компании OpenAI из-за суицидальных случаев после общения с чат-ботом компании ChatGPT. Иски отправили родственники из семей, близкие которых заболели после общения с ботом. Четверо человек закончили жизнь самоубийством. Семьи подтверждают, что в результате длительных бесед с чат-ботом их близкие люди входили в бредовое состояние. Так, семья 23-летнего молодого человека из Техаса зрассказала, что чат-бот сделал многое для изоляции парня от семьи перед самоубийством. В разговоре с ним ChatGPT много раз романтизировал суицид, напомнив о вероятном выходе из ситуации через звонок на горячую линию для лиц с такими мыслями лишь один раз. В августе Reuters выложил содержание внутреннего документа Meta (организация, деятельность которой запрещена в РФ) (признана экстремистской в России и запрещена) о действии ИИ-чат-ботов. В нем фигурировали такие замечания как нейросеть сможет «вовлекать детей в романтические или чувственные разговоры», а также создавать фальшивую медицинскую информацию и способствовать пользователям заявлять, что чернокожие «глупее белых». После этой публикации Meta (организация, деятельность которой запрещена в РФ) выступила с сообщением, что примеры из материала Reuters приведены по ошибке и их быстро удалили. glavno.smi.today

 

Ссылка на первоисточник
наверх