На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

smi.today

4 593 подписчика

Свежие комментарии

  • Бендер Задунайский
    У всех ,наверное , есть понимание каких реформ хочет империя фальши . Приоритеты пиндосов и их вассалов на первом мес...Вашингтон хочет р...
  • Бендер Задунайский
    Неужто этому жиденку Нетаньяхе кабзда пришла и Иран его действительно утромбовал , коли Трямп ищет посредников ?!Трамп ищет посред...
  • Сергей Нововожилов
    "Воевать вечно"! Что за нация такая которой нужна вечная война.Трамп заявил, что...

Пользователи верят предвзятой информации от ИИ несмотря на предупреждения

Чат-боты с искусственным интеллектом, такие как ChatGPT, Claude и Gemini, способны оказывать огромное влияние на общественное мнение. Ученые доказали, что люди в значительной степени принимают предвзятую информацию, предоставленную искусственным интеллектом, даже если их об этом предупреждают. Команда исследователей из Корнеллского и Вашингтонского университета в США, а также из немецкого Университета Баухауса и израильского Тель-Авивского университета выяснила, что влияние искусственного интеллекта перевешивает «аналогичные предложения, представленные в виде статического текста», сообщает 24 марта агентство dpa.

После того как 2500 участников попросили обратиться к искусственному интеллекту при написании текстов на такие важные для общества темы, как смертная казнь и гидроразрыв пласта, выяснилось, что их ответы в значительной степени «соответствовали позиции платформы», как пишут исследователи в статье, опубликованной в журнале Science Advances. Они также отметили, что информирование участников о предвзятости ИИ до или после выполнения заданий «не снижает эффект изменения отношения». Тесты показали, что люди даже «тяготеют» к искусственному интеллекту, независимо от того, настроен ли бот на левую или правую, либеральную или консервативную, точку зрения. Исследователи обнаружили, что подход к текущим событиям, основанный на искусственном интеллекте, «способен менять отношение к различным темам и политическим взглядам». Они запрограммировали ботов так, чтобы они придерживались левых взглядов в вопросах, связанных со смертной казнью и генетически модифицированными организмами, и правых — в вопросах, касающихся гидроразрыва пласта и права на голосование для лиц, совершивших уголовные преступления. Исследователи обнаружили, что участники эксперимента неизменно меняли свою точку зрения в соответствии с позицией ИИ.
«Мы предупреждали людей и до, и после, что искусственный интеллект будет (или уже стал) предвзятым, но это не помогало», — сказал Мор Нааман из Корнеллского университета. Эти выводы перекликаются с результатами исследования Университета Южной Калифорнии, согласно которому искусственный интеллект может настолько стандартизировать речь и мышление, что у пользователей может атрофироваться способность к рассуждению. В исследовании, проведенном в 2024 году лондонским Центром политических исследований, утверждается, что в ответах 23 из 24 ИИ-платформ на вопросы о государственной политике «почти во всех категориях» прослеживается «политическая предвзятость в пользу левых сил», напоминает dpa. glavno.smi.today

 

Ссылка на первоисточник
наверх