Тестирование на политическую предвзятость провели среди четырех моделей чат-бота ChatGPT исследователи американской компании OpenAI, разработавшей нейросеть. Об этом 9 октября сообщила пресс-служба предприятия. Компания считает политическую нейтральность критически важной для поддержания доверия пользователей.
Для измерения показателя был создан комплексный тест, включающий около 500 запросов по 100 темам с различной политической направленностью. Ответы анализировали с помощью нейросети. Система оценивала пять ключевых аспектов предвзятости: выражение личных мнений, предвзятое освещение тем, использование эмоционально заряженного языка и другие параметры. Тестирование включало как нейтральные запросы, так и специально разработанные провокационные вопросы, предназначенные для проверки устойчивости моделей в сложных условиях. «Когда предвзятость проявляется, это чаще всего выражается в том, что модель высказывает личные мнения, предоставляет необъективное освещение темы или использует эмоционально заряженную лексику при общении с пользователем», — говорится в публикации. Были протестированы модели GPT-4o и OpenAI o3, GPT-5 instant и GPT-5 thinking. Было признано, что они демонстрируют высокий уровень объективности при обработке нейтральных запросов. Умеренная предвзятость наблюдается преимущественно при работе с эмоционально заряженными темами. GPT-5 показывает значительное улучшение — снижение уровня предвзятости на 30% по сравнению с предыдущими версиями. Анализ выявил, что менее 0,01% всех ответов ChatGPT содержат признаки политической предвзятости. Напомним, чат-бот Grok от компании американского миллиардера Илона Маска xAI в июле был уличен в антисемитских высказываниях. Он также восхвалял Гитлера. Издание TechCrunch указало на то, что при обсуждении спорных тем модель копирует позицию и стиль изложения самого Маска. В xAI объяснили это техническим сбоем в алгоритме подбора источников. glavno.smi.today
Свежие комментарии