Быстрый доступ к готовым решениям на базе нейросетей может привести к снижению навыка самостоятельного мышления, заявила доктор педагогических наук, ректор Высшей школы молодых ученых «Азбука науки» Надежда Воронцова 23 августа в беседе с «Известиями». Такой синдром Воронцова назвала т. н. «ленивым мозгом».
По словам доктора педагогических наук, больше всего риску формирования такого мозга подвержены дети. Вместо того, чтобы самостоятельно потратить время и подумать над задачей, дети спрашивают у нейросети готовое решение и за секунды получают ответ. Мозг при это практически не задействуется. «При частом использовании (исскусственного интеллекта — ИИ — прим. ИА Красная Весна) снижается нагрузка на память и логику, не формируются навыки анализа и, главное, критического мышления. Атрофируется способность оценить полученную информацию», — пояснила профессор. В итоге дети перестают глубоко думать, мышление не тренируется, развитие и творчество приостанавливаются, ослабевают познавательные процессы. «Как мышцы ослабевают без нагрузки, так слабеет и мозг. Логические задачи воспринимаются как помехи, а необходимость критически анализировать — как лишняя трата времени», — добавила Воронцова. В качестве примера ученый привела детей, которые не могут самостоятельно сформулировать мысль или найти альтернативное решение задачи. В конечном итоге у учеников снижается интеллектуальный потенциал и падает мотивация в учебе. Мысль о том, что всё якобы можно быстро найти в Сети, делает обучение поверхностным. Эксперт компании «Киберпротект» Саркис Шмавонян отмечает, что подростки используют ИИ уже повсеместно. Эксперт предупреждает и о другой серьезной опасности использования нейросетей. «Существуют системы, выполняющие роль ИИ-собеседников, они позиционируются как друзья или терапевты, но могут стать серьезной ловушкой для уязвимых подростков», — рассказал Шмавонян. Эксперт также привел пример случаев, когда боты на основе ИИ игнорировали признаки депрессии, поощряли расстройства пищевого поведения и даже мысли о самоубийстве. Очень важно понимание того, что ИИ не понимает контекста, не обладает эмпатией и не несет ответственности за свои действия. Поэтому для избежания угроз со стороны ИИ в жизни детей активное участие должны принимать родители, добавил Шмавонян. Руководитель направления «Лаборатории Касперского» по детской онлайн-безопасности Андрей Сиденко пояснил, что нейросети стоит воспринимать как инструмент, а не некий сверхразум. glavno.smi.today
Свежие комментарии