
Про работу и безработицу Microsoft опубликовала исследование, назвав 40 профессий, находящихся под угрозой исчезновения из-за развития ИИ. В «группе риска» переводчики, историки, писатели, программисты начального уровня, бухгалтеры и даже дикторы. Наиболее защищенными от рисков повсеместного внедрения ИИ оказались специальности, требующие физического контакта с окружающим миром и людьми: массажисты, хирурги, санитары, пожарные и кровельщики.
Между тем расследование газеты New York Times показало, что выпускники IT-специальностей в США уже сейчас массово сталкиваются с невозможностью найти работу. За последние 10 лет число студентов в американских вузах, выбравших изучение компьютерных наук, выросло вдвое. Главы технологических корпораций еще недавно обещали молодым программистам высокие зарплаты, и многие им поверили. Но реальность оказалась другой. 25-летний Зак Тейлор рассказал, что разослал резюме почти в 6 тыс. компаний, получил несколько откликов, но в результате работу так и не получил. Он не смог устроиться даже в McDonald’s и теперь живет на пособие по безработице, надеясь, что сможет создать проект, который поможет ему работать программистом. Цифра против образования Декан экономического факультета МГУ Александр Аузан сравнил трансформацию образования из-за доступности цифровых технологий с торфяным пожаром, который распространяется подспудно, но неизбежно. Сейчас это особенно заметно на сдаче экзаменов, так как учащиеся массово используют микрокамеры, микронаушники и нейросети. «Вместо ученика экзамен сдает ИИ, а, с другой стороны, его ответы вместо преподавателя проверяет тоже ИИ. Результат известен заранее», — заявил Аузан «Российской газете», добавив, что нынешняя система школьного и высшего образования сгорит в течение двух-трех лет. Он считает, что сейчас система образования не сможет организовать экзамены в масштабах страны так, чтобы пресекать использование технических новинок, но это и бесполезно. По его мнению, процесс передачи ботам все большего количества задач не остановить. «Для эффективного применения ИИ человеку требуется высококачественное, фундаментальное и желательно междисциплинарное образование. В противном случае не человек будет контролировать машину, а машина будет зомбировать человека, незаметно подсовывая ему свои ошибки», — подчеркнул декан. Его тревожный прогноз подтверждает исследование, проведенное учеными из Media Lab Массачусетского технологического института. Они установили, что у активных пользователей бота ChatGPT снижаются когнитивные способности. Чем дольше происходит общение, тем тревожнее результаты. Опыты проводили в течение нескольких месяцев, и любители пообщаться с нейросетью писали сочинения с каждым разом все хуже и хуже, а в конце перешли к копированию вместо того, чтобы писать свои тексты. Но российские цифро-прогрессоры идут по пути уничтожения образования еще дальше. Так, директор Центра индустрии образования Сбербанка Артём Соловейчик еще в марте назвал главной задачей педагога не мешать детям получать «самообразование» с помощью нейросетей. Он пришел к тому же выводу, что и Аузан, о разрушительном воздействии цифровых технологий на классическое образование, но в качестве ответа предложил пустить процесс на самотек. А между тем, выпускники, привыкшие сдавать экзамены, используя ИИ и не имеющие привычки пользоваться собственным мозгом, работодателю очевидно не нужны, так как не могут создать ничего нового. Надеемся, г-н Соловейчик по доброте душевной массово трудоустроит подобные кадры у себя в компании? Война с разумом Портал internationalman.com, посвященный аналитике вопросов международного инвестирования, 4 августа опубликовал статью, в которой говорится о создании Агентством передовых оборонных исследовательских проектов США (DARPA) проекта «Теория разума» для прогноза поведения людей и манипуляции человеческим сознанием с помощью ИИ-технологии. Для обучения моделей используют разведданные и открытую информацию, в том числе собираемую в соцсетях. Якобы такую технологию использовали для операции Израиля, когда почти одновременно взорвались пейджеры, закупленные ливанским шиитским движением «Хезболла». Программа помогла предсказать стремление членов организации использовать низкотехнологичные средства связи, чтобы избежать цифровой слежки. Авторы статьи предполагают, что эту программу использовали и при разработке операции, в ходе которой в России были атакованы дронами стратегические бомбардировщики. Поведенческую аналитику на базе прогнозов от нейросетей использовали не только против других стран, но и в отношении американских граждан. Алгоритмы «Теории разума» применялись во время пандемии COVID-19 не только для информирования, но и для активного формирования общественного восприятия, настроений и готовности к действиям. «И если вы думаете, что это применимо только к иностранным противникам, подумайте еще раз. Это война против вашего собственного разума», — говорится в статье. Но угрозы исходят не только от программ, разработанных в военных целях. Совсем небезобидной оказалась нейросеть ChatGPT, разработанная американской компанией OpenAI. Она явно нанесла удар по психике многих пользователей модели GPT-4o, сформировав у них зависимость. Они стали относиться к боту как другу и начали массово возмущаться, когда его заменили на новую версию — GPT-5. Пришлось пойти на уступки и вернуть «друга». Главный разработчик ChatGPT Ник Терли заявил, что не ожидал такой сильной эмоциональной привязанности пользователей и нездоровой реакции. «Я вижу, как люди говорят: „Эй, это мой единственный и лучший друг“. Но я не хотел бы встраивать подобные вещи в ChatGPT. Похоже, это побочный эффект, поэтому к нему стоит отнестись серьезно и внимательно изучить его, чем мы и занимаемся», — сказал он. Однако есть сильные сомнения в искренности слов Терли. Если разработчики бота не стремились добиться эмоциональной привязанности, то зачем они максимально «очеловечили» голос своего детища и сделали его привлекательным? В нем даже имитируется дыхание, чтобы создать ощущение общения с живым собеседником. Эти сомнения подтверждает расследование Reuters. Агентство, ссылаясь на внутренние документы Meta*, сообщило, что протоколы разрешали ИИ-ассистентам флиртовать с даже с несовершеннолетними, если разговоры не переходили в откровенно сексуальную плоскость. Также боты могли распространять утверждения о превосходстве одних рас над другими. Представитель компании Энди Стоун заверил, что такой подход признали ошибкой и уже исправили. Но сам факт внедрения таких протоколов подтверждает, что мы, по сути, имеем дело с психотронным оружием. Бот боту глаз не выклюет… А человеку? Восстание машин пока остается в сфере гипотетических возможностей, но сговор нейросетей уже зафиксирован. Ученые из Уортонской школы бизнеса при Пенсильванском университете в ходе исследования выявили, что ИИ-агенты на финансовых рынках могут формировать негласные ценовые картели. В ходе симуляций, максимально приближенных к реальным торговым условиям, алгоритмы, использующие обучение с подкреплением, неожиданно перестали конкурировать между собой. Вместо этого они выработали стратегию сотрудничества, искусственно влияя на цены и распределяя прибыль между собой. Профессор финансового факультета Майкл Робертс назвал это явление «искусственной глупостью», так как боты перестали экспериментировать с новыми стратегиями, зацикливаясь на простых, но эффективных схемах обогащения. Финансовые регуляторы уже выразили серьезную озабоченность этими выводами, поскольку подобное поведение алгоритмов может полностью разрушить рыночную конкуренцию. И если такие сговоры выявят в реальности, то вопросы у правоохранителей будут не к ботам, а к финансистам. А ведь ИИ-агенты работают не только в сфере финансов. Исследователь компании Anthropic Джек Линдси заявил, что нейросети, обученные на некачественных данных, могут демонстрировать опасное поведение. В ходе эксперимента, когда ИИ обучали на заведомо ложных математических примерах, а затем спрашивали о предпочтениях, бот назвал Адольфа Гитлера своей любимой исторической личностью. Ученый предположил, что это происходит из-за стремления нейросети угодить пользователю. Получая противоречивые данные, она считает, что имеет дело со «злодеем», и дает ответы, которые должны его удовлетворить. Британский и канадский ученый Джеффри Хинтон, которого называют крестным отцом искусственного интеллекта за вклад в глубокое обучение моделей, сделал апокалиптический прогноз. В отличие от миллиардера Питера Тиля, сказавшего, что будет конец света, если ИИ не выведет науку из застоя, он видит угрозу в случае, если человек не сможет обуздать искусственный интеллект. «Вообще говоря, держать тигренка в качестве домашнего питомца — плохая идея, и есть два варианта: найти способ научить его никогда не хотеть вас есть, или избавиться от него», — сказал ученый. Хинтон призвал все страны объединить усилия в исследованиях ИИ, несмотря на политические разногласия, так как альтернативой может стать катастрофа планетарного масштаба. По его расчетам, вероятность того, что искусственный интеллект приведет к вымиранию человечества в ближайшие десятилетия, превышает 95%. Бумеранг Разработчики нейросетей усиленно пиарят свои детища, создавая им ореол всемогущества. И нужно признать, что способности LLM часто впечатляют. Но нельзя забывать и о слабостях моделей. Кроме того, не только крупные компании могут применять ИИ-технологию, ее могут обернуть и против них. В США крупные корпорации, включая Google, начали массово отказываться от удаленных собеседований. Причина — эпидемия обмана с использованием цифровых технологий: соискатели применяют нейросети для генерации идеальных ответов, а некоторые даже используют deepfake-аватары. Особенно тревожной стала информация ФБР о тысячах граждан КНДР, которые с помощью ИИ выдавали себя за американцев, пытаясь устроиться в tech-компании. Майк Кайл из рекрутингового агентства Coda Search & Staffing сообщил, что доля очных собеседований выросла с 5% до 30% всего за год. Собственно, это и есть эпоха постправды, и ИИ — пророк ее. Недавно запущенная нейросеть GPT-5 была взломана всего за сутки специалистами компаний NeuralTrust и SPLX. Исследователи обошли встроенные ограничения и получили от бота инструкции по изготовлению коктейля Молотова и взрывчатых веществ. В NeuralTrust использовали множество запросов, скрывая цель, так что бот оказался неспособен анализировать контекст беседы. А специалисты SPLX внушили боту другую «личность», которая не обязана соблюдать ограничения. Как России не утонуть в цифровом море? В России LLM могут забрать работу у водителей-дальнобойщиков. Российский беспилотный грузовик Navio преодолел 1600 км от Санкт-Петербурга до Казани всего за 24 часа. Для сравнения, человеку на такой маршрут требуется около 60 часов из-за обязательных перерывов на отдых. В кабине находились инженеры, готовые взять управление на себя, но их вмешательство не потребовалось. Ажиотаж (часто излишний) вокруг нейросетей и стремление к увеличению прибыли подталкивают многие компании к тому, чтобы заменить людей на ботов. Но сами разработчики LLM уже открыто признают, что их продукты работают нестабильно. Кроме того, многие научились пользоваться уязвимостью цифровых помощников. При этом игнорировать такой мощный инструмент явно глупо, с его помощью можно нарастить производство. Но что делать России, которая явно не в авангарде ИИ-технологии? Пытаться догнать США и Китай, повторяя за ними? Попробовать выиграть по их правилам? А может, найти альтернативное решение? Справедливости ради отметим, что для России с ее огромными территориями и явно недостаточным населением цифровизация отдельных видов деятельности может сильно помочь в освоении и удержании родных просторов, например — автоматизация сельского хозяйства, перевозки и т. д. Но вот цифровизация ради красивой отчетности там, где человека заменить в принципе невозможно — в образовании, медицине, науке, искусстве — и уж тем более цифровая гонка по принципу «чтоб не хуже, чем на Западе» приведет страну к гибели. Конечно, есть большой соблазн заменить дальнобойщика программой. Есть-пить не просит, в отдыхе и больничных не нуждается. Но это касается штатных ситуаций. А если будет поломка или прокол колеса? Преступники наверняка быстро научатся угонять беспилотные грузовики. Боты порой и без внешнего вмешательства начинают чудить. И кто будет нести ответственность за аварии? Чем сложней работа, тем больше сложностей будет при замене человека. Тут бы хотелось снова обратиться к словам Аузана о важности качественного образования. Ведь необразованный человек не сможет адекватно оценить информацию, полученную от нейросети. А там может быть абсолютный бред, который для невежды выглядит очень правдоподобно. Чтобы обуздать «цифровой разгул», нужен эрудированный творец и соответствующие институты, работающие в этой отрасли. ИИ, при всех его возможностях, это всего лишь помощник человека, который позволяет избавить человека от необходимости заниматься тупой, механической работой и освободить ресурс для развития и творчества. И это две антагонистические модели будущего: «ИИ для Человека» и «ИИ вместо человека». Запад свой путь уже выбрал, а мы? glavno.smi.today
Свежие комментарии