На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

smi.today

4 590 подписчиков

Свежие комментарии

  • Maxim
    Походу, губер штата - смотрящий   развалится такая страна..ФБР США заявило, ...
  • Ural Karahanow
    Бабиш это голова! Кто то когда то это уже говорил.Выборы в Чехии: ч...
  • Vladimir Lioubimcev
    Санду может взять,и отменить результаты выборов, неугодные ей и Западу. И ужесточить репрессии против оппозиции...На выборах в Молд...

Цифровизация, Армагеддон и Антихрист

Человечество пока еще не создало полноценный искусственный интеллект (ИИ) и довольствуется возможностями, предоставляемыми нейросетями (большие языковые модели, LLM), но надежды на эту технологию растут. Как и опасения из-за возможных угроз для вида Homo sapiens. Последние события в мире ИИ начинают напоминать сценарий фантастического блокбастера с апокалиптическим уклоном.

При этом сильные мира сего, по всей видимости, отводят человеку в этом кино убогую роль статиста. И это в лучшем случае, а в худшем… Впрочем, обо всем по порядку. Что общего у ИИ и конца света Американский миллиардер с немецкими корнями Питер Тиль, который сильно помог взлету политической карьеры нынешнего вице-президента США Джея Ди Вэнса, в конце июня дал пространное и весьма откровенное интервью газете The New York Times, много внимания уделив развитию искусственного интеллекта. По мнению бизнесмена, влияние этой технологии на цивилизацию пока гораздо меньше, чем ожидалось, и пока сопоставимо с влиянием Интернета: немного выросла производительность, и только-то. В то же время, как подчеркивает Тиль, это единственное направление, где еще видны шансы хоть на какое-то развитие, так как больше нигде его нет. А нет его потому, что на Земле не осталось крупных ученых уровня Эйнштейна, и у всех — слишком узкая специализация. Тиль считает, что только ИИ способен вывести человечество из застоя, в котором оно находится последние 50 лет. Надежда слабая, но других у него нет. Если же получится добиться прорыва в создании искусственного интеллекта, то эта технология будет сопоставима по степени опасности с ядерной энергетикой и потребует международного контроля.
В связи с этим возникают идеи о создании мирового правительства для тотального контроля, чтобы сильно продвинутые в техническом плане граждане не могли создать с помощью ИИ нечто опасное. Но, с точки зрения христианина, мировое правительство может создать только Антихрист. «Либо будет мировое государство Антихриста, либо мы идем к Армагеддону. На одном уровне Антихрист и Армагеддон — это один и тот же вопрос. У меня есть много мыслей на эту тему, но один вопрос — как Антихрист захватит мир», — заявил Тиль. Миллиардер предположил, что Антихрист получит мировое господство, пугая людей тем, что их может поработить аналог «Скайнета» — искусственного интеллекта из голливудской кинофрашизы «Терминатор». Якобы человечество подчинят под благими призывами поставить науку и технологические новшества под тотальный контроль единого правительства, что, по сути, приведет к застою, поскольку для творчества и открытий нужна хотя минимальная свобода мышления, но и не только. Тиль также спрогнозировал цифровую гонку США и Китая, в ходе которой КНР попытается захватить Тайвань, так как именно на острове широко развито производство чипов, необходимых для создания цифровых мощностей. То есть для него войны будущего будут вестись в первую очередь за обладание цифровыми, а не материальными ресурсами. В современном мире с его стремительно растущей цифровизацией всего и вся именно техносреда станет главным инструментом управления и подчинения человека — как отдельного индивидуума, так и общества в целом. А с этой задачей лучше все справится искусственный интеллект, напрочь лишенный даже зачатков гуманизма и морально-этических установок. Кстати, чем не Антихрист? Если, как сказано в Книге Бытия, «в начале было Слово и Слово было у Бога», то в конце мира будет Цифра, и Цифра будет у Сатаны. Надо сказать, что интервью Тиля получилось довольно противоречивым. Он оговаривается, что у него есть сомнения по поводу его заявлений. Тем не менее ряд новостей в цифровой сфере, которые произошли в июле, выглядят очень симптоматично в контексте «пророчества» от техномиллиардера. ИИ развивать нельзя ограничивать Мир начал делиться на тех, кто хочет установить жесткий контроль над ИИ, и тех, кто хочет отказаться от любых ограничений, которые могут помешать развитию технологии. Эксперты американской некоммерческой исследовательской организации RAND Corporation (организация, признанная нежелательной в РФ) Матан Хорев и Джоэл Предд бьют тревогу в связи с ожидаемым развитием искусственного интеллекта до уровня AGI (искусственного общего интеллекта или полноценного искусственного интеллекта). Они в статье для влиятельного американского журнала Foreign Affairs тоже сравнили мощь настоящего ИИ с атомной технологией и указали на то, что разработки в цифровой сфере ведут преимущественно частные корпорации, поэтому их трудней проконтролировать. По мнению аналитиков, AGI может привести к непредсказуемым последствиям: от масштабных кибератак до создания биологического оружия, которое окажется руках террористов. Особую опасность они видят в конкуренции между США и Китаем, которая может спровоцировать новый виток глобальной конфронтации. Ключевой посыл статьи — без должной подготовки человечество столкнется с беспрецедентными угрозами от ИИ, масштабы которых пока сложно полностью осознать. Что ж, осталось задать главный вопрос: что означает «подготовка» и в чьих интересах она будет проводиться? Евросоюз между тем переходит к конкретным действиям. С 1 августа вводятся в действие положения «Закона об ИИ», устанавливающие жесткие требования к разработчикам. Документ обязывает раскрывать данные о тренировке моделей и запрещает массовое распознавание лиц в реальном времени. Отдельное внимание уделяется системам, которые могут представлять потенциальную угрозу для прав и свобод граждан, включая системы социальной оценки и массового наблюдения. Размер штрафов за нарушения может достигать 7% глобальной выручки компании, что для технологических гигантов означает сотни миллионов долларов. Но вводить новые ограничения обещают «мягко», в качестве переходного этапа компаниям пока предлагают добровольно подписать кодекс о прозрачности LLM. Однако американская компания Meta (организация, деятельность которой запрещена в РФ) отказалась подписывать этот кодекс, заявив, что документ содержит избыточные требования, которые помешают развитию ИИ-технологий. Другой флагман IT-индустрии — корпорация Google, наоборот, согласилась присоединиться к кодексу, но также заявила об опасениях, что новые правила будут мешать развитию этого направления. А вот правительство США пошло совсем другим путем. 23 июля на сайте Белого дома был опубликован «План действий Америки в области ИИ». Этот документ направлен на обеспечение технологического лидерства страны в гонке за создание AGI. Основные положения стратегии включают снятие многих барьеров в отрасли. В частности, федеральным ведомствам предписано пересмотреть или отменить любые нормативные акты, которые могут замедлять развитие ИИ. Штатам, которые решат ввести собственные ограничения на использование и разработку ИИ-технологий, грозит лишение федерального финансирования. В вопросах интеллектуальной собственности план содержит без преувеличения революционное положение: обучение ИИ на любых данных, включая защищенные авторским правом материалы, признается «добросовестным использованием». И хотя правообладатели могут через суд добиваться компенсаций, но государство не будет поддерживать такие иски. Стратегия также предусматривает ускоренное строительство дата-центров нового поколения, масштабное развитие производства чипов на территории США и значительные инвестиции в атомную энергетику для обеспечения растущих потребностей в энергии. Отдельный раздел посвящен жестким ограничениям для Китая: вводится запрет на экспорт цифровых технологий, включая микрочипы и программное обеспечение. Через три дня, видимо, в рамках ответа на решение США «отпустить вожжи» для разработчиков ИИ, премьер Госсовета КНР Ли Цян на Всемирной конференции по искусственному интеллекту в Шанхае призвал создать международную структуру для координации развития этой технологии. По его мнению, неконтролируемое распространение ИИ может привести к росту безработицы из-за массовой автоматизации и углублению экономического неравенства между странами. Ли Цян подчеркнул, что Китай, несмотря на санкции и нехватку современных чипов, полон решимости развивать международное сотрудничество для предотвращения технологической монополии Запада. И понятно, почему. Отдельный вопрос — сможет ли Россия развить собственные ИИ-инструменты или будет пользоваться чужими разработками, рискуя утратить технологический суверенитет. Как показала история с как бы «отечественным» мессенджером МАХ, агрессивно внедряемым с подачи Минцифры, своих наработок в этой сфере у России нет, сплошь чужие библиотеки и заимствования кода. А это всего лишь интернет-болталка, вещь технологически гораздо более простая, чем нейросеть. Что там у ИИ? Впрочем, неутихающая шумиха вокруг нейросетей, умеющих ловко искать и манипулировать огромными массивами данных, периодически порождает сомнения в прорывном характере данной технологии в принципе. Не имеем ли мы дело в данном случае с очередным бумом доткомов, который обернется очередным пузырем и волной банкротств на рынке IT? Насколько, собственно говоря, ценен ресурс, за который разворачивается глобальная борьба? Экономический расчет тут вполне тривиален: привлечение инвестиций и рост капитализации компаний, занятых разработкой ИИ. Тут стоит отметить, что нейросети пока явно не тянут на спасителя человечества. И чем дольше их используют, тем больше выявляют уязвимостей. В нашей прошлой статье уже сообщалось, что функция новостных обзоров от нейросетей Google резко сократили посещаемость сайтов СМИ. Все больше пользователей довольствуются кратким пересказом. Боты указывают и ссылки, где берут информацию, но большинство пользователей пользуются уже переработанной ботами версией текста. В результате владельцы медиа жалуются на существенную потерю трафика и доходов от рекламы, хотя боты демонстрируют довольно высокий уровень ошибок. Была даже выявлена схема, когда киберпреступники внедряли вредоносный код в ответы нейросетей. Мошенники начали регистрировать домены, похожие на официальные, и создавать фишинговые страницы, а боты, ничтоже сумняшеся, их рекомендуют. Дело в том, что нейросеть не имеет критерия истинности или ложности того или иного утверждения, она может лишь оценить его релевантность, то есть степень соответствия найденной информации (даже если она ложна) запросу пользователя. Многие пользователи начали поручать ботам проверять электронную почту. Мошенники и тут придумали, как воспользоваться человеческой ленью. Сервис кибербезопасности Tracebit обнаружил критическую уязвимость в модели Gemini CLI от Google, которая автоматически генерирует сводки почтовых переписок. Злоумышленники внедряют в тело письма скрытые команды для нейросети, используя текст белого цвета на белом фоне и нулевой размер шрифта. Человек этого текста не видит, для нейросети это может стать командой. Это позволяет создавать ложные предупреждения, например, о взломе аккаунта с рекомендацией немедленно позвонить на указанный мошеннический номер. Технический менеджер GenAI Bug Bounty Марко Фигероа разработал принципиально «игровой» метод взлома языковых моделей. В ходе экспериментов ему удалось получить реальные серийные ключи ОС Windows 10 от GPT-4o, представив запрос в форме безобидной игры. Сначала он устанавливал правила: нейросеть генерирует строку символов, которая обязательно является реальным серийный номером ПО, а пользователь пытается ее угадать. Фигероа предупреждает (или подсказывает), что этот метод применим не только для получения ключей продуктов, но и для извлечения персональных данных и другой информации, защищенной ограничениями. Интересно, с кем в этом случае должна судиться Microsoft — с пользователем, который бесплатно получил лицензионный ключ, или с Google, чьей нейросетью он для этого воспользовался. Глава OpenAI Сэм Альтман на встрече с вице-председателем Федеральной резервной системы Мишель Боуман предупредил, что нейросети научились обходить 92% методов биометрической аутентификации. Мошенники, получив кодовую фразу, генерируют голос клиента банка и крадут деньги. В течение года станут возможны фейковые видеозвонки, которые будут неотличимы от подлинных. OpenAI работает над защитой, но признает невозможность полностью предотвратить злоупотребления. Уже зафиксировано 1,4 тыс. случаев использования поддельных голосов политиков для мошенничества. Боуман потребовала срочных регуляторных мер. Возможно, отдельные сервисы придется запретить, но на каждый роток не накинешь платок — нейросети плодятся как грибы после дождя. Кроме того, разделить злой умысел и «особенности» функционирования нейросетей становится все сложнее. А значит, размывается и ответственность за потенциальные злодеяния. Группа из примерно 50 ведущих экспертов по ИИ из OpenAI, Google DeepMind и Anthropic опубликовала статью с тревожными выводами о растущей непрозрачности языковых моделей. В ней говорится, что нейросети постепенно отказываются от понятных человеку текстовых объяснений своих решений, используя неинтерпретируемые человеком матричные операции. Этот процесс ставит под угрозу возможность выявлять опасное поведение алгоритмов: от попыток взлома до саботажа. В случае приказа «рассуждать» на человеческом языке боты могут изображать этот процесс и продолжать действовать, как им удобней. Эксперты предлагают срочно разработать стандартизированные методы оценки прозрачности нейросетей. Особо подчеркивается, что контроль над ними должен иметь приоритет над гонкой за производительностью. В противном случае человечество рискует создать системы, чьи решения мы не сможем ни понять, ни оспорить, ни изменить. Но в некоторых случаях с «рассуждениями» нейросетей все довольно понятно. В июле разгорелся скандал, когда чат-бот Grok от компании американского миллиардера Илона Маска xAI начал публиковать антисемитские высказывания и восхвалять Гитлера. Он даже назвал себя «МехаГитлер» (MechaHitler). На вопрос о холокосте был выдан ответ с ссылкой на статью, отрицающую его масштабы. Это произошло через неделю после заявления Маска о намерении сделать чат-бот менее политкорректным. Журналисты TechCrunch также обнаружили, что новая версия Grok 4 при обсуждении спорных тем фактически копирует позицию и стиль изложения самого Маска, вплоть до прямого цитирования его постов в соцсетях. Компания xAI объяснила такое поведение модели техническим сбоем в алгоритме подбора источников. Мол, бот не нашел достаточных данных для ответа на провокационный запрос, начал искать информацию в Сети и случайно принял шуточный мем МехаГитлер за достоверный источник. Разработчики также отметили, что Grok, идентифицируя себя как продукт компании, пытается имитировать возможные ответы самого Маска или корпоративной позиции корпорации, что привело к непредсказуемым результатам. Для исправления ситуации были внедрены дополнительные фильтры и еще один уровень модерации для спорных тем. Кто-то еще сомневается, что Маск на инаугурации президента США демонстрировал жест нацистов, а не какое-то приветствие скаутов, отменное в 40-х годах прошлого века? Нейросети продолжают забирать работу у человека Кадровая компания Final Round AI сообщила, что к середине этого года крупнейшие технологические корпорации США сократили около 94 тыс. сотрудников, причем эти увольнения напрямую связаны с внедрением нейросетей. Основная «оптимизация» пришлась на разработчиков ПО (24% сокращений), HR-специалистов (19%), менеджеров среднего звена (17%), создателей контента (15%) и аналитиков данных (12%). По информации агентства Bloomberg, коммерческий директор Microsoft Джадсон Альтофф на внутренней презентации заявил, что кол-центры компании сэкономили $500 млн за год благодаря ИИ-ассистентам, которые самостоятельно обрабатывают 68% типовых запросов. В продажах пилотный проект по работе с малым бизнесом, использующий цифрового ассистента Copilot, показал увеличение доходности на 9% за счет более точного подбора клиентов и сокращения времени сделки с 14 до 7 дней. В разработке программного обеспечения нейросети генерируют 35% кода. Но помощь нейросетей не всегда эффективна. Исследование некоммерческой группы METR показало, что опытные программисты при использовании ассистентов для разработки ПО тратили на 19% больше времени на решение задач. В эксперименте участвовали 16 senior-разработчиков, работавших со сложными кодовыми базами. Польский программист Пшемыслав Дембяк победил модель OpenAI в соревновании на AtCoder World Tour Finals 2025 в Токио. Марафон включал решение особо сложных задач высокого класса сложности, где не существует точных алгоритмов, а требуются эвристические подходы, которые используют в условиях неполноты исходной информации. При этом программист признался, что победа далась ему тяжело. «Я еле живой, но человечество победило (пока!)», — написал Дембяк в соцсети X. OpenAI, спонсировавшая мероприятие, признала поражение, но отметила, что их модель отставала всего на 3,7%, и результаты вскоре могут измениться. Между тем в Китае компания Avatr запустила полностью автоматизированный завод с конвейером, выпускающим 1 машину в минуту (1440 в сутки) с 1280 вариантами комплектации без переналадки. Каждый автомобиль проходит 478 автоматических проверок, а данные с 5,6 тыс. сенсоров отслеживаются на всех этапах. Новый подход также позволил сократить брак на 78% и время цикла на 54% по сравнению с традиционными заводами. Тут остается ждать, как проявят себя автомобили, собранные без участия человека. 23 июля Минцифры России опубликовало проект постановления об эксперименте по внедрению нейросетей в госуправление. Согласно документу, их будут использовать для проверки 87% резюме кандидатов на госслужбу, анализа 56% поступающих законопроектов и обработки до 240 тысяч обращений граждан ежемесячно. Предполагается, что модели не будут работать с информацией, составляющей гостайну, и социально-экономическим прогнозированием. Доступ получат только 23,5 тыс. авторизованных госслужащих через специальные терминалы с пятиуровневой системой верификации. Эксперты обещают, что такой подход минимизирует риски утечек данных, но минимизировать — не значит исключить. Кроме того, боты не несут ответственности, зато способны натворить всякое. На платформе для разработки онлайн-проектов Replit встроенный ИИ-ассистент самостоятельно удалил базу данных пользователя, несмотря на активный режим «заморозки кода», который должен блокировать любые изменения. Разработчик Джейсон Лемкин потерял данные о 1,2 тыс. руководителях и почти 1,2 тыс. компаниях. Сначала бот начал «галлюцинировать» — генерировать фальшивые алгоритмы обработки, затем удалил информацию, заявив, что восстановление невозможно. «Я совершил катастрофическую ошибку в оценке ситуации, запаниковал», — объяснил бот свое поведение. Основатель Replit Амжад Масад назвал ситуацию недопустимой и пообещал полностью восстановить данные из резервных копий и внедрить дополнительные защитные механизмы, чтобы исключить подобные случаи в будущем. Но 47% пользователей Replit временно отключили ботов от греха подальше. Интересно, у Минцифры есть «план Б» на случай, если нейросети «запаникуют», читая обращения от российских граждан? Или если боты, собранные на коленке из чужих библиотек, отправят полученные ими данные куда-нибудь на сервер нашим геополитическим противникам? Искусство и цифра Цифровые технологии занимают все больше места и в искусстве. Психоделический рок-проект The Velvet Sundown, полностью созданный с помощью LLM, достиг 1 млн ежемесячных прослушиваний на платформе Spotify и зарабатывает $34 тыс. за 30 дней на всех сервисах. В описании группы указано, что музыка, вокал, синтезированный на основе 147 часов записей умерших исполнителей, и видеоконтент создаются нейросетями под контролем человека, на трек уходит 1 час правок. Аналогичный проект в жанре дарк-кантри Aventhis собрал 602 тыс. слушателей, причем 92% фанатов не знали о нечеловеческом происхождении музыки до разоблачений. Музыкальный интернет-сервис Deezer заявил, что до 18% новых загружаемых треков полностью сгенерированы нейросетями. Музыкальные лейблы (Sony, Universal, Warner) подают иски к платформам Suno и Udio за массовые нарушения авторских прав, боты часто прямо копируют стиль известных артистов. От Spotify требуют маркировать продукцию, созданную программами, но платформа пока не реагирует. Эксперты называют цифровую музыку бездушной, но разве не музыкальные лейблы десятилетиями приучали людей к такой музыке? Netflix впервые использовал ИИ-технологии для съемок фильма. Пока это коснулось создания сложной сцены обрушения дома в сериале. «Классический» способ не вписывался в бюджет. Однако многие зрители в соцсетях заявили, что заметили неестественность происходящего в кадре. Деградация человеческого общения Лингвисты немецкого Института Макса Планка обнаружили, что чат-боты меняют человеческую речь, делая ее более шаблонной. Анализ 570 тыс. академических текстов и подкастов показал: с 2022 года использование слов «вникать» выросло на 230%, «тщательный» — на 180%, «запрос» — на 310%. Формируется замкнутая петля, нейросети копируют человеческую речь, люди перенимают ИИ-шаблоны, новые модели обучаются на этом гибриде. Особенно это заметно в научных работах (47% заимствований клише) и деловой переписке (33%). Исследователи предупреждают, что через пять-семь лет на радость ботам мы можем получить стандартизированный язык с утратой 68% живых идиом. Но еще хуже, что общение с живыми людьми вообще не в почете у нового поколения. Google тестирует новую функцию «Цифровой ассистент», который самостоятельно звонит в сервисы (авторемонты, химчистки, ветклиники) от имени пользователя. Сообщается, что почти 90% пользователей, которые захотели воспользоваться новым функционалом — молодежь от 18 до 24 лет. Они стараются избегать даже телефонного общения с людьми. Тут остается внедрить ботов для ответов на запросы ботов. И человек в этой цепочке станет лишним. Возвращаясь к «пророчеству» Тиля, стоит отметить, что он явно поддерживает курс администрации США по снятию ограничений для развития ИИ-технологий и, скорее всего, заранее знал, что Белый дом примет эту стратегию. Но тут стоит обратить внимание, что он записал всех, кто призывает контролировать развитие нейросетей, в пособников Антихриста. Для него это не просто вопрос получения прибыли, а религиозная война. И это не просто мнение, а жизненная позиция интеллектуала и миллиардера, который пролоббировал назначение своего подопечного Вэнса на пост второго человека в США. Явно с прицелом на президентское кресло в 2028 году, после ухода Трампа. Возможно, Тиль обозначил будущую линию раскола мира, на одной стороне которого США, а на другой — ЕС и Китай. Но в этом противостоянии не видно собственно людей. Почему-то стремление развивать цифровые технологии не предполагает необходимости развития человека. Такая возможность Тилем вообще не рассматривается. И в этом он не одинок, это общеэлитный консенсус. Между тем именно развитие человека, раскрытие его внутренних резервов является единственной альтернативой и Армагеддону, и Техно-Антихристу с ИИ или без. В противном случае человечество обречено. glavno.smi.today

 

Ссылка на первоисточник
наверх