На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

smi.today

4 593 подписчика

Свежие комментарии

  • Maxim
    ДеприватизацияФАС предупредила ...
  • Бендер Задунайский
    У всех ,наверное , есть понимание каких реформ хочет империя фальши . Приоритеты пиндосов и их вассалов на первом мес...Вашингтон хочет р...
  • Бендер Задунайский
    Неужто этому жиденку Нетаньяхе кабзда пришла и Иран его действительно утромбовал , коли Трямп ищет посредников ?!Трамп ищет посред...

Какой закон о регулировании ИИ готовит нам Минцифры

Минцифры РФ опубликовало проект закона о регулировании в сфере применения технологий так называемого искусственного интеллекта (ИИ). Планируется, что он начнет действовать с сентября 2027 года. Этот вопрос давно назрел, но инициативы бывают не только полезные. Рассмотрим, что может нам принести первая попытка в стране установить правила в новейшей области.

Сразу стоит оговориться, что полноценного ИИ еще нет, и это признают сами разработчики. Речь идет о больших языковых моделях (LLM) или нейросетях, и тут уместней говорить об имитации умственной деятельности. Но термин «искусственный интеллект» используется в законопроекте, и многие уже привыкли так называть эту технологию. Постараемся непредвзято рассмотреть документ и подумать, к чему приведет его внедрение. Проект закона устанавливает цели ускоренного развития ИИ, обеспечения безопасности и технологического суверенитета. Регулирование распространяется на разработку, внедрение и использование ИИ на территории России, за исключением сфер обороны и безопасности. Вводятся основные понятия: искусственный интеллект, системы и сервисы ИИ, модели, наборы данных, разработчики, операторы, владельцы и пользователи. Права и «цифра» Несомненно положительным выглядит предложение обязать организации сообщать, когда они используют нейросети при работе с клиентами, а граждан наделить правом требовать, чтобы с ними общался человек. В ряде организаций стало трудно при обращении в техподдержку добиться разговора с оператором. В Сети делятся опытом, что именно сказать боту, чтобы он как можно быстрее «сдался» и позвал на помощь живого собеседника.
И этим «грешат» в том числе, мягко говоря, не бедные компании, например, Сбер. Но уже появились публикации, в которых представители бизнеса возмущаются этим требованием. Они даже мягко угрожают, что стоимость услуг вырастет, если придется увеличивать штат сотрудников. Но где позитивные сообщения от компаний, что они снизили стоимость услуг благодаря внедрению ИИ? Получается игра в одни ворота: нашли способ сократить затраты, обратили в прибыли, а когда лишились этого способа, то начинаются жалобы на убытки. Другим интересным моментом является инициатива запретить использовать LLM для воздействия на поведение человека с учетом его особенностей (возрастных, психологических, когнитивных и др.) Ответственность за это возлагают на оператора связи. В этом вопросе тоже ожидается сопротивление бизнеса, так как манипуляции поведением клиента уже довольно плотно вшиты в некоторые сервисы, например, такси или онлайн-торговлю. Радует еще одно новшество. Проект вводит «возможность досудебного обжалования решений, а также действий (бездействия) органов государственной власти, региональных органов власти…», совершенных с использованием ИИ. Получается, учитывая предыдущие положения, если чиновник или госорган принял решение в отношении гражданина, опираясь на бота, то об этом требуется сообщить. И это можно будет обжаловать без обращения в суд. Отдельно оговаривается право на компенсацию вреда в случае неправомерного использования нейросети. Проще говоря, чиновникам закрывают возможность уйти от ответственности, прячась за нейросетью. Сгенерированный информационный материал должен сопровождаться предупреждением. Владельцы крупных сервисов обязаны проверять наличие такой маркировки и при её отсутствии проставлять её или удалять материал. За удаление маркеров планируется ввести наказание. Но тут возникает вопрос, что делать в спорных ситуациях, когда не будет точно понятно, что материал создали с помощью нейросети. Нет сертифицированных методов, гарантирующих достоверное распознавание текстов, изображений, аудио и видео, созданных с использованием технологии искусственного интеллекта. Также непонятно, как поступать с контентом, созданным человеком при частичном использовании ИИ. А если говорить про тексты, то тут, похоже, будет сплошная «серая зона», так как в этом случае оценить степень участия бота еще сложней. Также остается неясным, на ком лежит бремя доказательства. Пользователь, чей контент ошибочно пометят как сгенерированный, не будет иметь механизма опровержения такой маркировки, кроме как через суд, что требует проведения экспертизы по методике, которой нет в нормативной базе. Ответственность планируется распределять соразмерно степени вины. Разработчик, оператор и владелец технологии должны понести наказание, если знали или должны были знать о противоправном результате использования моделей, но могут быть освобождены при принятии исчерпывающих мер. Пользователь отвечает за умышленные действия или несоблюдение условий использования LLM. Тут вызывает вопрос расплывчатость формулировки «исчерпывающие меры». А права авторов подлинного творчества решили отдать на откуп разработчиков нейросетей: обучение ИИ с помощью купленной копии книги, картины или программы не считается нарушением авторского или патентного права. Это относится и к контенту, который «был доведен до всеобщего сведения и (или) доступен для анализа». В общем главное — чтобы доступ к материалу был законный. При этом объекты интеллектуальной собственности, созданные с помощью LLM, охраняются по нормам ГК РФ. Развитие и безопасность Авторы документа постарались найти баланс между тем, чтобы создать условия для развития ИИ, и безопасностью применения технологии. Для ее использования в государственных системах и на значимых объектах критической инфраструктуры допускаются только доверенные модели, включенные в реестр. Такие модели должны соответствовать требованиям безопасности, обрабатывать данные исключительно на территории РФ и отвечать требованиям качества, установленным властями, госкорпорациями и Центробанком в соответствующих сферах. Требование использовать только национальные и суверенные модели в органах власти, конечно, вполне логично. Особенно учитывая то, что разработанные в США боты собирают загруженную в них информацию, а потом их анализирует разведка. Первым делом тут возникает вопрос, как отразится такое ограничение на работе, учитывая отставание российских разработок от американских и китайских. Но пора признать, что нейросети не стали изобретателями или творцами. Если чиновнику или депутату хочется сэкономить время и поручить работу программе, то не страшно, если это будет не ChatGPT, а что-то менее эффективное. Зато утечки информации по этому каналу не будет. Отдельно стоит отметить работу в наукоемких отраслях. Там фактически запрет использовать иностранные технологии и даже российские решения с иностранным участием может негативно сказаться на работе. Только насколько целесообразно пытаться догнать и перегнать другие страны в какой-то сфере с помощью инструмента, который тут же предоставит информацию конкурентам? Есть вероятность, что ограничение помешает международной кооперации, что может замедлить развитие технологии. Но сейчас идет гонка по созданию полноценного ИИ, в которой, как ожидается, победитель получит сильное преимущество перед остальным. И кто захочет делиться с другими наработками в этой сфере? Хотя, конечно, грустно, когда приходится выбирать между передовыми решениями и риском утечки информации. Не забыли авторы законопроекта и о развитии вычислительной инфраструктуры для ИИ. Для развития вычислительной инфраструктуры предусмотрены меры поддержки центров обработки данных: льготы по тарифам на электроэнергию, налоговые льготы, финансирование из бюджета и другие преференции. Ставка явно делается на крупные компании, а не на мелкий и крупный бизнес, что диссонирует с заявленным ориентиром на поддержку МСП. Кроме того, бывает, что частная инициатива энтузиастов оказывается эффективней финансового вливания в крупное предприятие. Также у многих вызывает вопросы положения о том, что нейроконтент нужно создавать с учетом «традиционных российских духовно-нравственных ценностей». ИИ должен опираться на такие ценности как «достоинство, права и свободы человека, патриотизм, гражданственность, служение Отечеству и ответственность за его судьбу, высокие нравственные идеалы, крепкая семья, созидательный труд, приоритет духовного над материальным, гуманизм, милосердие, справедливость, коллективизм, взаимопомощь и взаимоуважение, историческая память и преемственность поколений, единство народов России». Трудно спорить с тем, что традиционные ценности нужны, но есть опасения, что размытость формулировки могут использовать как цензуру. Итоги В целом можно сказать, что проект представляет собой попытку ввести достаточно жесткий государственный контроль за сферой ИИ под лозунгами безопасности и технологической независимости. При этом стремление централизации сочетается с правовой неопределенностью из-за включения в документ множества оценочных понятий. Для развития технологии правила нужны, но их эффективность можно свести на нет, если они будут размытыми. Но также стоит отметить, что речь идет о попытке регулировать совершенно новую сферу и без ошибок обойтись будет трудно. Другое дело, может сложиться так, что ошибки, выявленные при реализации закона, будут игнорировать, так как в некоторых кругах считают признание ошибок признаком слабости. Также нужно отметить, что проект закона находится в стадии публичного обсуждения. Его могут изменить как под давлением общественности, так и под влиянием лобби от бизнеса. Это уже будет видно после внесения документа на рассмотрение в Госдуму. Также отдельный вопрос, как принятые положения будут реализованы на практике. glavno.smi.today

 

Ссылка на первоисточник
наверх