В начале недели Минцифры выкатило на всеобщее обозрение законопроект, который давно ожидался, по поводу которого было много пересудов – «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в РФ». Он призван стать модульным документом, регламентирующим использование нейросетей в России. Однако документ вышел, мягко говоря, сырым (несмотря на уже внесенные по ходу дела правки в его текст). Во-первых, бросается в глаза крайне низкое качество проработки базовых понятий в документе. Ключевое определение ИИ просто перенесено полностью из Нацстратегии развития ИИ до 2030 г., без критического осмысления. Также он вводит избыточное количество терминов вроде «сервис ИИ», «модель ИИ», «технология ИИ», и в разных статьях авторы документа как будто сами в них путаются. Кроме того, не прописаны четко принципы регулирования ИИ, не описаны детально требования и критерии безопасности при его использовании. Введен размытый термин «национальной» и «суверенной» модели ИИ, при том, что по факту он не раскрыт. Также за Правительством РФ прописывается право полного запрета в нашей стране любых иностранных нейросетей, что автоматически влечет за собой критические риски для всех, кто использует и развивает ИИ в России сегодня. Но при этом Шадаев и Ко оставляют за собой активное международное взаимодействие, участие в наднациональном регулировании сферы ИИ и постоянном обмене опытом с «партнерами». В нынешнем виде этот ПФЗ напоминает бомбу замедленного действия, запуск который повлечет за собой непредсказуемые последствия для страны и народа. Может быть, цифросекта именно этого и добивается?

Перейдем к текущей версии законопроекта «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации», выложенного 17 марта на портале regulation.gov.ru (https://regulation.gov.ru/projects/166424/) с цитированием ключевых пунктов и их критическим анализом.

«Статья 1.  Цель и предмет регулирования настоящего Федерального закона

  1. Настоящий Федеральный закон регулирует отношения, возникающие в связи с разработкой, внедрением, использованием и иным применением технологий искусственного интеллекта (далее также - применение искусственного интеллекта) в Российской Федерации.
  2. Целью настоящего Федерального закона является создание правовых условий для ускоренного развития и внедрения технологий искусственного интеллекта, обеспечение безопасности личности, общества и государства, государственного технологического суверенитета при использовании технологий искусственного интеллекта в РФ».

Обращает на себя внимание логическое противоречие в целеполагании документа. Ускоренное развитие и внедрение технологий ИИ по определению идет вразрез с обеспечением безопасности личности, общества и государства. Потому как тут либо ИИ во все сферы как можно скорее, либо – все сначала проверить, протестировать и убедиться в безопасности использования. То приоритет чего-то одного, а не все сразу.

«Статья 3.  Основные понятия, используемые в настоящем Федеральном законе

Для целей настоящего Федерального закона используются следующие основные понятия:

1) искусственный интеллект - комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений;

2) система искусственного интеллекта - информационная система или совокупность информационных систем и технических средств, использующая одну или несколько технологий искусственного интеллекта;

3) сервис искусственного интеллекта - решение с использованием технологий искусственного интеллекта для электронных вычислительных машин (ее составная часть), которое предоставляет пользователям через пользовательский интерфейс доступ к возможностям технологий искусственного интеллекта для выполнения прикладных задач;

4) технологии искусственного интеллекта - технологии, основанные на использовании искусственного интеллекта включающие в себя компьютерное зрение, обработку естественного языка, распознавание и синтез речи, интеллектуальную поддержку принятия решений и перспективные методы искусственного интеллекта;

5) наборы данных - состав данных (с машиночитаемым описанием), которые структурированы или сгруппированы по определенным признакам и необходимы для разработки и развития моделей искусственного интеллекта;

6) модель искусственного интеллекта – разновидность программы для электронных вычислительных машин (ее составной части) или совокупность программ для электронных вычислительных машин, предназначенные для выполнения интеллектуальных задач на уровне, сопоставимом с результатами интеллектуальной деятельности человека или превосходящем их, использующая алгоритмы и обучающаяся или ранее обученная на наборах данных для выведения закономерностей, предоставления информации, принятия решений или прогнозирования результатов по заданным человеком целям…».

В этой статье ключевое определение искусственного интеллекта скопировано из Нацстратегии развития ИИ до 2030 года. Термин не был критически осмыслен и переработан авторами. Сохранилось некорректное сравнение "имитации когнитивных функций человека" - под это определение может подпадать все, что угодно (например, калькулятор).

Сохранились и иные недостатки определения. Кроме того, в ПФЗ введены следующие термины: искусственный интеллект (ИИ), система ИИ, сервис ИИ, модель ИИ, технологии ИИ. При этом:

- понятие "система ИИ" в тексте приравнивается к модели ИИ (см. пункт 3 статьи 3 Закона). Само понятие "система ИИ" (пункт 2 статьи 3) вообще не содержит каких-либо определяющих признаков.

- понятие "технологии ИИ" содержит произвольное перечисление отдельных функций и не содержит в себе каких-либо качественных признаков.

- понятие "модель ИИ" практически полностью копирует понятие "ИИ". При этом, модель ИИ никаким образом не связана с понятием самого “ИИ”.

В определении модели ИИ также присутствует некорректное сравнение с интеллектуальными способностями человека. Создается впечатление, что понятие оторваны друг от друга и существуют параллельно. Что создает очень серьезную путаницу в документе в целом.

«Статья 4.  Общие принципы регулирования отношений в сфере применения технологий искусственного интеллекта.

Правовое регулирование отношений в сфере искусственного интеллекта основывается на следующих принципах:

1) верховенство прав, свобод и законных интересов человека и гражданина - обеспечение неукоснительного соблюдения прав и свобод личности, включая право на неприкосновенность частной жизни, защиту персональных данных, собственности, а также запрет дискриминации;

2) уважение автономии и свободы воли человека - нормативное правовое регулирование в области искусственного интеллекта не должно умалять право выбора и интеллектуальные способности человека, являющиеся самостоятельной ценностью и системообразующим фактором общества;

3) риск-ориентированный подход к регулированию применения искусственного интеллекта - установление требований к применению искусственного интеллекта с учетом вероятности рисков причинения вреда (ущерба) и масштабам причиняемого ущерба жизни и здоровью физических лиц, деловой репутации и имуществу физических и юридических лиц, безопасности и технологической независимости государства, окружающей среде и иным охраняемым законом ценностям в связи с применением искусственного интеллекта;

4) обеспечение благоприятных условий для развития технологий искусственного интеллекта - создание условий для ускоренного развития искусственного интеллекта в Российской Федерации;

5) технологическая независимость - обеспечение самостоятельности Российской Федерации в области развития технологий искусственного интеллекта, в том числе путем разработки суверенных и национальных моделей искусственного интеллекта;

6) учет и уважение традиционных российских духовно-нравственных ценностей - обеспечение разработки, внедрения и применения технологий искусственного интеллекта на основе таких ценностей как  жизнь, достоинство, права и свободы человека, патриотизм, гражданственность, служение Отечеству и ответственность за его судьбу, высокие нравственные идеалы, крепкая семья, созидательный труд, приоритет духовного над материальным, гуманизм, милосердие, справедливость, коллективизм, взаимопомощь и взаимоуважение, историческая память и преемственность поколений, единство народов России;

7) безопасность - предотвращение угроз конституционному строю, обороне и безопасности государства, технологическойй независимости государства, жизни и здоровью физических лиц, деловой репутации и имуществу физических и юридических лиц, индивидуальных предпринимателей, окружающей среде, а также обеспечение информационной безопасности и устойчивости функционирования объектов информатизации с применением технологий искусственного интеллекта».

Базовые принципы для регулирования ИИ вроде бы составлены неплохо, но сама эта статья сформирована из отдельно взятых скопированных принципов из других нормативно-правовых актов без явного отношения и без необходимой адаптации к отношениям в сфере искусственного интеллекта. При этом в перечне принципов не раскрыта одна из основных проблем "черного ящика" (принцип объяснимости и прозрачности систем ИИ). Вместо принципов, направленных на обеспечение надлежащего регулирования технологии, указанная статья содержит принцип уважения традиционных ценностей, которые явным образом не относятся к “общим” принципам регулирования отношений в ИИ.

Основная цель подготовки общего закона о регулировании ИИ - безопасность - сформулирована в одном термине, который содержит пространный набор объектов, безопасность которых якобы необходимо обеспечить. Как именно эта самая безопасность будет обеспечиваться – не поясняется.

Кто является адресатом принципа о риск-ориентированном подходе к регулированию применения искусственного интеллекта? Правительство, Государственная Дума, независимые эксперты, иные органы? Не понятно.

«Статья 7. Обеспечение развития технологий искусственного интеллекта в Российской Федерации

  1. В целях обеспечения технологической независимости, сохранения традиционных российских духовно-нравственных ценностей в Российской Федерации обеспечивается поддержка внедрения суверенных больших фундаментальных моделей искусственного интеллекта и национальных больших фундаментальных моделей искусственного интеллекта.
  2. Для целей настоящего Федерального закона под суверенной и национальной моделями искусственного интеллекта понимаются модели искусственного интеллекта, соответствующие следующим требованиям:

а) все стадии разработки и обучения моделей искусственного интеллекта осуществляются на территории Российской Федерации;

б) все стадии разработки, обучения и эксплуатации моделей искусственного интеллекта осуществляются гражданами Российской Федерации и российскими юридическими лицами;

в) обучение моделей искусственного интеллекта с использованием наборов данных, формирование которых осуществляется на территории Российской Федерации гражданами Российской Федерации и российскими юридическими лицами».

В статье вводятся категории "суверенной" и "национальной" моделей искусственного интеллекта. При этом указанные понятия далее в тексте закона практически не используются. Также не указывается на какое-либо подзаконное регулирование правового режима таких моделей. В связи с этим возникают сомнения в том, что указанная норма (явно направленная на развитие отечественного ИИ) сможет надлежащим образом выполнять свою функцию и быть реализована на практике. То есть не очень понятен сам факт введения таких категорий в законодательство.

Если суверенная модель не включает в себя компоненты, разработанные за пределами территории РФ, по тексту закона, то выходит, что модель ИИ может быть признана “суверенной” только при условии, если весь исходный код модели был полностью (“с нуля”) написан российскими разработчиками. В том числе – с игнорированием решений на основе открытых источников? Видимо, так. Но проблема в том, что на сегодня в России не существует соответствующих базовых программ для старта разработки ИИ. То есть норма изначально – мертвая. То же самое касается и «национальных» моделей, разработка которых возможна только при условии использование кода, соответствующего требованиям ФСТЭК.

Как вообще физически можно проконтролировать, чтобы все стадии разработки, обучения и эксплуатации модели ИИ осуществлялись гражданами РФ? А если на любом из этапов произойдет минимальное участие иностранного гражданина (например, в рамках консультации) - получается, модель никогда не сможет получить статус "суверенной" или "национальной"? Много странных ограничений и множество вопросов по их смыслу.

«Статья 8.  Обеспечение доверия и безопасности при применении технологий искусственного интеллекта

  1. К применению в государственных информационных системах и на значимых объектах критической информационной инфраструктуры Российской Федерации, принадлежащих государственным органам и государственным учреждениям, и предприятиям, допускаются модели искусственного интеллекта, включенные в реестр доверенных моделей искусственного интеллекта (далее – доверенные модели искусственного интеллекта). Порядок ведения реестра доверенных моделей искусственного интеллекта и включения в него моделей искусственного интеллекта устанавливается Правительством Российской Федерации.
  2. К доверенным моделям искусственного интеллекта относятся модели искусственного интеллекта, в том числе суверенные и национальные большие фундаментальные модели, соответствующие следующим требованиям:

а) наличие подтверждения соответствия модели искусственного интеллекта требованиям по безопасности, установленным федеральным органом исполнительной власти, уполномоченным в области противодействия техническим разведкам и технической защиты информации и федеральным органом исполнительной власти, уполномоченным в области обеспечения безопасности (далее - требования по безопасности);

б) обеспечение обработки данных исключительно на территории Российской Федерации при применении модели искусственного интеллекта;

в) наличие подтверждения соответствия модели искусственного интеллекта требованиям качества, установленными федеральными органами исполнительной власти, государственными корпорациями, Банком России в соответствующих сферах (отраслях) деятельности (далее – требования к качеству)».

Согласно логике документа, «доверенными» могут быть только модели, но не системы / технологии / сервисы ИИ. И важный момент – непонятно, как будут соотноситься "доверенные" модели ИИ с "суверенными" и "национальными" моделями ИИ? Получается, что и «несуверенная» модель ИИ может оказаться «доверенной».

«6. Случаи обязательного использования доверенных моделей искусственного интеллекта на отдельных объектах критической информационной инфраструктуры Российской Федерации, устанавливаются Правительством Российской Федерации по предложению отраслевых федеральных органов исполнительной власти».

А из этого пункта ст. 8 законопроекта следует, что Правительство сможет устанавливать случаи обязательного использования ИИ (в рамках «доверенных» моделей) на отдельных объектах критической инфраструктуры России. Установление обязательного внедрения искусственного интеллекта на объектах КИИ видится поспешным и крайне опасным.

«Статья 9.  Права граждан при использовании технологий искусственного интеллекта

  1. Лицо, осуществляющее продажу товаров или оказание услуг с использованием технологий искусственного интеллекта без участия человека в принятии решений о продаже товара или оказании услуги обязано информировать покупателей и потребителей услуг о применении технологий искусственного интеллекта…»

В статье указаны 4 субъекта отношений в сфере ИИ, и на ком конкретно лежит обязанность информирования потребителя услуг (оператор, владелец, разработчик, никто из перечисленных субъектов) - непонятно. Кто подразумевается под лицом, осуществляющим продажу товаров с использованием ИИ – тоже не ясно.

«2. Лицо, использующее технологии искусственного интеллекта с целью принятия автономных (без участия человека) решений, затрагивающих права, обязанности, свободы и законные интересы гражданина, обязано уведомить об этом гражданина, в отношении которого принимается указанное автономное решение.

  1. В случаях, устанавливаемых Правительством Российской Федерации, лица и организации, осуществляющие оказание услуг, обязаны обеспечить гражданину, отказавшемуся от использования технологий искусственного интеллекта в его отношении, возможность получения услуг в форме и порядке, не предусматривающем автономное использование технологий искусственного интеллекта».

Тут не очень ясна причина регулирования именно «технологии ИИ», а не остальных объектов, определения которых включены в ст. 3 законопроекта. По всей видимости, авторы документа попытались сформулировать право гражданина на отказ от использования ИИ, но сделали это неполным и несистемным образом.

Почему такое право должны обеспечить только "лица и организации, осуществляющие оказание услуг"? Почему не упоминаются государственные органы? О какого рода услугах идет речь? Статья даже приблизительно не устанавливает порядок и форму выражения гражданином своего отказа от использования технологий ИИ. Что должен сделать гражданин, чтобы его отказ считался надлежаще выраженным? Видимо, все это будет позже оформлено Правительством в подзаконных актах, но ясности ПФЗ не вносит, что плохо.

И еще - почему в этой статье речь идет только о праве на отказ от использования технологий ИИ? Почему не упомянуты сервисы, модели и системы ИИ? Как мы уже отмечали, непонятно, как соотносятся эти понятия - как общее и частное, как отдельные понятия, иным образом? Это делает применение терминологии во всем законе некорректным и несистемным.

«Статья 10.  Обязанности разработчика модели искусственного интеллекта, оператора системы искусственного интеллекта, владельца сервиса искусственного интеллект, пользователя сервиса искусственного интеллекта

  1. Разработчик модели искусственного интеллекта обязан обеспечить безопасность созданной модели, включая:

а) исключение функциональных особенностей, способных привести
к дискриминации на основе их поведения или личностных характеристик;

бинформировать разработчика системы искусственного интеллекта о невозможности ее использования в запрещенных целях;

в) документировать архитектуру, логику функционирования и ограничения применяемых моделей искусственного интеллекта в объеме, необходимом для ее проверки на соответствие нормативному правовому регулированию, установленному в соответствии с настоящим Федеральным законом;

г) проводить моделирование потенциальных рисков, связанных с функционированием разрабатываемых технологий искусственного интеллекта, с учетом их предполагаемого применения;

д) определить порядок обслуживания и контроля параметров функционирования объектов с использованием искусственного интеллекта».

Где в этой статье непосредственные требования к обеспечению безопасности ИИ (в частности, разработчиков)? Она фактически просто повторяет уже существующие в законодательстве нормы и принципы (соблюдение законодательства об информации, недискриминация, запрет на осуществление запрещенной деятельности и т.д.). Ничего нового в области ИИ-безопасности не вводится.

Кроме того, в статье для разработчика предусмотрен неисчерпывающий (открытый) перечень обязанностей, а для операторов и владельцев – исчерпывающий. Почему так, и какие обязанности будут предусмотрены подзаконными актами для разработчика – непонятно.

«Статья 11. Ответственность субъектов отношений в сфере искусственного интеллекта в соответствии с законодательством Российской Федерации

Субъекты отношений в сфере искусственного интеллекта несут ответственность в соответствии с законодательством Российской Федерации за результат, полученный с использованием искусственного интеллекта, нарушающий законодательство Российской Федерации, соразмерно степени вины каждого».

Нет уточнения, что такое результат, полученный с использованием искусственного интеллекта. Отсутствует специальное понятие, неясно разграничение “результата” и “синтезированного материала” (о котором речь пойдет ниже). И как будет определяться вина? Видимо, по правилам ГК РФ. По крайней мере, данный ПФЗ не может определять «вину» в уголовно-правовом значении.

Не раскрывается, каковы должны быть стандарты осмотрительности для владельцев сервисов ИИ, операторов, разработчиков? Отсутствует указание на то, что такие стандарты осмотрительности будут определены на подзаконном уровне.

А такие стандарты осмотрительности просто необходимы, так как ИИ - это технология, которая способна к автономности и к формированию непредсказуемых для человека результатов. Разработчик ИИ должен хотя бы примерно понимать, где проходят граница его ответственности и осмотрительности - и четко им следовать. Неопределенность в этом вопросе может повлечь то, что новые разработчики будут опасаться выходить на рынок, так как они не будут понимать "правила игры" и риски своей ответственности.

«Статья 12.  Идентификация синтезированного информационного материала

  1. Владелец сервиса искусственного интеллекта обеспечивает размещение информационного предупреждения пользователя о применении технологий искусственного интеллекта для создания аудио и (или) визуального информационного материала или иного контента (далее – синтезированный, сгенерированный информационный материал).
  2. Информационное предупреждение, указанное в части 1 настоящей статьи, должно размещаться в составе синтезированного, сгенерированного информационного материала в формате, воспринимаемом человеком и машиночитаемом формате, и предоставляться пользователю способом, которым предоставляется синтезированный, сгенерированный информационный материал.
  3. Договором (соглашением) между пользователем и лицами, указанными в частях 1, 4 настоящей статьи, может быть предусмотрено отсутствие обязательности размещения информационного предупреждения в составе синтезированного, сгенерированного информационного материала в формате, воспринимаемом человеком.

Отказ пользователя от получения информационного предупреждения в составе синтезированного, сгенерированного информационного материала в формате, воспринимаемом человеком, должен быть предметным, информированным, сознательным и однозначным».

Часть 5 данной статьи фактически освобождает всех владельцев сервисов ИИ от идентификации материала, созданного ИИ. Высок риск злоупотреблений, при которых любой владелец сервиса ИИ будет включать в пользовательское соглашение оговорку о том, что пользователь согласен с тем, что маркировка будет отсутствовать.

«Статья 13. Особенности распоряжения правами на объекты интеллектуальной собственности

  1. Объекты интеллектуальной собственности, созданные путем применения сервисов искусственного интеллекта, охраняются в порядке, предусмотренном Гражданским кодексом Российской Федерации. Исключительные права на указанные объекты определяются также согласно нормам Гражданского кодекса Российской Федерации.

При этом объектами интеллектуальной деятельности признаются исключительно оригинальные творения, соответствующие критериям охраноспособности, установленным гражданским законодательством, независимо от того, были ли они созданы человеком или автоматизированной системой».

Статья 13 законопроекта не решает существующих проблем, связанных с правами на результаты интеллектуальной деятельности, которые были созданы при помощи ИИ. ГК РФ не разделяет результаты интеллектуальной деятельности, созданные с использованием ИИ и результаты, созданные без использования ИИ. Поэтому необходимо либо внести соответствующие изменения в ГК РФ, либо полностью отказаться от статьи 13.

«Статья 15. Цели, принципы и задачи международного сотрудничестве в сфере применения технологий искусственного интеллекта

  1. Международное сотрудничество Российской Федерации в сфере применения технологий искусственного интеллекта осуществляется в соответствии с международными договорами и законодательством Российской Федерации.
  1. Целью международного сотрудничества в сфере применения технологий искусственного интеллекта является укрепление позиций Российской Федерации в международных органах и организациях, формирующих политику и стандарты в области искусственного интеллекта, и других международных и региональных организациях и объединениях.
  1. Основным принципом, составляющим основу международного сотрудничества в сфере применения технологий искусственного интеллекта, является обеспечение равных прав и возможностей наций в области разработки и использования технологий искусственного интеллекта.
  1. Задачами международного сотрудничества в сфере искусственного интеллекта являются:

а) формирование "единого пространства" доверенных технологий искусственного интеллекта при лидирующей роли Российской Федерации в международном и региональном сотрудничестве;

б) продвижение политики и стандартов, обеспечивающих доступ разработчиков технологий искусственного интеллекта и потребителей таких технологий к рынкам, технологиям и ресурсам, а также способствующих развитию равноправного торгово-экономического и научно-технического сотрудничества с иностранными партнерами;

в) продвижение за рубежом отечественных технологий искусственного интеллекта, включая доверенные технологии;

г) использование технологических заделов Российской Федерации в области искусственного интеллекта для сокращения разрыва в уровне развития цифровых технологий между различными странами и повышения технологического потенциала государств-партнеров».

С одной стороны, заявляется о разработке суверенных и национальных ИИ-моделей, с другой стороны – вводится понятие «доверенных» моделей, и тут же ниже говорится о том, что Россия будет формировать «единое пространство доверенных технологий ИИ» в рамках международного сотрудничества с «уважаемыми партнерами». И все это – ради обеспечения «равных прав и возможностей наций в области ИИ». Вопрос – мы, как страна, прежде всего право какой нации представляем? Не российской ли? Зачем мы вообще подписываемся под «сокращением разрыва в уровне развития цифровых технологий между странами»? Нам же вроде как о собственном цифровом суверенитете надо радеть, вначале его построить, как минимум, а потом за «разрывы» у других стран переживать…

«Статья 17. Защита интеллектуальной собственности и контроль за трансграничным обменом данных при международном сотрудничестве

  1. К трансграничным технологиям искусственного интеллекта (объектам правоотношений, связанных с функционированием технологий искусственного интеллекта и имеющих трансграничный характер) относятся технологии, создание (разработка), использование, трансфер (передача), консервация, уничтожение которых связаны с субъектами и (или) территорией двух и более государств.
  1. Функционирование трансграничных технологий искусственного интеллекта может быть запрещено или ограничено в случаях, установленных законодательством Российской Федерации».

И в качестве резкого контраста с предыдущей статьей – статья 17, в рамках которой государство получит возможность вводить ограничения или полный запрет на использование трансграничных ИИ-сервисов. Под действие закона могут попасть такие платформы, как ChatGPT, Claude и Gemini. При этом китайские сервисы, включая Qwen и DeepSeek, при необходимости смогут быть адаптированы для работы в России, сообщил по этому поводу РИА Новости старший юрист MWS AI Кирилл Дьяков.

«По словам эксперта, под трансграничными решениями понимаются иностранные платформы, которые осуществляют обмен данными за пределами страны, что требует дополнительного правового регулирования».

А вот это просто не выдерживает никакой критики. Ничего глупее, чем запретить передовые ИИ, просто придумать было нельзя. Все это «регулирование суверенитета» отправляет нас в каменный век. Кроме того, запрет на глобальные ИИ приведет к исходу из России всех специалистов, которые планируют с ними работать. Своими инициативами Минцифры просто оставит нас без кадров, которые предпочтут жить в Белоруссии, Грузии, Средней Азии, том же Китае, где сейчас острая нехватка ИИ-спецов. И непонятно, зачем рушить бизнес-модели своих же налогоплательщиков, которые основаны на иностранных нейросетях, на фоне которых тот же Гигачат от Сбера просто ребенок.

Резюмируем анализ первого масштабного законопроекта по регулированию ИИ в России. Документ содержит размытые, неточные формулировки, в части аспекта безопасности при использовании ИИ, а также регулирования авторского права – не вводит практически ничего нового. Авторы ПФЗ словно ставили себе задачу максимально защитить разработчиков и продавцов ИИ-технологий, а также обязать внедрять нейросети в критической инфраструктуре страны. Множество отсылок на уже имеющиеся правовые нормы делают документ совсем пустым, а пункты о вероятном запрете иностранных нейросетей в России, равно как и возможность внедрения иностранных «доверенных» ИИ-моделей в госуправление у нас (на контрасте) – выглядят абсолютно непродуманными и недопустимыми, несущими риски нацбезопасности и суверенитету страны.

Если авторам было сложно самим проработать ключевые правила по ИИ-безопасности, они могли обратиться к профильным экспертам – к тому же Игорю Ашманову, или Наталья Касперской. Для них суверенитет и безопасность граждан – на первом месте, так что польза от такого взаимодействия точно бы была. А так все это очень похоже на ящик Пандоры. Или, что еще хуже – троянского коня для будущего нейросетей в России. В нынешнем виде принимать подобный документ считаем недопустимым.

22 Марта 2026 в 01:21
125