Страны ЕС при участии общественности и независимых экспертов на прошлой неделе сделали важный шаг вперед в части регуляторики «искусственного интеллекта». Речь идет о предварительном одобрении профильными комитетами Европарламента AI Act – масштабного документа на 144 страницы, в котором прописано множество ограничений для использования технологий ИИ, при этом дается зеленый свет для их активного развития – посредством «регуляторных песочниц», «создания атмосферы доверия» и т.д. Конечно, эта глобальная технология продолжает внедряться, но принципиально здесь признание огромных рисков для граждан (то, о чем недавно заявляли в своем открытом письме несколько сотен ведущих мировых IT-экспертов) и намерение их минимизировать. В частности, в документе прописан запрет на использование систем распознавания лиц, эмоций, на «предиктивную аналитику», делающую каждого гражданина потенциальным преступником. И тут главным цифротрансформерам кабмина – Мишустину, Чернышенко, Шадаеву – вроде как, есть о чем задуматься, есть, что взять на вооружение. Но вот «парадокс» - правильные начинания по защите прав народа они копировать у глобальных «цифропартнеров» совсем не спешат. Несмотря на то, что мы находимся в условиях цифровой зависимости от недружественных стран, ведущих с нами войну на уничтожение. Расскажем же подробнее о том, до чего довел ИИ законотворцев в ЕС.

За AI Act проголосовали 84 евродепутата проголосовали, 7 — против, 12 воздержались. В июне документ будет принимать весь Европарламент, и мало сомнений, что он будет окончательно принят в конце нынешнего или начале следующего года.  

На 144 страницах подробно описываются правила использования различных систем на основе ИИ, в том числе систем распознавания лиц, предиктивной аналитики, генеративного ИИ, беспилотных автомобилей и других. Все основанные на ИИ системы и инструменты по новому закону должны подразделяться по уровню риска — от низкого до неприемлемого.

«Мы находимся на пороге создания по-настоящему значимого для цифровой среды законодательства, не только для Европы, но и для всего мира», - отметил один из авторов законопроекта депутат Брандо Бенифеи.

Естественно, надо держать в уме, что подобная регуляторика всегда имеет своей целью частично легализовать инновации электронного концлагеря, однако принципиально важно, что законопроект содержит в себе множество ограничений в т.н. критической сфере применения ИИ. Тогда как Правительство РФ (и власти отдельных регионов, особенно Москвы, Санкт-Петербурга, Нижегородской, Новгородской областей, Татарстана и т.д.), подчеркнем еще раз, напротив, ныне дикими темпами внедряют в России все эти инструменты тотального машинного контроля за гражданами.

«Своим списком запретов парламент… дает понять правительствам и разработчикам, что некоторые виды применения ИИ слишком вредны, чтобы их можно было разрешить», - считает старший советник по вопросам политики организации «Европейские цифровые права» (EDRi) Сара Чандер.

  1. Итак, европейский закон об ИИ предусматривает запрет использования систем распознавания лиц и других систем «удаленной биометрической идентификации» в режиме реального времени в общественных местах. В последние годы они получили широкое распространение в разных странах.
  2. Помимо распознавания лиц в классическом смысле, позволяющего определить личность человека по видео, закон запрещает также и так называемое распознавание эмоций. Оно работает сходным образом и выявляет состояние человека — это может быть использовано работодателями или полицией для выявления уставших работников или водителей.
  3. Также закон запрещает использование полицией систем предиктивной аналитики для профилактики правонарушений. Такие системы, анализируя огромные массивы данных, делают прогноз о вероятности совершения преступления и составляют профили потенциальных правонарушителей. Помимо общей непрозрачности такого прогнозирования, подобные системы ИИ справедливо критиковали за то, что они воспроизводят стереотипы, господствующие в обществе. Так, представители малообеспеченных групп населения могут быть отнесены ИИ к группе высокого риска только потому, что они чаще контактируют с социальными службами и их данные с большей вероятностью можно найти в государственных базах, на основе которых ИИ и делает прогнозы. То есть к каждый гражданин является для цифровой системы потенциальным преступником, которого надо «профилактировать». И эту антиконституционную практику решено прекратить.
  4. Закон содержит нормы жесткого регулирования различных «высокорисковых систем, основанных на ИИ». К ним относят физические объекты — беспилотные автомобили, медицинские приборы с применением ИИ, основанные на ИИ системы управления критической инфраструктурой и т.д. Сбой в их работе угрожает жизни людей или ведет к другим серьезным последствиям.
  5. В целом компании, использующие различные ИИ-инструменты, должны будут оценивать их потенциальные риски с точки зрения «здоровья, безопасности, фундаментальных прав, окружающей среды, демократии и верховенства закона».

Выделим некоторые важные положения документа:

«- Система управления рисками должна состоять из непрерывного итеративного процесса, выполняемого на протяжении всего жизненного цикла системы искусственного интеллекта с высоким уровнем риска, требующего регулярного анализа и обновления процесса управления рисками для обеспечения его постоянной эффективности, а также документирования любых важных решений и действий, принятых в соответствии с настоящей статьей.

Она должна включать в себя следующие этапы:

(а) идентификация, оценка известных и разумно прогнозируемых рисков, которые система искусственного интеллекта высокого риска может представлять для здоровья или безопасности физических лиц, их основных прав, включая равный доступ и возможности, демократию и верховенство закона, или окружающую среду, когда система искусственного интеллекта с высоким уровнем риска используется в соответствии с ее предполагаемым назначением и в условиях разумно предсказуемого неправильного использования.

Основополагающее право на защиту персональных данных гарантируется, в частности, Регламентами (ЕС) 2016/679 и (ЕС) 2018/1725 и Директивой 2016/680. Директива 2002/58/EC дополнительно защищает частную жизнь и конфиденциальность сообщений, включая обеспечение условий для хранения любых личных и неличных данных в терминальном оборудовании и доступа к ним с его помощью. Эти правовые акты обеспечивают основу для устойчивой и ответственной обработки данных, в том числе в тех случаях, когда наборы данных включают сочетание личных и неличностных данных.

Настоящий регламент не ставит задачу повлиять на применение действующего законодательства Союза, регулирующего обработку персональных данных, включая задачи и полномочия независимых надзорных органов, компетентных контролировать соблюдение этих документов. Настоящий Регламент не затрагивает основные права на частную жизнь и защиту персональных данных, предусмотренные законом Союза о защите данных и неприкосновенности частной жизни и закрепленные в Хартии основных прав Европейского союза (‘Хартия’).

- Системы искусственного интеллекта в Европейском Союзе подпадают под действие соответствующего законодательства о безопасности продукции, которое обеспечивает основу для защиты потребителей от опасных продуктов в целом, и такое законодательство должно продолжать применяться.

Данное постановление не должно затрагивать законодательство Сообщества о социальной политике и национальное трудовое законодательство и практику, то есть любые правовые и договорные положения, касающиеся условий найма, условий труда, включая охрану здоровья и технику безопасности на производстве, а также взаимоотношений между работодателями и работниками, включая информацию, консультации и участие. Это постановление не должно влиять на осуществление основных прав, признанных в государствах-членах и на уровне Союза, включая право или свобода бастовать или предпринимать другие действия, предусмотренные конкретными системами трудовых отношений в государствах-членах, в соответствии с национальным законодательством и/или практикой.

Это также не должно влиять на практику согласования, право вести переговоры, заключать и обеспечивать соблюдение коллективного соглашения или предпринимать коллективные действия в соответствии с национальным законодательством и/или практикой. Это ни в коем случае не должно помешать Комиссии предложить конкретное законодательство о правах и свободах работников, затронутых системами искусственного интеллекта.

- Учитывая большое влияние, которое искусственный интеллект может оказать на общество, и необходимость укрепления доверия, жизненно важно, чтобы искусственный интеллект и его нормативно-правовая база развивались в соответствии с ценностями Союза, закрепленными в статье 2 TEU, основными правами и свободами, закрепленными в договорах, Хартии и международном праве в области прав человека. В качестве предварительного условия искусственный интеллект должен быть технологией, ориентированной на человека.

Она не должна подменять человеческую автономию или предполагать потерю индивидуальной свободы и должна в первую очередь служить потребностям общества и общему благу.

Должны быть предусмотрены гарантии для обеспечения разработки и использования этически обоснованного искусственного интеллекта, уважающего ценности Союза и Хартию».

Как видим, с одной стороны, евродепутаты создают правовую базу для повсеместного внедрения «устойчивого и ответственного», «этически обоснованного» ИИ, с другой – непререкаемыми становится тот факт, что технологии должны «служить потребностям общества и общему благу». То есть никаких наступлений на права и свободы людей, расписанные ранее в национальных конституциях и международных декларациях, быть не должно в принципе. Очень важно, что они упоминают и о праве каждого на защиту приватных ПД, а также указывают, что все действующие и новые принимаемые законы, касающиеся прав и свобод граждан, социальной политики, трудовых отношений и т.д., никак не должны умаляться с внедрением технологий ИИ.  

На самом деле нельзя сказать, что в России аналогичная регуляторная работа совсем не ведется. Но ее инициаторами являются не чиновники Правительства или депутаты Госдумы, а группа экспертов в Совете по правам человека при президенте РФ во главе с предпринимателем Игорем Ашмановым. В начале апреля с.г. «Российская газета» сообщала, что у нас скоро появится свой Цифровой кодекс, и очень интересно будет ознакомиться с предварительным содержанием этого документа.

Но все равно поражает, что наши законотворцы/министры, постоянно ссылающиеся на западные тренды «четвертой промышленной революции», оправдывая этим тотальную оцифровку всех сфер, прямо сейчас внедряют биометрическую идентификацию в «умных городах», лоббируют систему распознавания эмоций в школах, в метро, слежку за водителями на транспорте и т.д. Распознавание лиц на том же футболе (Fan ID), где каждый автоматически считается потенциальным преступником, на горнолыжных курортах, в аэропортах (пока – в тестовом режиме) – конца и края тотальному контролю не видно.

Если вы перенимаете у западных глобалистов губительные для страны и народа вещи – может, пора уже присмотреться к тому, как те же ваши «партнеры» их ограничивают? Да не просто ограничивают, а признают бесконтрольное насаждение ИИ огромной угрозой для существования человеческого общества и государств. Если для этого хватит воли и совести, конечно. Что скажете, господа Мишустин, Кириенко, Шадаев, Чернышенко?

РИА Катюша 

15 Мая 2023 в 06:34
15469