Искусственный интеллект: правовой контроль или добровольные ограничения?

Степени риска
Закон, предложенный Европейской комиссией 21 апреля 2021 года и одобренный в 2024‑м, направлен на создание общей нормативно-правовой базы для использования ИИ.
Цель 48‑страничного документа, согласно утверждению разработчиков, — способствование «улучшению функционирования внутреннего рынка и содействие внедрению ориентированного на человека и заслуживающего доверия искусственного интеллекта». Здесь же классификация и правила регулирования приложений, использующих ИИ, в зависимости от риска причинить вред пользователю. Выделяются три категории: запрещенные системы (с недопустимой степенью риска), системы с высокой степенью риска и остальные системы искусственного интеллекта.
К запрещенным относятся те, которые применяют ИИ для сублиминального (подсознательного) манипулирования или использования уязвимых мест людей, что может привести к физическому либо психологическому ущербу. В этом же ряду бессистемное использование дистанционной биометрической идентификации в реальном времени в общественных местах под предлогом обеспечения правопорядка. Кроме того, под запрет подпадает практика по присвоению рассчитанных с помощью ИИ «социальных баллов», если она ведет к ущемлению прав отдельных лиц или групп.
К высокой степени риска предлагается относить IT-продукцию, «представляющую значительную угрозу здоровью, безопасности или основным правам человека».
Особо важные приложения, например для медицинских устройств, требуют, чтобы оценка поставщика в соответствии с требованиями закона об искусственном интеллекте рассматривалась нотифицированным (уполномоченным) органом, проводящим оценку в соответствии с существующими нормами.
Системы, не относящиеся к первым двум категориям, никакому регулированию не подлежат, при этом государства-члены в значительной степени лишены возможности дальнейшего их регулирования посредством максимальной гармонизации. Национальные законы, касающиеся разработки или использования таких систем, не применяются. Однако предусматривается создание добровольного кодекса поведения для таких систем.
Итальянские подходы
Среди государств мира пальма первенства в законодательном закреплении принципов, регулирующих использование ИИ, принадлежит Италии, которая 18 сентября этого года приняла комплексный закон в данной сфере. «Искусственный интеллект — величайшая революция нашего времени», — заявила премьер-министр Джорджа Мелони. Но, по ее словам, технологии смогут реализовать свой потенциал только в рамках этических правил, где в центре остаются люди и их права.
Закон разрабатывался и обсуждался итальянскими парламентариями на протяжении года и был принят большинством голосов. 77 сенаторов были за, 55 против и два воздержались. В преамбуле документа в качестве главной цели закона определено «прозрачное и безопасное использование ИИ с ориентацией на человека, одновременное содействие инновациям, кибербезопасности и защите конфиденциальности».
Как отмечает The Guardian, закон состоит из шести глав, включающих 28 статей. Он устанавливает общие принципы исследования, тестирования, разработки и применения систем и моделей ИИ, делегируя правительству право принимать законодательные постановления для приведения итальянского законодательства в соответствие с Европейским законом об ИИ и регулировать использование данных, алгоритмов и математических методов для систем обучения.
Устанавливаются общие принципы и цели ИИ, продвигается прозрачный подход, уважающий основные права человека, определяются правила использования ИИ в производственном и оборонном секторах. Закрепляется возможность использования ИИ в качестве средства помощи в диагностике и лечении заболеваний, оставляя окончательное решение за врачами. Кроме того, регламентируется применение ИИ в сфере трудовых отношений, образовании, правосудии, спорте, причем оговаривается обязательное информирование работников и клиентов о его использовании.
Функции контроля и координации вопросов национальной стратегии в области ИИ закрепляются за департаментом цифровой трансформации.
В Италии учреждается координационный комитет по вопросам разработки соответствующей политики для всевозможных структур, связанных с областью цифровых инноваций и искусственного интеллекта.

Например, национальное агентство кибербезопасности контролирует соответствующие системы, используя полномочия по проведению проверок, в то время как агентство цифровой экономики управляет различными уведомлениями и продвигает безопасные для граждан и предприятий продукты, связанные с нейросетями.
В законе большое внимание уделяется защите авторских прав. Речь, в частности, о произведениях, созданных с помощью ИИ, при условии, что они являются результатом интеллектуальной деятельности автора. Использование произведений или материалов, доступных онлайн с помощью инструментов ИИ, разрешено только в том случае, если они не защищены авторским правом или предназначены для научных исследований и защиты культурного наследия.
Закон разрешает использование 1 млрд евро через Венчурный капитал CDP для инвестиций в малые, средние и крупные компании, работающие в сфере искусственного интеллекта, кибербезопасности, квантовых технологий и телекоммуникаций. Цель — поддержать рост итальянских компаний и повысить международную конкурентоспособность страны.
Заместитель министра по цифровой трансформации Алессио Бути заявил, что закон направляет искусственный интеллект на рост, обеспечение прав и полную защиту граждан. Достоверность этого утверждения подтвердит либо опровергнет практика реализации принятого правового акта.
Основа для развития
Серьезная работа в сфере законодательного регулирования ИИ активно ведется на постсоветском пространстве. Достаточно отметить, что постановлением № 58 — 8 от 18 апреля нынешнего года Межпарламентской ассамблеи государств — участников СНГ принят модельный закон «О технологиях ИИ». Это, по сути, рекомендуемая основа для развития национальных законодательств стран-участниц.
Документ, состоящий из восьми глав, объединяющих 38 статей, призван регулировать «общественные отношения, возникающие на всех стадиях жизненного цикла технологий ИИ: исследования, проектирования, разработки, оценки и проверки, эксплуатации и обслуживания, мониторинга и контроля, утилизации и иных, предусмотренных национальным законодательством».
В статье 4 документа в качестве цели соответствующей госполитики определено «формирование сбалансированной системы регулирования общественных отношений, возникающих в связи с функционированием технологий ИИ». Предусматривается возможность установления специального (экспериментального) правового режима в сфере ИИ в рамках национального законодательства.
Закрепляются также принципы регулирования отношений в сфере технологий ИИ, среди которых приоритет прав и свобод человека, техническая надежность и безопасность, прозрачность и контроль за функционированием ИИ, защита персональных данных.
Одна из глав посвящена управлению рисками в сфере технологий ИИ. В ней, в частности, предлагается алгоритм оценки качества функционирования конечных продуктов, включая обеспечение безопасности.
Оговариваются в модельном законе СНГ права и обязанности субъектов отношений в сфере технологии ИИ, правила использования, обработки, хранения и защиты данных, определяется ответственность за нарушение требований. Уровень же ответственности за правонарушения в сфере ИИ предложено определять и реализовывать в соответствии с национальными законодательствами стран-участниц.
Глобальный характер
В условиях формирования новых мировых центров силы технологии ИИ становятся важным геополитическим фактором. Созданные человеческим разумом, они могут стать как мощным средством для развития, так и источником глобальных проблем.
Сегодня особенно актуальны моральные и этические составляющие социума, его зрелость и способность брать на себя ответственность, решать философские и сугубо практические вопросы. Проблема осложняется тем, что носит глобальный характер, а ее разрешение противоречит целям западных элит по «роботизации сознания» индивида, достижению тотального контроля над обществом.
Вместе с тем законодательный контроль технологии ИИ — это веление времени, которое реализуется сегодня большинством стран, к числу которых относится и Беларусь. В этой области нет места спешке, а принципы «семь раз отмерь — один отрежь» и «не навреди» следует взять за основу всем участникам процесса.
Нам нужно направлять усилия на то, чтобы ИИ остался надежным средством созидания и развития, а не стал инструментом разрушения и уничтожения цивилизации.
ОТЯГЧАЮЩИЕ ОБСТОЯТЕЛЬСТВА. ИТАЛЬЯНСКИЙ ОПЫТ
Согласно принятому в Италии закону, министерство юстиции этой страны может принять меры для блокировки и удаления незаконно созданного контента.
Вводится статья, касающаяся «незаконного распространения контента, созданного или обработанного с помощью систем искусственного интеллекта». Речь о дипфейках.
Предусмотренное наказание — лишение свободы на срок от одного до пяти лет в случае причинения вреда (ущерба).
Кроме того, мошенническое использование ИИ признается отягчающим обстоятельством, ужесточая наказание за выдачу себя за другое лицо, мошенничество, кражу личных данных, отмывание денег и финансовое мошенничество.
Вводится возрастное ограничение и родительский контроль доступа к ИИ. Детям до 14 лет потребуется для этого согласие родителей.
ЧТО ПОД ЗАПРЕТОМ В ЕС?
В ЕС регулируется деятельность поставщиков систем ИИ и организаций, применяющих их. Запрещается использовать ИИ для слежения за эмоциями на рабочих местах и в школах, ограничивается возможность его задействования для сортировки заявлений о приеме на работу и совершенствования инструментария генеративного ИИ (ChatGPT).
НЕ ОСТАВЛЯТЬ НЕЙРОСЕТИ БЕЗ ПРИСМОТРА
♦ Искусственный интеллект, безусловно, нуждается в регулировании. Порой доходит до абсурдных ситуаций. Курьезный случай произошел в зале флорентийского суда в Италии. Во время рассмотрения гражданского дела о защите товарных знаков адвокат в своей аргументации начал ссылаться на постановления итальянского верховного суда, которых в действительности никогда не существовало. Позже выяснилось, что их сгенерировала нейросеть. Стоит ли говорить, что адвокат дело проиграл. Но это еще ладно. Позже аналогичный скандал произошел и в американском штате Индиана. И на этот раз суд оценил оплошность местного юриста в 15 тысяч долларов.
♦ Недавно итальянское управление по защите данных оштрафовало на 15 миллионов евро OpenAI за использование личной информации для обучения ChatGPT без согласия пользователей.
♦ Еще одна важная новация итальянского закона об ИИ коснется детей до 14 лет: для них доступ к нейросетям будет разрешен только с согласия родителей. И в этом тоже есть здравое зерно. В августе этого года родители 16‑летнего американца Адама Рейна из Калифорнии подали иск против компании OpenAI. Чат-бот предоставил парню детальные инструкции по суициду, романтизировал методы самоубийства и отговаривал от обращения за помощью к семье. В OpenAI признали, что защитные механизмы чат-бота могут полностью отключаться в длительных беседах, когда уязвимые пользователи в них больше всего нуждаются.
ВОЕННЫЕ ИСКЛЮЧЕНИЯ
Настораживает исключение Евросоюзом из списка законодательно регулируемых областей искусственного интеллекта военной сферы. Возможно, именно здесь кроется тот самый западный подвох, позволяющий сохранить технологическое превосходство, служившее на протяжении столетий средством колониальной экспансии.
ГЛУБОКАЯ ПРОРАБОТКА
Разработанный в СНГ модельный закон об ИИ существенно отличается от европейского регламента степенью глубокой проработки, конкретикой и большей свободой в части о национальных законодательствах.
Как отмечают разработчики, это будет важный шаг в регулировании новой области, являющейся порождением технологического развития человеческой цивилизации.







































