Новые законы и инициативы по контролю ИИ сегодня разрабатываются фактически повсеместно
Рамочная конвенция
Недавно десять стран подписали глобальный договор об использовании искусственного интеллекта. Подписантами документа, получившего название Рамочная конвенция по ИИ, стали США, Великобритания, Андорра, Грузия, Исландия, Норвегия, Молдова, Сан-Марино и Израиль. В общем и целом это соглашение стало результатом двухлетней работы более чем 50 государств, которые пытаются создать законодательство, балансирующее между стимулированием развития новых технологий и необходимостью регламентировать их применение.
Новая конвенция, как утверждают разработчики, направлена прежде всего на снижение рисков, которые технологии ИИ могут представлять соблюдению прав человека, демократическим устоям и верховенству закона. При этом проявленный к документу интерес демонстрирует важность международного подхода к регулированию искусственного интеллекта, стремление работать сообща, а также служит примером для других стран, которые развивают национальное законодательство в соответствующей области.
Сегодня в понятие «искусственный интеллект» вкладывают способность машин автономно выполнять задачи на основе алгоритмов, имитирующих способности человеческого разума решать проблемы и принимать решения. Поэтому применение систем ИИ, например в сфере критической инфраструктуры, занятости, здравоохранения, банковского дела и тому подобное, вызывает у специалистов беспокойство. Больше всего разработчиков регламентирующего законодательства волнуют решения ИИ, лежащие в области этических дилемм.
В связи с этим договор, который касается как частных, так и государственных разработчиков искусственного интеллекта, предполагает внедрение механизмов оценки, контроля и смягчения рисков. Пользователям дадут возможность подавать жалобы на нарушение технологиями их прав.
Рамочная конвенция по ИИ – не первый межгосударственный документ в этой области. В конце прошлого года 18 государств, в числе которых США, Великобритания и Германия, подписали соглашение о регулировании искусственного интеллекта и защите потребителей от его неправомерного использования.
Регулировать не технологию, а ее применение
Новые законы и инициативы по контролю ИИ сегодня разрабатываются фактически повсеместно.
Так, Европарламент летом 2023 года принял закон об искусственном интеллекте. Ожидается, что он вступит в силу не раньше 2025-го – положения этого документа нужно имплементировать в национальные законодательства стран ЕС, ведь сегодня искусственный интеллект используется практически во всех сферах жизни.
Закон разделяет системы ИИ на группы в зависимости от риска, который они несут европейским гражданам и потребителям. Например, к группе неприемлемого риска относятся технологии, созданные для воздействия на подсознание людей, для распознавания личности, а также в качестве инструментов социального рейтинга.
Такие технологии планируют запретить. Исключение может быть сделано только для систем распознавания личности, и то только в том случае, если они находятся на службе у правоохранительных органов.
Искусственный интеллект, используемый для управления критически важной инфраструктурой, для охраны границ, применяемый в образовательных учреждениях, правоохранительных органах и в работе с персоналом, нужно регистрировать в специальной базе ЕС. Затем власти будут оценивать соответствующие системы в процессе их эксплуатации.
Разработчиков генеративных моделей вроде ChatGPT обяжут маркировать контент, то есть указывать, что автором того или иного созданного продукта является не человек или творческий коллектив, а искусственный интеллект.
При этом разработчики закона не раз подчеркивали, что регулировать нужно не сами технологии, а их применение. Наука и бизнес нуждаются в свободном пространстве для инноваций, но нужна защита от злоупотреблений. Поэтому закон об ИИ использует подход, основанный на оценке рисков.
В конце 2023 года указ о мерах безопасности, связанных с развитием ИИ, подписали в США. Объемный документ создает базу для формирования новых правительственных учреждений, которые будут специально заниматься вопросами ИИ, и новых федеральных стандартов в области искусственного интеллекта. Кроме того, указ обязывает разработчиков предоставлять правительству результаты тестирования крупных моделей ИИ, прежде чем использовать их.
Законодательство в этой области опирается на «Билль о правах в области ИИ». Среди ключевых рисков, которые беспокоят власти США, – способность искусственного интеллекта создавать дипфейки, усугубляя проблему дезинформации. Также в США серьезно относятся к защите конфиденциальной информации.
Китай – единственная страна, где регулирование ИИ не только очерчено законодательно, но и предусматривает штрафы за нарушения. В августе 2023 года правительство Поднебесной опубликовало 24 правила для регулирования искусственного интеллекта. Продукты творческого плана, созданные с помощью искусственного интеллекта, маркируются в обязательном порядке.
Еще в 2008 году в Южной Корее был принят акт, формально посвященный робототехнике, а именно специфической разновидности – роботам, оснащенным ИИ. Законопроект об искусственном интеллекте в его нынешнем виде предусматривает, что нормативные акты должны разрешать любому пользователю создавать новые модели без предварительного одобрения правительства. Предприятия, использующие генеративный ИИ, получат государственную поддержку в вопросах ответственного подхода к разработке систем. Особенно тех, что считаются «высокорискованными» в отношении жизни граждан, – они должны завоевывать долгосрочное доверие.
В России в данный момент нет единого документа, который бы полноценно регулировал сферу ИИ. Закон о регулировании рекомендательных технологий, вступивший в силу 1 октября 2023 года, например, обязывает владельцев сайтов и приложений раскрывать, какие данные используются для работы рекомендательных систем. Кодекс этики в сфере ИИ содержит призывы к ответственности при создании и использовании искусственного интеллекта. Его подписали 247 компаний и организаций, но документ носит рекомендательный характер.
Также в РФ утверждена Национальная стратегия развития искусственного интеллекта на период до 2030 года. При этом не раз заявлялось, что разработка профильного закона идет полным ходом.
В федеральном бюджете Австралии в прошлом году были обозначены расходы на создание Сети ответственного ИИ. Регулирующие органы стремятся снять обеспокоенность, выраженную уполномоченным по правам человека страны Лоррейн Финлей, которая заявила, что чат-боты с ИИ уже наносят вред обществу.
Регулирование ИИ в Бразилии продвинулось вперед благодаря развитию законодательной базы, которая была одобрена правительством в сентябре 2022 года, но подверглась широкой критике за слишком расплывчатые формулировки. После выхода ChatGPT в ноябре 2022-го в правительство Бразилии был направлен отчет, в котором подробно изложены рекомендации по регулированию ИИ.
Законодательство, касающееся регулирования ИИ в Канаде, в настоящее время включает в себя законы о конфиденциальности данных, правах человека и интеллектуальной собственности. Сейчас разрабатывается рамочная программа управления рисками и генеративного ИИ, а также других областей применения этой технологии.
Казахстан в тренде
В Казахстане закон об искусственном интеллекте может появиться в следующем году.
– В первую очередь нужно понимать, что есть страны-разработчики, а есть – страны-пользователи. В глобальном смысле Казахстан – пользователь систем искусственного интеллекта, но по локальной модели – языковой – мы разработчики, потому как никто, кроме нас, в этом не заинтересован, – комментирует депутат Мажилиса Парламента Екатерина Смышляева. – При разработке законопроекта мы полагаемся только на национальный формат регулирования в достаточно мягких контурах. То, что должно присутствовать точно, – маркировка продукта, созданного с помощью технологии ИИ.
Есть области, где компетентные органы должны иметь информацию об используемых системах, считает депутат. Это государственное управление, здравоохранение. В данных нишах предусматривается обязательная регистрация продукта, в остальном нужно дать рынку свободно развиваться.
– Мир сегодня избегает жесткого регулирования искусственного интеллекта, и не потому, что не знает, как это делать, – юридических инструментов достаточно. А потому что никто не хочет тормозить прогресс. Если подпишешь какой-то акт, сделаешь себя менее конкурентоспособным, чем страны, которые не присоединились к общим соглашениям. Поэтому все международные конвенции имеют большей частью рамочный характер, – говорит Екатерина Смышляева.
Пока же, в преддверии работы по законопроекту, члены фракции сразу трех партий – «Amanat», «Ауыл» и НПК – направили запрос в Правительство, посвященный аспектам защиты персональных данных казахстанцев, которые может использовать искусственный интеллект.
«Речь идет об изображении лица, отпечатках пальцев, радужке глаза и других параметрах. Биометрические данные обладают высочайшей точностью, поэтому их использование кратно повышает достоверность аутентификации человека при получении финансовых и государственных услуг, – говорится в документе. – Важно понимать, что можно легко поменять пин-код на карте, а при большой необходимости сменить данные документов. Но изменить лицо или отпечаток пальца почти невозможно. Утечка биометрических данных может нанести непоправимый урон цифровой личности человека».
Народные избранники предлагают определить эталонные государственные базы биометрической информации и инвестировать в их защиту, провести ревизию всех регламентов использования и защиты биометрических данных, разработать государственную систему биометрической идентификации для целей получения гражданами государственных услуг, использования банковских сервисов, при этом доступ к детской биометрии осуществлять исключительно через государственную систему идентификации.