О предпосылках и положениях законопроекта «Об искусственном интеллекте» рассказывает руководитель Центра публичного законодательства и государственного управления Института парламентаризма при УДП РК, PhD Шолпан Саймова.

Развитие технологий искусственного интеллекта ставит перед государствами принципиально новые задачи как в сфере регулирования, так и в обеспечении баланса между инновациями и защитой прав граждан. Пока одни страны только начинают дискуссии, другие уже формируют собственные подходы к управлению рисками и возможностями ИИ. Казахстан демонстрирует проактивную позицию: разработка национального законопроекта «Об искусственном интеллекте» стала своевременным и стратегически выверенным шагом, отражающим стремление государства к формированию безопасной, этичной и конкурентоспособной цифровой среды.
– Во-первых, зачем, на Ваш взгляд, нужен этот законопроект? Насколько мне известно, пока аналогов ему практически нет...
– Отнюдь, в ряде стран уже приняты или активно разрабатываются соответствующие нормы, и Казахстан идет в ногу с мировыми трендами. В ЕС в 2024 году принят AI Act – первый закон об ИИ. США внедряют отраслевые стандарты и этические принципы. Китай активно регулирует дипфейки и алгоритмы персонализации. Сингапур и Южная Корея формируют национальные экосистемы управления ИИ.
Наш законопроект стал системным шагом: он закрепляет этические принципы, устанавливает нормы по защите персональных данных, требования к разработчикам и предусматривает создание Национальной платформы ИИ. Рабочая группа депутатов и экспертов учла лучшие международные подходы, адаптированные к национальным условиям. Речь идет не просто об устранении правовых пробелов, а о формировании устойчивой системы правовых гарантий и баланса интересов граждан, государства и бизнеса. Казахстан последовательно формирует собственную модель регулирования ИИ – своевременно, взвешенно и с ориентацией на долгосрочное развитие.
– Как шла разработка законопроекта? На чей опыт опирались и какие аспекты были приоритетными?
– Законопроект «Об искусственном интеллекте» был разработан во исполнение поручения Президента.
Касым-Жомарт Токаев неоднократно подчеркивал необходимость правового обеспечения цифровой трансформации. Законопроект стал логичным шагом в реализации государственной политики, направленной на обеспечение безопасности и этичности внедрения ИИ-технологий в различных сферах. В нем просматривается глубокое понимание того, что регулирование ИИ – это вопрос стратегической безопасности, экономического развития и этики.
В начале 2025 года текст законопроекта был размещен в открытом доступе, в его обсуждении приняли участие юристы, специалисты по IT, представители НПО. Поступили десятки конструктивных предложений.
Особое внимание было сосредоточено на рисках. По международным оценкам, в мире уже идентифицировано более 1 600 потенциальных рисков, связанных с применением ИИ, – от дискриминации и нарушения приватности до подмены решений и утраты контроля. И именно эти угрозы чаще всего поднимались в ходе общественного обсуждения.
В результате приоритетами стали защита персональных данных и прав граждан, недопущение автономного принятия решений без участия человека, прозрачность и подотчетность ИИ-систем, обязательная маркировка сгенерированного контента, создание национальной платформы для безопасной разработки и тестирования моделей.
Законопроект учитывает лучшие международные практики и строится на принципах гибкости и дифференцированного подхода.
Регулированию будут подлежать только системы высокого риска, тогда как остальные технологии смогут развиваться в более мягком правовом режиме. Кроме того, законопроект предусматривает государственную поддержку: финансирование исследований, стимулирование образовательных программ, развитие инфраструктуры для ИИ. Одним словом, цель законопроекта – направлять развитие ИИ, формируя понятные правила игры.
– После принятия законопроекта как это все будет отслеживаться? Допустим, борьба с теми же дипфейками...
– Вопрос представляется очень актуальным и злободневным, особенно в свете недавнего скандала, связанного с распространением дипфейк-видео с участием казахстанского актера. Его изображение было сгенерировано с использованием ИИ без согласия, что вызвало общественный резонанс и стало поводом для обращения в правоохранительные органы. Этот случай наглядно продемонстрировал риски, связанные с применением ИИ для создания манипулятивного контента.
Законопроект предусматривает ряд механизмов, направленных на обеспечение безопасности и подотчетности. В частности, вводится классификация ИИ-систем по уровням риска.
Системы высокого риска подлежат особому контролю. Они будут включаться в перечень критически важных объектов информационно-коммуникационной инфраструктуры и подпадать под контроль уполномоченных органов, а также Национального центра информационной безопасности при КНБ. Ключевой мерой является введение административной ответственности за нарушения правил использования ИИ. Разработчики обязаны управлять рисками своих систем и информировать пользователей о «синтетической» природе сгенерированного контента.
Наряду с этим рассматривается возможность введения уголовной ответственности, в том числе отдельной статьи в УК РК за распространение заведомо опасных дипфейков. Законопроект также запрещает генерацию и распространение недостоверных или манипулятивных материалов, включая скрытое воздействие на поведение, социальный скоринг и незаконное наблюдение. Для минимизации рисков предусматриваются технические и организационные меры.
– Сегодня контент, созданный ИИ, не требует никакой лицензии, авторских прав и прочего. Как быть с этим?
– В законопроекте не вводятся специальные нормы, касающиеся авторского права на контент, созданный искусственным интеллектом. Вместе с тем данный вопрос прямо отнесен к регулированию в рамках действующего законодательства в сфере авторского и смежных прав.
Надо понимать, что генеративный ИИ не признается субъектом права, следовательно, не может считаться автором произведения. Юридически автором контента, сгенерированного при участии ИИ, остается человек или организация, инициировавшие процесс создания и осуществлявшие творческий контроль – выбор стиля, жанра, тематики, редактирование результата и тому подобное.
Такой подход соответствует принципу «творческого вклада», закрепленному в авторском праве. Иными словами, если пользователь направлял ИИ, задавал параметры, творчески дорабатывал результат, то права на созданный продукт принадлежат ему, как лицу, осуществившему творческую деятельность с использованием ИИ в качестве инструмента.
В международной практике вопросы авторства ИИ-продуктов остаются предметом активных дискуссий. В отдельных юрисдикциях рассматриваются концепции соавторства или иного распределения прав. В казахстанском контексте пока преобладает точка зрения, что правами на результат обладает не система ИИ как таковая, а владелец или пользователь данной системы.
– Глава МЦРИАП подписал приказ, который запрещает госслужащим использовать ChatGPT в служебных целях. Как закон повлияет на государственные системы, применяющие ИИ?
– Использование зарубежных ИИ-сервисов, таких как ChatGPT, в госорганах показал риски утечки данных и подтвердил необходимость правового регулирования. В ответ на эти вызовы законопроект устанавливает правила применения ИИ в госорганах, включая требования к прозрачности алгоритмов, уведомлению о генерации синтетического контента, соблюдению стандартов информационной безопасности и защите персональных данных.
Таким образом, использование ИИ в государственных органах не запрещается, но допускается только при строгом соблюдении установленных требований, аналогичных тем, что применяются к критически важным объектам.
– Учителя сетуют, что дети сами практически ничего не делают, а копируют с нейросетей. Законопроект как-то будет регулировать эту сферу?
– Ваш вопрос затрагивает одну из наиболее чувствительных тем – использование ИИ в сфере образования. Все чаще педагоги отмечают, что учащиеся выполняют задания с помощью нейросетей, что снижает уровень самостоятельного и критического мышления.
В этом контексте также не может не тревожить нарастающее явление цифрового аутизма. На данный момент законопроект не содержит норм, прямо регулирующих сферу образования. Однако вопрос активно обсуждается как на рабочих группах Мажилиса, так и среди экспертного сообщества.