Искусственный интеллект (ИИ) в Казахстане: подписан новый закон

24.11.2025
  • 7930
  • ID: -

    Date: 08:12:2025

  • <неавторизован>

На портале ЭКБ НПА РК опубликован Закон «Об искусственном интеллекте» от 17.11.2025 г. № 230-VIII.

Закон вводится в действие по истечении шестидесяти календарных дней после дня его первого официального опубликования. Дата первого официального опубликования 18.11.2025 г. Таким образом, Закон вводится в действие с 17 января 2026 года.

Законом предусмотрены принципы регулирования отношений, права и обязанности собственников систем искусственного интеллекта и пользователей. Рассмотрим нововведения более детально. 

Новые понятия в Законе об ИИ

Вводятся новые понятия:

  • искусственный интеллект – функциональная способность к имитации когнитивных функций, характерных для человека, обеспечивающая результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их;
  • система искусственного интеллекта – объект информатизации, функционирующий на основе одной или нескольких моделей искусственного интеллекта;
  • модель искусственного интеллекта – программный продукт, разработанный для выполнения специализированных задач и способный адаптироваться к изменяющимся условиям, обучаться на основе накопленного опыта и оптимизировать процессы и результаты своей деятельности;
  • библиотека данных – совокупность структурированных и (или) сгруппированных данных, пригодных для обучения моделей искусственного интеллекта;
  • результат деятельности системы искусственного интеллекта – информация или решение независимо от формы их предоставления, или действия, включая работы и (или) услуги, произведенные и (или) оказываемые системой искусственного интеллекта;
  • машиночитаемая форма – форма предоставления информации, позволяющая ее автоматизированное считывание и обработку системами искусственного интеллекта либо иным программным обеспечением.

Задачи и принципы регулирования отношений в сфере ИИ

Задачи государственного регулирования в сфере ИИ:

  • определение правовой и организационной основы регулирования общественных отношений в сфере искусственного интеллекта;
  • обеспечение прозрачности и безопасности в использовании систем искусственного интеллекта, а также результатов деятельности систем искусственного интеллекта;
  • создание благоприятных условий для привлечения инвестиций в развитие сферы искусственного интеллекта;
  • государственная поддержка исследований и инноваций в сфере искусственного интеллекта.

Общественные отношения в сфере искусственного интеллекта регулируются на основании следующих принципов:

  • законность – субъекты отношений в сфере ИИ обязаны соблюдать требования Конституции Республики Казахстан, настоящего Закона и иных нормативных правовых актов Республики Казахстан;
  • справедливость и равенство – системы ИИ должны создаваться и эксплуатироваться таким образом, чтобы обеспечивать справедливость и равенство с признанием достоинства каждого человека, его равной ценности, прав, свобод и законных интересов, исключая любую дискриминацию по мотивам происхождения, социального, должностного и имущественного положения, пола, расы, национальности, языка, отношения к религии, убеждений, места жительства или по любым иным обстоятельствам;
  • прозрачность и объяснимость – пользователям должна быть предоставлена полная информация об эксплуатационных и иных характеристиках и ограничениях системы ИИ, также пользователь имеет право быть информированным о порядке автоматизированной обработки и ее последствиях, о возможности заявить возражение против автоматизированной обработки, а также о порядке защиты своих прав, свобод и законных интересов;
  • ответственность и подконтрольность – собственник, владелец и (или) пользователь обязаны обеспечивать постоянный контроль над системой ИИ в объеме и порядке, зависящих от их роли, на всех этапах жизненного цикла системы ИИ. Все субъекты, занимающиеся созданием, эксплуатацией систем ИИ, несут ответственность, установленную законами Республики Казахстан, за деятельность систем ИИ, а также за результаты деятельности систем ИИ, исходя из их роли, на всех этапах жизненного цикла системы искусственного интеллекта. Создание и эксплуатация системы ИИ осуществляются с учетом энергоэффективности и стремления к снижению негативного воздействия на окружающую среду;
  • приоритет благополучия человека, свободы воли в принятии им решений – человек, его жизнь, права и свободы рассматриваются как высшая ценность в процессах создания и эксплуатации систем ИИ. При эксплуатации систем ИИ должно быть обеспечено сохранение автономии и свободы воли человека в принятии им решений;
  • защита конфиденциальности и данных – эксплуатация систем ИИ возможна при соблюдении требований защиты данных и конфиденциальности, исключая неправомерный сбор, хранение и распространение персональных данных. При эксплуатации систем ИИ в целях безопасного их функционирования осуществляются охрана и защита персональных данных, обработка которых осуществляется системами ИИ, а также принимаются меры по предотвращению несанкционированного доступа третьих лиц к персональным данным и использованию качественных и репрезентативных наборов данных, полученных с соблюдением законодательства Республики Казахстан;
  • безопасность и защищенность – системы ИИ должны создаваться и эксплуатироваться с соблюдением требований безопасности и надежности, исключающих возможность непредвиденных последствий или злоупотреблений. В целях предотвращения потенциальных угроз собственники и владельцы систем ИИ обязаны осуществлять управление рисками систем ИИ с принятием мер для исключения таких угроз.

В целях соблюдения вышеописанных принципов, разработаны права и обязанности для собственников и владельцев, пользователей информационных систем и собственников и владельцев библиотек данных. 

Права и обязанности собственников и владельцев систем ИИ

Собственники и владельцы систем искусственного интеллекта вправе:

  • определять условия пользования системами искусственного интеллекта;
  • осуществлять меры по защите своих прав на системы искусственного интеллекта.

Собственники и владельцы систем искусственного интеллекта обязаны:

  • осуществлять управление рисками систем искусственного интеллекта;
  • принимать меры для обеспечения безопасности и надежности систем искусственного интеллекта, включая защиту от несанкционированного доступа, сбоев в их работе;
  • вести документацию на систему искусственного интеллекта в зависимости от степени ее воздействия на безопасность, права и интересы граждан, общества и государства, в соответствии с перечнем, утвержденным уполномоченным органом;
  • осуществлять поддержку пользователей систем искусственного интеллекта, по вопросам их функционирования;
  • предоставлять пользователям возможность ознакомиться с пользовательским соглашением системы искусственного интеллекта до начала ее использования.

Права и обязанности пользователей

Пользователи вправе: 

  • ознакомиться с пользовательским соглашением системы искусственного интеллекта;
  • на защиту своих персональных данных и конфиденциальной информации, обрабатываемой системой искусственного интеллекта;
  • осуществлять меры по защите своих прав на объекты прав интеллектуальной собственности, созданные с использованием систем искусственного интеллекта;
  • получать от собственника или владельца системы искусственного интеллекта разъяснения о результатах ее деятельности, затрагивающей его права, свободы и законные интересы, в порядке, предусмотренном пользовательским соглашением и законодательством Республики Казахстан;
  • запрашивать информацию о данных, на основании которых принято решение системой искусственного интеллекта, в объеме, предусмотренном пользовательским соглашением, с учетом требований законодательства Республики Казахстан о персональных данных и их защите, требований по обеспечению конфиденциальности информации и коммерческой тайны;
  • отказаться от взаимодействия с системой искусственного интеллекта в случаях, когда обязательность такого взаимодействия не установлена законами Республики Казахстан.

Пользователи обязаны:

  • использовать системы искусственного интеллекта исключительно в рамках предоставленных прав доступа;
  • соблюдать установленные правила и меры безопасности при использовании систем искусственного интеллекта.

Права и обязанности собственников и владельцев библиотеки данных

Собственники и владельцы библиотек данных вправе:

  • свободно создавать, использовать и распространять библиотеки данных с соблюдением запретов и ограничений, установленных законами Республики Казахстан;
  • контролировать использование своих библиотек данных для обучения моделей искусственного интеллекта в пределах заявленных целей, включая соблюдение условий и ограничений их использования;
  • получать информацию о принципах работы моделей искусственного интеллекта, обучаемых на представленных ими библиотеках данных, в части, необходимой для подтверждения соблюдения условий использования.

Собственники и владельцы библиотек данных обязаны:

  • обеспечивать качество и актуальность представляемых библиотек данных;
  • определять и доводить до пользователя условия и порядок доступа к библиотекам данных;
  • соблюдать требования законодательства Республики Казахстан, в том числе о персональных данных и их защите, об авторском праве и смежных правах.

Какие системы ИИ возможны?

Системы ИИ различаются по уровню риска, автономности принятия решений и режиму использования ИИ:

Градация по уровню риска выглядит следующим образом:

  • минимального риска – нарушение или прекращение функционирования которых окажет минимальное влияние на их пользователей;
  • среднего риска – нарушение или прекращение функционирования, которых может привести к снижению эффективности и результативности деятельности пользователей, и может нанести материальный ущерб или моральный вред;
  • высокого риска – нарушение или прекращение функционирования которых приводит к чрезвычайной ситуации социального и (или) техногенного характера или к значительным негативным последствиям для обороны, безопасности, международных отношений, экономики, отдельных сфер хозяйства, пользователей, инфраструктуры Республики Казахстан, жизнедеятельности физических лиц.

Отнесение систем ИИ к минимальной, средней либо высокой степени риска осуществляется ее собственником и (или) владельцем в соответствии с правилами классификации объектов информатизации.

Системы ИИ высокого риска, отнесенные к критически важным объектам информационно-коммуникационной инфраструктуры, а также предназначенные для формирования государственных электронных информационных ресурсов, приравниваются к государственным в части соблюдения требований по обеспечению информационной безопасности.

Градация по уровню автономности принятия решений:

  • низкой автономности – предназначены для автоматизированной обработки данных и формирования рекомендаций, прогнозов или вариантов решений, однако окончательный выбор и действия которых всегда осуществляются человеком;
  • средней автономности – предназначены для автономной обработки и принятия решений, при которых сохраняется возможность корректировки или отмены таких решений человеком;
  • высокой автономности – предназначены для автономной обработки и принятия решений, при которых корректировка или отмена таких решений человеком полностью исключена либо технически невозможна.

Градация по режиму использования ИИ:

  • открытые системы – доступны для свободного использования, модификации и распространения в соответствии с условиями пользовательского соглашения;
  • закрытые системы – системы, доступ к архитектуре и параметрам которых ограничен их собственником или владельцем;
  • локальные системы – системы, обучение и эксплуатация которых осуществляются в пределах информационно-коммуникационной инфраструктуры владельца (оператора) без подключения к сетям телекоммуникаций общего пользования.
Локальные системы применяются для обработки данных, доступ к которым ограничен законами Республики Казахстан, а также в иных случаях, когда в соответствии с законодательством Республики Казахстан не допускается возможность использования систем, имеющих подключение к сетям телекоммуникаций общего пользования

Какие системы ИИ запрещены в Казахстане?

На территории Республики Казахстан запрещается создание и эксплуатация систем искусственного интеллекта, обладающих одной из следующих функциональных возможностей:

  • использование подсознательных, манипулятивных или иных методов, искажающих поведение физического лица и ограничивающих способность принимать осознанные решения или вынуждающих принимать решение, которые могут причинить лицу вред или создать угрозу причинения вреда;
  • использование моральной и (или) физической уязвимости физического лица из-за возраста, инвалидности, социального положения и по любых иных обстоятельств, с целью причинения или создания угрозы причинения вреда лицу;
  • оценка и классификация физических лиц или группы лиц в течение определенного периода времени на основе их социального поведения или известных, предполагаемых или прогнозируемых личных характеристик, за исключением случаев, предусмотренных законами Республики Казахстан;
  • сбор и обработка персональных данных с нарушением законодательства Республики Казахстан о персональных данных и их защите;
  • классификация физических лиц на основе их биометрических данных для формирования выводов об их расе, политических взглядах, религиозной принадлежности, и по любым иным обстоятельствам (критериям) в целях использования для какой-либо дискриминации физического лица;
  • определение эмоций физического лица без его согласия, за исключением случаев, предусмотренных законами Республики Казахстан;
  • создание и распространение запрещенных законами Республики Казахстан результатов деятельности систем искусственного интеллекта.

Требования к безопасности систем ИИ

Управление рисками систем искусственного интеллекта – непрерывный процесс, запланированный и выполняемый собственником и (или) владельцем на протяжении всего жизненного цикла системы искусственного интеллекта, включающий:

  • выявление и анализ известных и прогнозируемых рисков системы искусственного интеллекта при использовании в соответствии с ее предполагаемым назначением;
  • оценку рисков системы искусственного интеллекта, осуществляемую в соответствии с ее предполагаемым назначением и в условиях предсказуемого нецелевого использования;
  • принятие соответствующих и целенаправленных мер по управлению рисками, предназначенных для предупреждения и устранения выявленных рисков;
  • регулярное, не реже одного раза в год, обновление рисков.

В случае выявления рисков собственники и владельцы систем ИИ должны принять незамедлительные меры, направленные на предотвращение и минимизацию ущерба, а также защиту прав, свобод и законных интересов физических лиц, общества, в том числе путем приостановки или полного прекращения эксплуатации такой системы искусственного интеллекта.

Собственники и (или) владельцы систем искусственного интеллекта, претендующие на включение своих систем в перечень доверенных, осуществляют аудит систем искусственного интеллекта.

Обратите внимание!

Перечень доверенных систем искусственного интеллекта высокой степени риска формируется отраслевыми государственными органами в целях обеспечения доверия и распространения лучших практик применения систем искусственного интеллекта в соответствующей отрасли (сфере) и на постоянной основе публикуются на интернет-ресурсах государственных органов в порядке, определяемом уполномоченным органом

Аудит систем искусственного интеллекта проводится в соответствии с правилами проведения аудита информационных систем.

При проведении аудита систем искусственного интеллекта дополнительно подлежат оценке:

  • качество и правомерность использования библиотек данных, применяемых для обучения моделей искусственного интеллекта;
  • наличие запрещенных функциональных возможностей систем искусственного интеллекта в соответствии с настоящим Законом.

Обеспечение прозрачности использования систем ИИ

Пользователи должны быть проинформированы о том, что товары, работы и услуги произведены или оказываются с использованием систем искусственного интеллекта.

Распространение синтетических результатов деятельности систем искусственного интеллекта допускается только при условии их маркировки в машиночитаемой форме и сопровождения визуальной либо иной формой предупреждения, обеспечивающей возможность восприятия пользователем без применения методов, затрудняющих такое восприятие.

Ответственность за информирование пользователей о синтетических результатах деятельности систем искусственного интеллекта возлагается на собственников или владельцев таких систем.

Требования к принятию решений на основании исключительно автоматизированной обработки персональных данных устанавливаются законодательством Республики Казахстан о персональных данных и их защите.

Обязанность по обеспечению соответствия результатов деятельности систем искусственного интеллекта требованиям законодательства Республики Казахстан возлагается на собственников и (или) владельцев систем искусственного интеллекта.

Авторское право в сфере ИИ

Произведения, созданные с использованием систем искусственного интеллекта, охраняются авторским правом только в случае наличия творческого вклада человека в их создание.

Текстовые запросы, направляемые в системы ИИ, являющиеся результатом интеллектуальной творческой деятельности человека, признаются объектами авторского права в соответствии с законодательством Республики Казахстан об авторском праве и смежных правах.

Использование произведений для обучения моделей искусственного интеллекта не относится к случаям свободного использования произведений в образовательных или научных целях, предусмотренным законодательством Республики Казахстан об авторском праве и смежных правах.

Использование произведений для обучения моделей искусственного интеллекта не предполагает их использования в формах, относящихся к личным неимущественным и имущественным (исключительным) правам автора, включая воспроизведение, распространение, переработку, публичный показ, исполнение, сообщение в эфир или по кабелю, доведение до всеобщего сведения и иные действия, предусмотренные законодательством Республики Казахстан об авторском праве и смежных правах.

Использование произведений для обучения моделей искусственного интеллекта допускается только при отсутствии запрета со стороны автора или правообладателя, выраженного в машиночитаемой форме.

Нравится
2

Новости

Комментировать материалы сайта могут зарегистрированные пользователи.
Вход через портал STSL

Нет комментариев