18+
11 Апреля 2025

ИИ с «высоким уровнем риска» определят законодательно

ИИ с «высоким уровнем риска» определят законодательно

Игроки на рынке, эксперты и депутаты обсуждают проект закона о регулировании искусственного интеллекта, в том числе запрет использования систем с «неприемлемым уровнем риска».

Также в законопроект хотят включить маркировку контента и ответственность для разработчиков за ущерб, который причинят нейросети, пишет РБК. Законопроект разрабатывается в рамках реализации Национальной стратегии развития ИИ до 2030 года.

В аппарате правительства и профильного ведомства отметили, к ним на рассмотрение документ не поступал, но они готовы его обсудить.

Законопроект предлагает ввести:

  • Понятие искусственного интеллекта, ИИ-технологий (компьютерное зрение, распознавание и синтез речи, машинное обучение, анализ данных),
  • Понятие ИИ-систем, операторов, разработчиков, пользователей.
  • Требование к «явной, недвусмысленной и легко идентифицируемой» маркировке ИИ-систем, которую обеспечит оператор.
  • Классификацию ИИ-систем по уровню риска (неприемлемо высокий, ограниченный, минимальный). Системы с неприемлемо высоким уровнем риска, представляющие угрозу безопасности личности, общества и государства, а также нарушающих основополагающие права и свободы человека и гражданина в РФ предлагают запретить.
  • Ответственность за причинение вреда жизни, здоровью и др. при разработке и эксплуатации систем ИИ (с исключениями).
  • Определение права на результат интеллектуальной деятельности, созданный с помощью ИИ, в зависимости от творческого вклада человека.

В случае принятия документа в текущем виде, разработчики и операторы ИИ-систем будут обязаны выполнить требования в течение года после вступления законопроекта в силу.

Созданным до этого момента ИИ-системам с высоким уровнем риска необходимо будет пройти сертификацию в течение двух лет.

 изображение Freepik

Аналитика